моя контактная информация
Почтамезофия@protonmail.com
2024-07-26
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Новый отчет мудрости
Монтажер: Таози
[Введение в новую мудрость] В то время как зверь Llama 3.1 405B имел открытый исходный код, OpenAI снова привлек к себе внимание. Отныне 2 миллиона токенов обучения будут использоваться для бесплатной настройки модели каждый день до 23 сентября.
В тот же день, когда исходный код Llama 3.1 был открыт, был открыт и OpenAI.
GPT-4o mini можно бесплатно настроить, а 2 миллиона токенов обучения можно использовать каждый день в течение ограниченного периода времени в 2 месяца (по состоянию на 23 сентября).
Разработчики, получившие письмо, с волнением поспешили сообщить друг другу, что такой большой кусок шерсти необходимо собрать как можно скорее.
С другой стороны, также появился рейтинг GPT-4o mini на арене крупных моделей LMSYS.
В общем списке первое место разделили GPT-4o mini и GPT-4o.
Альтман взволнованно сказал: «Я никогда не был так взволнован ни одной оценкой. Производительность GPT-4o mini настолько близка к производительности GPT-4o, а цена составляет всего 1/20 от нее!»
При этом он сообщил, что доводка GPT-4o mini теперь ведется онлайн.
Действительно неожиданно, что OpenAI может выпустить такую мощную модель, чтобы каждый мог ее использовать бесплатно.
Пользователи сети когда-то подумали, что это может быть самое продвинутое фишинговое письмо.
2 миллиона токенов в день, бесплатная тонкая настройка GPT-4o mini
В электронном письме OpenAI объявила, что официально запустила мини-функцию тонкой настройки GPT-4o, чтобы последняя небольшая модель работала лучше в конкретных случаях использования.
С 23 июля по 23 сентября разработчики могут бесплатно использовать 2 миллиона токенов обучения каждый день.
Превышение будет взиматься в токенах на сумму 3 миллиона долларов США.
По истечении двух месяцев бесплатного использования обучение по тонкой настройке также будет стоить 3 миллиона долларов США за токен.
Кроме того, OpenAI в письме привел причины, почему всем стоит перейти с GPT-3.5 Turbo на GPT-4o mini:
- Более доступный: комиссия за входной токен GPT-4o mini на 90 % ниже, чем у GPT-3.5 Turbo, а комиссия за выходной токен ниже на 80 %. Даже после окончания бесплатного периода стоимость обучения GPT-4o mini вдвое меньше, чем GPT-3.5 Turbo.
- Более длинный контекст: длина контекста обучения GPT-4o mini составляет 65 тыс. токенов, что в 4 раза больше, чем у GPT-3.5 Turbo, а длина контекста вывода составляет 128 тыс. токенов, что в 8 раз больше, чем у GPT-3.5 Turbo.
- Умнее и функциональнее: GPT-4o mini умнее GPT-3.5 Turbo и поддерживает визуальные функции (хотя точная настройка в настоящее время ограничена текстом).
Наконец, в электронном письме также упоминается, что функция мини-тонкой настройки GPT-4o будет открыта для корпоративных клиентов, а также для разработчиков уровня 4 и уровня 5, а в будущем права доступа будут постепенно расширяться для всех уровней пользователей.
Для тех, кто хочет попрактиковаться, OpenAI выпустила руководство по тонкой настройке, см.:
https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples
Некоторые пользователи сети не испытывают оптимизма по этому поводу. Они сохраняют наши данные для обучения и улучшения моделей ИИ.
«АКА, дайте мне свои личные данные, и я возьму с вас небольшую плату».
Сценарии использования пользователями сети
Пользователи сети, получившие квалификацию, с нетерпением ждут начала тестирования.
Разработчики доработали gpt-4o mini, используя набор данных заголовков в стиле журнала Economist.
Затем он сравнил производительность исходной модели gpt-4o, gpt-4o min и доработанной модели при создании заголовков.
В списке доминируют небольшие модели, сравнимые с GPT-4o.
Спустя неделю после выпуска GPT-4o mini наконец-то стали известны результаты рейтинга крупных моделей.
Всего было получено более 4 тысяч голосов пользователей, и мини-модель GPT-4o сразу поднялась на вершину списка, разделив первое место с GPT-4o.
Самое главное, это в 20 раз дешевле!
Это хорошая новость для многих разработчиков, которые могут создавать более мощные приложения с меньшими затратами.
В математическом подразделении производительность GPT-4o mini снизилась, заняв 9-е место.
Кроме того, в жесткой оперативной оценке GPT-4o mini по-прежнему сохранял стабильную производительность, уступая только GPT-4o и Claude 3.5 Sonnet.
В области кодирования GPT-4o mini также демонстрирует большие возможности.
Многие люди задаются вопросом, почему GPT-4o mini занимает такое высокое место на арене.
Официальное объяснение этому:
- Chatbot Arena оценивается на основе предпочтений людей в разных областях. Каждому рекомендуется следить не только за общим рейтингом, но и за рейтингом в каждой категории (например, математика, программирование и т. д.).
- Оценка арены производится в режиме реального времени. Каждому предлагается лично сравнить модели на Арене и проверить свои предположения в режиме реального времени.
— Прозрачность — наша основная ценность; весь код и результаты анализа имеют открытый исходный код (http://github.com/lm-sys/FastChat). Мы регулярно публикуем 20% данных и сохраняем оставшиеся данные, чтобы избежать переобучения и сохранить целостность эталонного теста.
- Мы опубликуем случайные 20% данных мини-битв GPT-4o в соответствии с политикой, и вы сможете проверить ответы сами.
Однако другие пользователи сети считают, что победа gpt-4o-mini является существенным доказательством того, что обычные люди не так уж умны.
И впервые в истории ИИ стал достаточно умным, чтобы обмануть нас. Немного сумасшедший и немного исторический.
Использованная литература:
https://x.com/moyix/status/1815840634013639086
https://x.com/HamelHusain/status/1815848198927434019
https://x.com/sama/status/1815877987696533897
https://x.com/0xSMW/status/1815869241205350641