Новости

GPT-4o mini доминирует в рейтингах, и его можно бесплатно настроить в течение ограниченного периода времени в 2 месяца!2 миллиона токенов обучения собираются бесплатно каждый день

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Новый отчет мудрости

Монтажер: Таози

[Введение в новую мудрость] В то время как зверь Llama 3.1 405B имел открытый исходный код, OpenAI снова привлек к себе внимание. Отныне 2 миллиона токенов обучения будут использоваться для бесплатной настройки модели каждый день до 23 сентября.

В тот же день, когда исходный код Llama 3.1 был открыт, был открыт и OpenAI.


GPT-4o mini можно бесплатно настроить, а 2 миллиона токенов обучения можно использовать каждый день в течение ограниченного периода времени в 2 месяца (по состоянию на 23 сентября).


Разработчики, получившие письмо, с волнением поспешили сообщить друг другу, что такой большой кусок шерсти необходимо собрать как можно скорее.


С другой стороны, также появился рейтинг GPT-4o mini на арене крупных моделей LMSYS.

В общем списке первое место разделили GPT-4o mini и GPT-4o.


Альтман взволнованно сказал: «Я никогда не был так взволнован ни одной оценкой. Производительность GPT-4o mini настолько близка к производительности GPT-4o, а цена составляет всего 1/20 от нее!»


При этом он сообщил, что доводка GPT-4o mini теперь ведется онлайн.


Действительно неожиданно, что OpenAI может выпустить такую ​​мощную модель, чтобы каждый мог ее использовать бесплатно.

Пользователи сети когда-то подумали, что это может быть самое продвинутое фишинговое письмо.


2 миллиона токенов в день, бесплатная тонкая настройка GPT-4o mini

В электронном письме OpenAI объявила, что официально запустила мини-функцию тонкой настройки GPT-4o, чтобы последняя небольшая модель работала лучше в конкретных случаях использования.

С 23 июля по 23 сентября разработчики могут бесплатно использовать 2 миллиона токенов обучения каждый день.


Превышение будет взиматься в токенах на сумму 3 миллиона долларов США.

По истечении двух месяцев бесплатного использования обучение по тонкой настройке также будет стоить 3 миллиона долларов США за токен.


Кроме того, OpenAI в письме привел причины, почему всем стоит перейти с GPT-3.5 Turbo на GPT-4o mini:

- Более доступный: комиссия за входной токен GPT-4o mini на 90 % ниже, чем у GPT-3.5 Turbo, а комиссия за выходной токен ниже на 80 %. Даже после окончания бесплатного периода стоимость обучения GPT-4o mini вдвое меньше, чем GPT-3.5 Turbo.


- Более длинный контекст: длина контекста обучения GPT-4o mini составляет 65 тыс. токенов, что в 4 раза больше, чем у GPT-3.5 Turbo, а длина контекста вывода составляет 128 тыс. токенов, что в 8 раз больше, чем у GPT-3.5 Turbo.

- Умнее и функциональнее: GPT-4o mini умнее GPT-3.5 Turbo и поддерживает визуальные функции (хотя точная настройка в настоящее время ограничена текстом).


Наконец, в электронном письме также упоминается, что функция мини-тонкой настройки GPT-4o будет открыта для корпоративных клиентов, а также для разработчиков уровня 4 и уровня 5, а в будущем права доступа будут постепенно расширяться для всех уровней пользователей.


Для тех, кто хочет попрактиковаться, OpenAI выпустила руководство по тонкой настройке, см.:

https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples


Некоторые пользователи сети не испытывают оптимизма по этому поводу. Они сохраняют наши данные для обучения и улучшения моделей ИИ.


«АКА, дайте мне свои личные данные, и я возьму с вас небольшую плату».


Сценарии использования пользователями сети

Пользователи сети, получившие квалификацию, с нетерпением ждут начала тестирования.

Разработчики доработали gpt-4o mini, используя набор данных заголовков в стиле журнала Economist.



Затем он сравнил производительность исходной модели gpt-4o, gpt-4o min и доработанной модели при создании заголовков.


В списке доминируют небольшие модели, сравнимые с GPT-4o.

Спустя неделю после выпуска GPT-4o mini наконец-то стали известны результаты рейтинга крупных моделей.

Всего было получено более 4 тысяч голосов пользователей, и мини-модель GPT-4o сразу поднялась на вершину списка, разделив первое место с GPT-4o.

Самое главное, это в 20 раз дешевле!


Это хорошая новость для многих разработчиков, которые могут создавать более мощные приложения с меньшими затратами.


В математическом подразделении производительность GPT-4o mini снизилась, заняв 9-е место.


Кроме того, в жесткой оперативной оценке GPT-4o mini по-прежнему сохранял стабильную производительность, уступая только GPT-4o и Claude 3.5 Sonnet.


В области кодирования GPT-4o mini также демонстрирует большие возможности.


Многие люди задаются вопросом, почему GPT-4o mini занимает такое высокое место на арене.


Официальное объяснение этому:

- Chatbot Arena оценивается на основе предпочтений людей в разных областях. Каждому рекомендуется следить не только за общим рейтингом, но и за рейтингом в каждой категории (например, математика, программирование и т. д.).

- Оценка арены производится в режиме реального времени. Каждому предлагается лично сравнить модели на Арене и проверить свои предположения в режиме реального времени.

— Прозрачность — наша основная ценность; весь код и результаты анализа имеют открытый исходный код (http://github.com/lm-sys/FastChat). Мы регулярно публикуем 20% данных и сохраняем оставшиеся данные, чтобы избежать переобучения и сохранить целостность эталонного теста.

- Мы опубликуем случайные 20% данных мини-битв GPT-4o в соответствии с политикой, и вы сможете проверить ответы сами.

Однако другие пользователи сети считают, что победа gpt-4o-mini является существенным доказательством того, что обычные люди не так уж умны.

И впервые в истории ИИ стал достаточно умным, чтобы обмануть нас. Немного сумасшедший и немного исторический.



Использованная литература:

https://x.com/moyix/status/1815840634013639086

https://x.com/HamelHusain/status/1815848198927434019

https://x.com/sama/status/1815877987696533897

https://x.com/0xSMW/status/1815869241205350641