notícias

O GPT-4o mini domina o ranking e pode ser ajustado por um período limitado de 2 meses sem nenhum custo!2 milhões de tokens de treinamento são coletados gratuitamente todos os dias

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Novo Relatório de Sabedoria

Editor: Taozi

[Introdução à Nova Sabedoria] Enquanto a fera Llama 3.1 405B era de código aberto, OpenAI roubou os holofotes novamente. A partir de agora, 2 milhões de tokens de treinamento serão usados ​​para ajustar o modelo gratuitamente todos os dias até 23 de setembro.

No mesmo dia em que o Llama 3.1 foi aberto, o OpenAI também foi aberto.


O GPT-4o mini pode ser ajustado gratuitamente e 2 milhões de tokens de treinamento podem ser usados ​​todos os dias por um período limitado de 2 meses (a partir de 23 de setembro).


Os desenvolvedores que receberam o e-mail correram para dizer uns aos outros com entusiasmo que um pedaço de lã tão grande deveria ser colhido o mais rápido possível.


Por outro lado, a classificação do GPT-4o mini na grande arena de modelos LMSYS também foi divulgada.

Na lista geral, GPT-4o mini e GPT-4o empataram em primeiro lugar.


Altman disse com entusiasmo: “Nunca fiquei tão entusiasmado com qualquer avaliação. O desempenho do GPT-4o mini é tão próximo do do GPT-4o e o preço é apenas 1/20 dele!”


Ao mesmo tempo, ele disse que o ajuste fino do GPT-4o mini já está online.


É realmente inesperado que a OpenAI possa lançar um modelo tão poderoso para todos usarem gratuitamente.

Certa vez, os internautas pensaram que este poderia ser o e-mail de phishing mais avançado.


2 milhões de tokens por dia, mini ajuste fino gratuito do GPT-4o

No e-mail, a OpenAI anunciou que lançou oficialmente a mini função de ajuste fino GPT-4o para fazer com que o modelo pequeno mais recente tenha um melhor desempenho em casos de uso específicos.

De 23 de julho a 23 de setembro, os desenvolvedores podem usar 2 milhões de tokens de treinamento gratuitamente todos os dias.


O excesso será cobrado em tokens de US$ 3 milhões.

Após o término dos 2 meses de uso gratuito, o treinamento de ajuste fino também será cobrado a US$ 3 milhões por token.


Além disso, a OpenAI forneceu no e-mail os motivos pelos quais vale a pena que todos mudem do GPT-3.5 Turbo para o GPT-4o mini:

- Mais acessível: a taxa de token de entrada do GPT-4o mini é 90% menor que a do GPT-3.5 Turbo e a taxa de token de saída é 80% menor. Mesmo após o término do período gratuito, o custo de treinamento do GPT-4o mini é metade do custo do GPT-3.5 Turbo.


- Contexto mais longo: o comprimento do contexto de treinamento do GPT-4o mini é de 65 mil tokens, 4 vezes o do GPT-3.5 Turbo, e o comprimento do contexto de inferência é de 128 mil tokens, que é 8 vezes o do GPT-3.5 Turbo.

- Mais inteligente e mais capaz: o GPT-4o mini é mais inteligente que o GPT-3.5 Turbo e suporta recursos visuais (embora o ajuste fino esteja atualmente limitado ao texto).


Por fim, o e-mail também mencionou que a mini função de ajuste fino do GPT-4o estará aberta a clientes corporativos, bem como a desenvolvedores de nível 4 e nível 5, e os direitos de acesso serão gradualmente expandidos para todos os níveis de usuários no futuro.


Para quem deseja colocar a mão na massa, a OpenAI lançou um guia de ajuste fino, consulte:

https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples


Alguns internautas não estão otimistas com isso. Eles estão salvando nossos dados para treinar e melhorar os modelos de IA.


"AKA, forneça-me seus dados privados e cobrarei uma pequena taxa."


Casos de uso de internautas

Os internautas que obtiveram as qualificações mal podem esperar para começar os testes.

Os desenvolvedores ajustaram o gpt-4o mini usando um conjunto de dados de manchetes no estilo Economist.



Ele então comparou o desempenho do modelo original gpt-4o, gpt-4o min e do modelo ajustado na geração de manchetes.


Modelos pequenos dominam a lista, comparáveis ​​ao GPT-4o

Uma semana após o lançamento do GPT-4o mini, os resultados nas classificações de modelos grandes foram finalmente divulgados.

Um total de votos de usuários 4K+ foram recebidos, e o mini modelo GPT-4o subiu diretamente para o topo da lista, empatando em primeiro lugar com o GPT-4o.

O mais importante é que é 20 vezes mais barato!


Esta é uma boa notícia para muitos desenvolvedores, que podem criar aplicativos mais poderosos a um custo menor.


Na subdivisão matemática, o desempenho do GPT-4o mini diminuiu, ficando em 9º lugar.


Além disso, na avaliação imediata, o GPT-4o mini ainda manteve um desempenho estável, perdendo apenas para o GPT-4o e o Claude 3.5 Sonnet.


No campo da codificação, o GPT-4o mini também apresenta fortes capacidades.


Muitas pessoas levantaram questões sobre por que o GPT-4o mini tem uma classificação tão alta no Arena.


A explicação oficial para isso é:

- O Chatbot Arena é avaliado com base nas preferências humanas em diferentes áreas. Todos são incentivados a seguir não apenas as classificações gerais, mas também as classificações em cada categoria (por exemplo, matemática, codificação, etc.).

- A avaliação da arena é feita em tempo real. Todos são incentivados a comparar modelos pessoalmente no Arena e verificar suas suposições em tempo real.

- A transparência é o nosso valor principal; todos os códigos e análises são de código aberto (http://github.com/lm-sys/FastChat). Divulgamos regularmente 20% dos dados e retemos os dados restantes para evitar overfitting e manter a integridade do benchmark.

- Liberaremos dados aleatórios de mini-batalha GPT-4o de 20% de acordo com a política, e você poderá verificar as respostas por si mesmo.

No entanto, outros internautas acreditam que a vitória do gpt-4o-mini é uma prova substancial de que as pessoas comuns não são tão inteligentes.

E, pela primeira vez na história, a IA tornou-se suficientemente inteligente para nos enganar. Um pouco louco e um pouco histórico.



Referências:

https://x.com/moyix/status/1815840634013639086

https://x.com/HamelHusain/status/1815848198927434019

https://x.com/sama/status/1815877987696533897

https://x.com/0xSMW/status/1815869241205350641