minhas informações de contato
Correspondência[email protected]
2024-07-26
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Novo Relatório de Sabedoria
Editor: Taozi
[Introdução à Nova Sabedoria] Enquanto a fera Llama 3.1 405B era de código aberto, OpenAI roubou os holofotes novamente. A partir de agora, 2 milhões de tokens de treinamento serão usados para ajustar o modelo gratuitamente todos os dias até 23 de setembro.
No mesmo dia em que o Llama 3.1 foi aberto, o OpenAI também foi aberto.
O GPT-4o mini pode ser ajustado gratuitamente e 2 milhões de tokens de treinamento podem ser usados todos os dias por um período limitado de 2 meses (a partir de 23 de setembro).
Os desenvolvedores que receberam o e-mail correram para dizer uns aos outros com entusiasmo que um pedaço de lã tão grande deveria ser colhido o mais rápido possível.
Por outro lado, a classificação do GPT-4o mini na grande arena de modelos LMSYS também foi divulgada.
Na lista geral, GPT-4o mini e GPT-4o empataram em primeiro lugar.
Altman disse com entusiasmo: “Nunca fiquei tão entusiasmado com qualquer avaliação. O desempenho do GPT-4o mini é tão próximo do do GPT-4o e o preço é apenas 1/20 dele!”
Ao mesmo tempo, ele disse que o ajuste fino do GPT-4o mini já está online.
É realmente inesperado que a OpenAI possa lançar um modelo tão poderoso para todos usarem gratuitamente.
Certa vez, os internautas pensaram que este poderia ser o e-mail de phishing mais avançado.
2 milhões de tokens por dia, mini ajuste fino gratuito do GPT-4o
No e-mail, a OpenAI anunciou que lançou oficialmente a mini função de ajuste fino GPT-4o para fazer com que o modelo pequeno mais recente tenha um melhor desempenho em casos de uso específicos.
De 23 de julho a 23 de setembro, os desenvolvedores podem usar 2 milhões de tokens de treinamento gratuitamente todos os dias.
O excesso será cobrado em tokens de US$ 3 milhões.
Após o término dos 2 meses de uso gratuito, o treinamento de ajuste fino também será cobrado a US$ 3 milhões por token.
Além disso, a OpenAI forneceu no e-mail os motivos pelos quais vale a pena que todos mudem do GPT-3.5 Turbo para o GPT-4o mini:
- Mais acessível: a taxa de token de entrada do GPT-4o mini é 90% menor que a do GPT-3.5 Turbo e a taxa de token de saída é 80% menor. Mesmo após o término do período gratuito, o custo de treinamento do GPT-4o mini é metade do custo do GPT-3.5 Turbo.
- Contexto mais longo: o comprimento do contexto de treinamento do GPT-4o mini é de 65 mil tokens, 4 vezes o do GPT-3.5 Turbo, e o comprimento do contexto de inferência é de 128 mil tokens, que é 8 vezes o do GPT-3.5 Turbo.
- Mais inteligente e mais capaz: o GPT-4o mini é mais inteligente que o GPT-3.5 Turbo e suporta recursos visuais (embora o ajuste fino esteja atualmente limitado ao texto).
Por fim, o e-mail também mencionou que a mini função de ajuste fino do GPT-4o estará aberta a clientes corporativos, bem como a desenvolvedores de nível 4 e nível 5, e os direitos de acesso serão gradualmente expandidos para todos os níveis de usuários no futuro.
Para quem deseja colocar a mão na massa, a OpenAI lançou um guia de ajuste fino, consulte:
https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples
Alguns internautas não estão otimistas com isso. Eles estão salvando nossos dados para treinar e melhorar os modelos de IA.
"AKA, forneça-me seus dados privados e cobrarei uma pequena taxa."
Casos de uso de internautas
Os internautas que obtiveram as qualificações mal podem esperar para começar os testes.
Os desenvolvedores ajustaram o gpt-4o mini usando um conjunto de dados de manchetes no estilo Economist.
Ele então comparou o desempenho do modelo original gpt-4o, gpt-4o min e do modelo ajustado na geração de manchetes.
Modelos pequenos dominam a lista, comparáveis ao GPT-4o
Uma semana após o lançamento do GPT-4o mini, os resultados nas classificações de modelos grandes foram finalmente divulgados.
Um total de votos de usuários 4K+ foram recebidos, e o mini modelo GPT-4o subiu diretamente para o topo da lista, empatando em primeiro lugar com o GPT-4o.
O mais importante é que é 20 vezes mais barato!
Esta é uma boa notícia para muitos desenvolvedores, que podem criar aplicativos mais poderosos a um custo menor.
Na subdivisão matemática, o desempenho do GPT-4o mini diminuiu, ficando em 9º lugar.
Além disso, na avaliação imediata, o GPT-4o mini ainda manteve um desempenho estável, perdendo apenas para o GPT-4o e o Claude 3.5 Sonnet.
No campo da codificação, o GPT-4o mini também apresenta fortes capacidades.
Muitas pessoas levantaram questões sobre por que o GPT-4o mini tem uma classificação tão alta no Arena.
A explicação oficial para isso é:
- O Chatbot Arena é avaliado com base nas preferências humanas em diferentes áreas. Todos são incentivados a seguir não apenas as classificações gerais, mas também as classificações em cada categoria (por exemplo, matemática, codificação, etc.).
- A avaliação da arena é feita em tempo real. Todos são incentivados a comparar modelos pessoalmente no Arena e verificar suas suposições em tempo real.
- A transparência é o nosso valor principal; todos os códigos e análises são de código aberto (http://github.com/lm-sys/FastChat). Divulgamos regularmente 20% dos dados e retemos os dados restantes para evitar overfitting e manter a integridade do benchmark.
- Liberaremos dados aleatórios de mini-batalha GPT-4o de 20% de acordo com a política, e você poderá verificar as respostas por si mesmo.
No entanto, outros internautas acreditam que a vitória do gpt-4o-mini é uma prova substancial de que as pessoas comuns não são tão inteligentes.
E, pela primeira vez na história, a IA tornou-se suficientemente inteligente para nos enganar. Um pouco louco e um pouco histórico.
Referências:
https://x.com/moyix/status/1815840634013639086
https://x.com/HamelHusain/status/1815848198927434019
https://x.com/sama/status/1815877987696533897
https://x.com/0xSMW/status/1815869241205350641