nouvelles

GPT-4o mini domine le classement et peut être affiné gratuitement pendant une durée limitée de 2 mois !2 millions de jetons de formation sont collectés gratuitement chaque jour

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nouveau rapport de sagesse

Editeur : Taozi

[Introduction à la nouvelle sagesse] Alors que la bête Llama 3.1 405B était open source, OpenAI a de nouveau volé la vedette. Désormais, 2 millions de tokens de formation seront utilisés pour peaufiner le modèle gratuitement chaque jour jusqu'au 23 septembre.

Le même jour où Llama 3.1 était open source, OpenAI était également ouvert.


GPT-4o mini peut être peaufiné gratuitement et 2 millions de jetons d'entraînement peuvent être utilisés chaque jour pendant une durée limitée de 2 mois (à compter du 23 septembre).


Les développeurs qui ont reçu l'e-mail se sont précipités pour se dire avec enthousiasme qu'un si gros morceau de laine devait être récolté le plus tôt possible.


De l’autre côté, le classement du GPT-4o mini dans l’arène des grands modèles LMSYS a également été dévoilé.

Dans la liste globale, GPT-4o mini et GPT-4o sont à égalité à la première place.


Altman a déclaré avec enthousiasme : « Je n'ai jamais été aussi enthousiasmé par une évaluation. Les performances du GPT-4o mini sont si proches de celles du GPT-4o, et le prix n'en représente que 1/20 !


Dans le même temps, il a déclaré que la mise au point du GPT-4o mini est désormais en ligne.


Il est vraiment inattendu qu'OpenAI puisse publier un modèle aussi puissant que tout le monde puisse utiliser gratuitement.

Les internautes pensaient autrefois qu’il s’agissait peut-être de l’e-mail de phishing le plus avancé.


2 millions de jetons par jour, GPT-4o mini réglage gratuit

Dans l'e-mail, OpenAI a annoncé avoir officiellement lancé la mini fonction de réglage fin GPT-4o pour améliorer les performances du dernier petit modèle dans des cas d'utilisation spécifiques.

Du 23 juillet au 23 septembre, les développeurs peuvent utiliser gratuitement 2 millions de jetons de formation chaque jour.


L'excédent sera facturé à hauteur de 3 millions de dollars de jetons.

Après l'expiration des 2 mois d'utilisation gratuite, la formation de mise au point sera également facturée 3 millions de dollars par jeton.


De plus, OpenAI a donné dans l'e-mail les raisons pour lesquelles il vaut la peine que tout le monde passe de GPT-3.5 Turbo à GPT-4o mini :

- Plus abordable : les frais de jeton d'entrée du GPT-4o mini sont 90 % inférieurs à ceux du GPT-3.5 Turbo, et les frais du jeton de sortie sont 80 % inférieurs. Même après la fin de la période gratuite, le coût de formation du GPT-4o mini est la moitié de celui du GPT-3.5 Turbo.


- Contexte plus long : la longueur du contexte de formation de GPT-4o mini est de 65 000 jetons, soit 4 fois celle de GPT-3.5 Turbo, et la longueur du contexte d'inférence est de 128 000 jetons, soit 8 fois celle de GPT-3.5 Turbo.

- Plus intelligent et plus performant : GPT-4o mini est plus intelligent que GPT-3.5 Turbo et prend en charge les fonctionnalités visuelles (bien que le réglage fin soit actuellement limité au texte).


Enfin, l'e-mail mentionne également que la mini fonction de réglage fin de GPT-4o sera ouverte aux entreprises clientes, ainsi qu'aux développeurs de niveaux 4 et 5, et que les droits d'accès seront progressivement étendus à tous les niveaux d'utilisateurs à l'avenir.


Pour ceux qui souhaitent se lancer, OpenAI a publié un guide de mise au point, veuillez consulter :

https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples


Certains internautes ne sont pas optimistes à ce sujet. Ils sauvegardent nos données pour former et améliorer les modèles d'IA.


"AKA, donne-moi tes données privées et je te facturerai une somme modique."


Cas d'utilisation des internautes

Les internautes ayant obtenu les qualifications ont hâte de commencer les tests.

Les développeurs ont affiné gpt-4o mini à l'aide d'un ensemble de données de style Economist.



Il a ensuite comparé les performances du modèle original gpt-4o, gpt-4o min et du modèle affiné pour générer des titres.


Les petits modèles dominent la liste, comparables au GPT-4o

Une semaine après la sortie du GPT-4o mini, les résultats du classement des grands modèles sont enfin dévoilés.

Au total, plus de 4 000 votes d'utilisateurs ont été reçus et le mini modèle GPT-4o s'est hissé directement en tête de liste, à égalité à la première place avec le GPT-4o.

Le plus important c’est que c’est 20 fois moins cher !


C'est une bonne nouvelle pour de nombreux développeurs, qui peuvent créer des applications plus puissantes à moindre coût.


Dans la subdivision mathématique, les performances du GPT-4o mini ont diminué, se classant 9e.


De plus, lors de l'évaluation rapide, GPT-4o mini a toujours maintenu des performances stables, juste derrière GPT-4o et Claude 3.5 Sonnet.


Dans le domaine du codage, le GPT-4o mini montre également de fortes capacités.


De nombreuses personnes se demandent pourquoi GPT-4o mini se classe si haut dans Arena.


L'explication officielle à cela est la suivante :

- Chatbot Arena est évalué en fonction des préférences humaines dans différents domaines. Tout le monde est encouragé à suivre non seulement le classement général, mais également le classement dans chaque catégorie (ex. mathématiques, codage, etc.).

- L'évaluation de l'arène se fait en temps réel. Tout le monde est encouragé à comparer les modèles en personne dans Arena et à vérifier leurs hypothèses en temps réel.

- La transparence est notre valeur fondamentale ; tous les codes et analyses sont open source (http://github.com/lm-sys/FastChat). Nous publions régulièrement 20 % des données et conservons les données restantes pour éviter le surajustement et maintenir l'intégrité de l'indice de référence.

- Nous publierons 20 % de données aléatoires de mini-bataille GPT-4o conformément à la politique, et vous pourrez vérifier les réponses par vous-même.

Cependant, d'autres internautes estiment que la victoire de gpt-4o-mini est une preuve substantielle que les gens ordinaires ne sont pas si intelligents.

Et, pour la première fois dans l’histoire, l’IA est devenue suffisamment intelligente pour nous tromper. Un peu fou et un peu historique.



Les références:

https://x.com/moyix/status/1815840634013639086

https://x.com/HamelHusain/status/1815848198927434019

https://x.com/sama/status/1815877987696533897

https://x.com/0xSMW/status/1815869241205350641