Nachricht

GPT-4o mini dominiert die Rangliste und kann für einen begrenzten Zeitraum von 2 Monaten kostenlos verfeinert werden!Täglich werden 2 Millionen Trainingstokens kostenlos gesammelt

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Neuer Weisheitsbericht

Herausgeber: Taozi

[Einführung in die neue Weisheit] Während das Biest Llama 3.1 405B Open Source war, stahl OpenAI erneut das Rampenlicht. Von nun an werden täglich bis zum 23. September 2 Millionen Trainingstoken zur kostenlosen Feinabstimmung des Modells verwendet.

Am selben Tag, an dem Llama 3.1 als Open Source veröffentlicht wurde, wurde auch OpenAI geöffnet.


GPT-4o mini kann kostenlos verfeinert werden und 2 Millionen Trainingstokens können täglich für einen begrenzten Zeitraum von 2 Monaten (Stand 23. September) verwendet werden.


Die Entwickler, die die E-Mail erhielten, beeilten sich, sich gegenseitig aufgeregt zu sagen, dass ein so großes Stück Wolle so schnell wie möglich geerntet werden müsse.


Auf der anderen Seite kam auch die Rangliste des GPT-4o mini in der großen Modellarena LMSYS heraus.

In der Gesamtliste belegten GPT-4o mini und GPT-4o punktgleich den ersten Platz.


Altman sagte aufgeregt: „Ich war noch nie so begeistert von einer Bewertung. Die Leistung des GPT-4o mini kommt der des GPT-4o so nahe, und der Preis beträgt nur 1/20 davon!“


Gleichzeitig sagte er, dass die Feinabstimmung von GPT-4o mini jetzt online sei.


Es ist wirklich unerwartet, dass OpenAI ein so leistungsstarkes Modell veröffentlichen kann, das jeder kostenlos nutzen kann.

Netizens dachten einmal, dass dies die fortschrittlichste Phishing-E-Mail sein könnte.


2 Millionen Token pro Tag, GPT-4o mini kostenlose Feinabstimmung

In der E-Mail gab OpenAI bekannt, dass es die Feinabstimmungsfunktion des GPT-4o mini offiziell eingeführt hat, um die Leistung des neuesten kleinen Modells in bestimmten Anwendungsfällen zu verbessern.

Vom 23. Juli bis 23. September können Entwickler täglich 2 Millionen Trainingstoken kostenlos nutzen.


Der Überschuss wird mit 3 Millionen US-Dollar-Tokens berechnet.

Nach Ablauf der zwei Monate der kostenlosen Nutzung werden für die Schulung zur Feinabstimmung ebenfalls 3 Millionen US-Dollar pro Token berechnet.


Darüber hinaus nannte OpenAI in der E-Mail Gründe, warum sich der Umstieg von GPT-3.5 Turbo auf GPT-4o mini für jeden lohnt:

- Erschwinglicher: Die Eingabe-Token-Gebühr von GPT-4o mini ist 90 % niedriger als die von GPT-3.5 Turbo und die Ausgabe-Token-Gebühr ist 80 % niedriger. Selbst nach Ablauf des kostenlosen Zeitraums sind die Schulungskosten für GPT-4o mini halb so hoch wie für GPT-3.5 Turbo.


- Längerer Kontext: Die Länge des Trainingskontexts von GPT-4o mini beträgt 65.000 Token, das Vierfache der Länge von GPT-3.5 Turbo, und die Länge des Inferenzkontexts beträgt 128.000 Token, also das Achtfache der Länge von GPT-3.5 Turbo.

- Intelligenter und leistungsfähiger: GPT-4o mini ist intelligenter als GPT-3.5 Turbo und unterstützt visuelle Funktionen (obwohl die Feinabstimmung derzeit auf Text beschränkt ist).


Schließlich wurde in der E-Mail auch erwähnt, dass die GPT-4o-Mini-Feinabstimmungsfunktion Unternehmenskunden sowie Tier-4- und Tier-5-Entwicklern offen stehen wird und die Zugriffsrechte in Zukunft schrittweise auf alle Benutzerebenen ausgeweitet werden.


Für diejenigen, die selbst Hand anlegen möchten, hat OpenAI einen Leitfaden zur Feinabstimmung veröffentlicht, siehe:

https://platform.openai.com/docs/guides/fine-tuning/fine-tuning-examples


Einige Internetnutzer sind diesbezüglich nicht optimistisch. Sie speichern unsere Daten, um KI-Modelle zu trainieren und zu verbessern.


„AKA, geben Sie mir Ihre privaten Daten und ich berechne Ihnen eine kleine Gebühr.“


Netizen-Anwendungsfälle

Internetnutzer, die die Qualifikationen erworben haben, können es kaum erwarten, mit dem Testen zu beginnen.

Die Entwickler haben gpt-4o mini mithilfe eines Headline-Datensatzes im Economist-Stil verfeinert.



Anschließend verglich er die Leistung von gpt-4o, dem Originalmodell gpt-4o min und dem optimierten Modell bei der Generierung von Schlagzeilen.


Kleine Modelle dominieren die Liste, vergleichbar mit GPT-4o

Eine Woche nach der Veröffentlichung des GPT-4o mini liegen nun endlich die Ergebnisse in der Rangliste der großen Modelle vor.

Insgesamt gingen mehr als 4.000 Benutzerstimmen ein, und das GPT-4o-Minimodell kletterte direkt an die Spitze der Liste und belegte gemeinsam mit dem GPT-4o den ersten Platz.

Das Wichtigste ist, es ist 20-mal günstiger!


Das sind gute Nachrichten für viele Entwickler, die leistungsfähigere Anwendungen zu geringeren Kosten erstellen können.


In der mathematischen Unterteilung ist die Leistung des GPT-4o mini zurückgegangen und belegt den 9. Platz.


Darüber hinaus bewies GPT-4o mini in der Hard-Prompt-Bewertung immer noch eine stabile Leistung und lag damit nur an zweiter Stelle hinter GPT-4o und Claude 3.5 Sonnet.


Auch im Bereich Codierung zeigt GPT-4o mini starke Fähigkeiten.


Viele Leute haben die Frage aufgeworfen, warum GPT-4o mini in Arena einen so hohen Rang einnimmt.


Die offizielle Erklärung hierfür lautet:

- Chatbot Arena wird anhand menschlicher Vorlieben in verschiedenen Bereichen bewertet. Jeder wird ermutigt, nicht nur die Gesamtrankings zu verfolgen, sondern auch die Rankings in den einzelnen Kategorien (z. B. Mathematik, Codierung usw.).

- Die Arenabewertung erfolgt in Echtzeit. Jeder wird ermutigt, Modelle persönlich in Arena zu vergleichen und seine Annahmen in Echtzeit zu überprüfen.

- Transparenz ist unser zentraler Wert; der gesamte Code und die Analyse sind Open Source (http://github.com/lm-sys/FastChat). Wir geben regelmäßig 20 % der Daten frei und behalten die restlichen Daten, um eine Überanpassung zu vermeiden und die Integrität des Benchmarks zu wahren.

- Wir werden gemäß der Richtlinie zufällige 20 % GPT-4o-Minikampfdaten veröffentlichen, und Sie können die Antworten selbst überprüfen.

Andere Internetnutzer glauben jedoch, dass der Sieg von gpt-4o-mini ein wesentlicher Beweis dafür ist, dass normale Menschen nicht so schlau sind.

Und zum ersten Mal in der Geschichte ist die KI intelligent genug geworden, um uns zu täuschen. Ein bisschen verrückt und ein bisschen historisch.



Verweise:

https://x.com/moyix/status/1815840634013639086

https://x.com/HamelHusain/status/1815848198927434019

https://x.com/sama/status/1815877987696533897

https://x.com/0xSMW/status/1815869241205350641