Nachricht

Eine neue Version von GPT-4o ist plötzlich online: Welche ist größer, 9.11 oder 9.9? Es ist stärker und billiger.

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Mingmin stammt aus dem Aofei-Tempel

Qubits |. Öffentliches Konto QbitAI

Plötzlich kam eine neue Version von GPT-4o online, die stärker und günstiger ist.

Seine Fähigkeiten wurden in allen Aspekten verbessert und er belegte im ZeroEval-Benchmark-Test direkt den ersten Platz.

Input- und Output-Ersparnis: 50 % bzw. 33 %.

Eine Abrundung bedeutet eine Reduzierung des API-Preises.

Die Token-Ausgabe wurde auf 16.000 erweitert und unterstützte zuvor 4.000.

Auch die Frage, wer größer ist, 9.11 oder 9.9, lässt sich problemlos lösen.

Das ist weilOpenAIEinführung einer strukturierten Ausgabe in die API.

Durch die Sicherstellung, dass die Modellausgabe der vom Entwickler über das JSON-Schema definierten Struktur entspricht, kann das Modell zuverlässiger und sicherer werden.

Die neueste Version des Modells „GPT-4o-2024-08-06“ punktete bei der JSON-Schema-Bewertung100%

Im Vergleich dazu erzielte die GPT-4-0613-Version weniger als 40 %.

Bei der Codebearbeitung erreicht die neueste Version die gleichen Benchmark-Ergebnisse wie der Vorgänger, kostet aber jetzt nur noch die Hälfte.

Andere haben herausgefunden, dass diese neue Version die Verbesserung der Bildeingabe durch OpenAI darstellt.Das günstigsteModell.

API unterstützt strukturierte Ausgabe

Beim letztjährigen OpenAI DevDay haben Beamte offiziell den JSON-Modus für GPT-4 eingeführt, der Entwicklern beim Erstellen von Anwendungen helfen kann.

Obwohl das JSON-Schema die Modellzuverlässigkeit verbessern kann, garantiert es nicht, dass die vom Modell generierten Ergebnisse einem bestimmten Schema entsprechen.

Daher führt OpenAI in diesem Update eine strukturierte Ausgabe in der API ein, um sicherzustellen, dass der vom Modell generierte Inhalt genau mit dem vom Entwickler bereitgestellten JSON-Schema übereinstimmt.

Es gibt zwei Hauptformen:

1. Funktionsaufruf: Rufen Sie die strukturierte Ausgabe auf, indem Sie strict:ture in der Funktionsdefinition festlegen.

Diese Funktion ist für alle Modellmodelle verfügbar, einschließlich gpt-4-0613 und gpt-3.5-turbo-0613 usw. Wenn die strukturierte Ausgabe aktiviert ist, stimmt die Modellausgabe mit der bereitgestellten Werkzeugdefinition überein.

2. Neue Optionen für den Parameter „response_format“.

Entwickler können ein JSON-Schema über json_schema bereitstellen (eine neue Option für den Parameter „response_format“).

Dies ist nützlich, wenn das Modell kein Tool aufruft, sondern strukturiert auf den Benutzer reagiert. Diese Funktion ist für gpt-4o-2024-08-06 und gpt-4o-mini-2024-07-18 verfügbar. Wenn „response_format“ mit strict: true bereitgestellt wird, stimmt die Modellausgabe mit dem bereitgestellten Muster überein.

OpenAI hat die Python- und Node-SDKs aktualisiert, um lokale strukturierte Ausgabefunktionen zu unterstützen.

Darüber hinaus werden Sicherheitsausgänge hervorgehoben. Der neue Modus folgt den bestehenden Sicherheitsregeln und führt einen Ablehnungszeichenfolgenwert ein, um Entwicklern dabei zu helfen, Situationen zu erkennen, in denen das Modell unsichere Anforderungen ablehnt.

Strukturierte Ausgabe kann auch verwendet werden, um Benutzeroberflächen dynamisch zu generieren, die endgültige Antwort vom Argumentationsprozess zu trennen, strukturierte Daten aus unstrukturierten Daten zu extrahieren und viele andere Anwendungsfälle.

Geben Sie schließlich als Preis den Preis mit 2,5 $/1 Million einZeichen, der Ausgabepreis beträgt 10/1 Million Token.

Da das neue Modell bei der Ein- und Ausbringung sparsamer sein kann, wird der Preis abgerundet.

Einige Leute fanden, dass die Ausgabe dieses neuen Modells weniger ausführlich war als die der Vorgängerversion und die Kosten besser kontrollierbar waren.

Referenzlinks:
https://openai.com/index/introducing-structured-outputs-in-the-api/