Nachricht

OpenAI veröffentlicht neue Funktionen, die es Unternehmen ermöglichen, die leistungsstärksten KI-Modelle basierend auf ihren eigenen Daten anzupassen

2024-08-21

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

TencentWissenschafts- und Technologienachrichten, 21. August, Dienstag, Ortszeit in den Vereinigten Staaten,OpenAIEinführung einer neuen Funktion, die es Unternehmenskunden ermöglicht, dieses Produkt mithilfe ihrer eigenen Unternehmensdaten anzupassenKI (KI) Das leistungsstärkste Modell für StartupsGPT-4o

OpenAI plant, am Dienstag Anpassungsfunktionen einzuführen, die in der Branche der künstlichen Intelligenz allgemein als „Nudges“ bekannt sind. Durch die Feinabstimmung können bestehende KI-Modelle mit zusätzlichen Informationen zu einer bestimmten Aufgabe oder einem Themenbereich trainiert werden.

Beispielsweise könnte ein Unternehmen, das Skateboards herstellt, ein KI-Modell so verfeinern, dass es als Kundenservice-Chatbot verwendet werden kann, der Fragen zu Details zu Rädern und zur Skateboard-Pflege beantworten kann.

Im aktuellen Kontext des harten Wettbewerbs zwischen Start-ups im Bereich künstlicher Intelligenzprodukte und der Tatsache, dass Unternehmen dringend den Return on Investment in künstliche Intelligenz nachweisen müssen, ist die Feinabstimmung der neuesten Funktionen des Flaggschiffmodells von OpenAI besonders wichtig.

Es ist erwähnenswert, dass diese Funktion zum ersten Mal in GPT-4o und seinen Vorgängern eingeführt wurde und OpenAI Benutzern zuvor Feinabstimmungsberechtigungen für mehrere Modelltypen, einschließlich GPT-4o mini, bereitgestellt hat, was Benutzern mehr Möglichkeiten bietet kostengünstige Möglichkeiten.

Angesichts der Modellanpassungsdienste vieler Technologieunternehmen auf dem Markt betonte Olivier Godement, Produktdirektor von OpenAI API, dass OpenAI sich dafür einsetzt, die Anpassungen der Kunden an ihre Topmodelle zu vereinfachen und zu beschleunigen, indem es direkte Partnerschaften mit Unternehmen aufbaut, um zu vermeiden, dass Benutzer sich an externe Unternehmen wenden Dienste oder schwächere Alternativen.

Er wies außerdem darauf hin: „Wir sind stets bestrebt, die technischen Schwellenwerte zu senken und betriebliche Hürden abzubauen, um so die Belastung des Benutzers durch das Starten und Anpassen von Modellen zu verringern.“

Wenn Kunden eine Modellfeinabstimmung durchführen, müssen sie Daten an den OpenAI-Server übertragen. Laut OpenAI-Ingenieur für maßgeschneiderte Arbeitssoftware, John Allard, dauert dieser Vorgang durchschnittlich etwa ein bis zwei Stunden. Die Feinabstimmung wird sich zunächst auf Textdaten beschränken, Bilder oder andere Medienformate werden nicht unterstützt.

Da OpenAI kostenlose Token ausgibt, steht es vor HerausforderungenGoogleAnthropischund andere proprietäre Modelllieferanten sowie Nous Research Hermes 3.Meta Heftiger Preiskampf um Open-Source-Modelle wie Llama 3.1.

Der Vorteil der Verwendung von OpenAI und ähnlichen Closed-Source-/proprietären Modellen besteht jedoch darin, dass Entwickler sich nicht um die Server-Hosting-Aufgaben der Modellinferenz oder -schulung kümmern müssen. Sie können entweder OpenAI-Serverressourcen nutzen oder ihre bevorzugten Server nahtlos über APIs verbinden.

Untersuchungen zeigen jedoch, dass die Feinabstimmung eines Modells Risiken mit sich bringen kann, einschließlich Abweichungen von den ursprünglichen Sicherheitsleitplanken und Leistungsgarantien, was sich wiederum auf seine Gesamtwirksamkeit auswirkt. Ob Unternehmen bereit sind, dieses Risiko einzugehen, müssen sie selbst abwägen. Aber OpenAI ist eindeutig der Meinung, dass es das Geld wert ist, und ermutigt Benutzer, eine Feinabstimmung als Optimierungsoption in Betracht zu ziehen.

Unabhängig davon gab OpenAI am Dienstag bekannt, dass es in seinen Produkten Inhalte von Marken wie Vogue, The New Yorker und Wired enthalten wird. Die Vereinbarung ermöglicht es OpenAI außerdem, Inhalte von Condé Nast zu nutzen, um das Training seiner Modelle für künstliche Intelligenz zu unterstützen, für deren Lernen große Datenmengen erforderlich sind.

Die Ankündigung markiert die verstärkten Bemühungen von OpenAI, Vereinbarungen mit Medienunternehmen abzuschließen, anstatt mit ihnen über die Verwendung von Nachrichtenartikeln und anderen Inhalten in seinen KI-Tools zu streiten. Über den Transaktionswert der Vereinbarung machten die Parteien keine Angaben.

Im Folgenden finden Sie den vollständigen Text der offiziellen Nachrichten von OpenAI:

Heute starten wir die Feinabstimmung für GPT-4o, eine der am häufigsten von Entwicklern nachgefragten Funktionen. Ab dem 23. September stellen wir jedem Unternehmen außerdem täglich 1 Million Schulungstoken kostenlos zur Verfügung.

Entwickler können GPT-4o jetzt mithilfe ihrer einzigartigen Datensätze optimieren, um für bestimmte Anwendungsfälle eine höhere Leistung bei geringeren Kosten zu erzielen. Durch die Feinabstimmungstechnologie kann das Modell die Struktur und den Ton der Antworten flexibel anpassen und sogar komplexe und hochspezialisierte Domänenanweisungen befolgen. Es sind nur wenige Trainingsbeispiele (z. B. Dutzende von Beispielen) erforderlich, um aussagekräftige Ergebnisse zu erzielen die Anwendung.

Von der Codierung bis zum kreativen Schreiben deckt die Feinabstimmungsfunktion ein breites Spektrum an Bereichen ab und beeinflusst und verbessert die Gesamtleistung des Modells tiefgreifend. Dies ist erst der Anfang und wir werden weiterhin in die Erweiterung unserer Modellanpassungsoptionen für Entwickler investieren.

Ab sofort steht die GPT-4o-Feinoptimierungsfunktion allen zahlenden Entwicklern vollständig offen. Bitte besuchen Sie direkt das Feinabstimmungs-Dashboard, klicken Sie auf die Schaltfläche „Erstellen“ und wählen Sie „GPT-4o -2024-08-06“ aus der Dropdown-Liste des Basismodells aus, um den Feinabstimmungsprozess zu starten. Was die Kosten anbelangt, so liegen die Schulungskosten für die GPT-4o-Feinabstimmung bei 25 US-Dollar pro Million Token, während die Inferenzkosten bei 3,75 US-Dollar pro Million Eingabe-Token und 15 US-Dollar pro Million Ausgabe-Token liegen.

Darüber hinaus steht die GPT-4o Mini-Feinoptimierungsfunktion auch allen zahlenden Entwicklern offen. Sie müssen im Feinabstimmungs-Dashboard lediglich „GPT-4o-mini-2024-07-18“ als Basismodell auswählen. Sonderangebot: Zur Feier des Starts stellen wir GPT-4o-Mini-Nutzern täglich bis zu 2 Millionen Trainingstoken zur Verfügung. Dieses Angebot gilt bis zum 23. September.

Erfolgsgeschichten verfeinern

In den letzten Monaten haben wir mit einer Reihe vertrauenswürdiger Partner zusammengearbeitet, um GPT-4o zu optimieren, zu testen und ihre Anwendungsfälle zu verstehen. Hier ein paar gelungene Beispiele:

1.Cosine hat im SWE-Benchmark-Test eine erstaunliche Leistung erbracht

Start-KosinusGenieEs handelt sich um einen Software-Engineering-Assistenten mit künstlicher Intelligenz, der Schwachstellen selbstständig identifizieren und reparieren, Funktionen erstellen und effizient mit Benutzern zusammenarbeiten kann, um Code umzugestalten. Es kann auch komplexe technische Probleme lösen und Änderungen am Code mit höherer Genauigkeit und weniger Token-Anforderungen vornehmen.

Genie basiert auf einem fein abgestimmten GPT-4o-Modell, das die realen Erfahrungen echter Softwareentwickler einbezieht und es dem Modell ermöglicht, zu lernen, auf bestimmte Weise zu reagieren. Darüber hinaus beherrscht das Modell auch die Formatierung der Ausgabe in bestimmte Formate wie Patches, die einfach in die Codebasis integriert werden können, was die Arbeitseffizienz weiter verbessert.

Die am vergangenen Dienstag veröffentlichten Benchmark-Testergebnisse der SWE-Benchmark-Verifizierung zeigten, dass Genie eine Leistung von 43,8 % erreichte.SOTADas Ergebnis ist herausragend, insbesondere im Volltest. Der SOTA-Wert liegt bei bis zu 30,08 %, was einen deutlichen Sprung gegenüber dem bisherigen Bestwert von 19,27 % darstellt und einen großen Durchbruch in der Geschichte dieses Benchmark-Tests darstellt. SWE-Bench ist ein Test, der die Fähigkeiten der Softwareentwicklung mit künstlicher Intelligenz bewertet.

2.Distyl belegt den ersten Platz im BIRD-SQL-Benchmark

Distyl, ein KI-Lösungspartner für Fortune-500-Unternehmen, belegte kürzlich Platz 1 im BIRD-SQL-Benchmark, dem führenden Text-to-SQL-Benchmark. Distyls fein abgestimmtes GPT-4o erreicht eine Ausführungsgenauigkeit von 71,83 % auf der Bestenliste und schneidet bei Aufgaben wie Abfrageneuformulierung, Absichtsklassifizierung, Gedankenverkettung und Selbstkorrektur gut ab und ist besonders herausragend bei der SQL-Generierung.

Datenschutz und Sicherheit

Das Feinabstimmungsmodell unterliegt vollständig der Kontrolle des Benutzers, der das absolute Eigentum an den Geschäftsdaten hat und alle Ein- und Ausgaben abdeckt. Dadurch wird sichergestellt, dass die Daten eines Benutzers niemals weitergegeben oder zum Trainieren anderer Modelle verwendet werden.

Darüber hinaus haben wir mehrschichtige Sicherheitsschutzmechanismen für fein abgestimmte Modelle eingesetzt, um Missbrauch zu verhindern. Beispielsweise führen wir kontinuierlich automatisierte Sicherheitsbewertungen für fein abgestimmte Modelle durch und überwachen die Nutzung, um sicherzustellen, dass Anwendungen unsere Nutzungsrichtlinien einhalten.

Wir sind gespannt darauf, zu sehen, was Sie durch die Feinabstimmung von GPT-4o schaffen. Wenn Sie weitere Möglichkeiten zur Modellanpassung erkunden möchten, wenden Sie sich bitte an unser Team. Wir stehen Ihnen gerne mit Rat und Tat zur Seite! (Zusammengestellt/Goldener Hirsch)