nachricht

schwer! das groß angelegte openai-argumentationsmodell, das „über problemlösungslogik nachdenken“ kann, ist vor ort, und die erkenntnis wird auf das „niveau eines doktoranden in naturwissenschaften“ springen.

2024-09-13

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

am freitag gegen 1 uhr morgens, pekinger zeit, läutete die ki-ära einen neuen ausgangspunkt ein – endlich traten große modelle in den vordergrund, die zu allgemeinen und komplexen überlegungen fähig waren.

bildquelle: visual china-vcg31n2008743681

openai gab auf seiner offiziellen website bekannt, dasswir haben begonnen, das openai o1-vorschaumodell allen abonnenten zugänglich zu machen – das mit spannung erwartete „strawberry“-großmodell. openai gab an, dass für komplexe argumentationsaufgabenneues modell stellt eine neue ebene der fähigkeiten der künstlichen intelligenz dardaher lohnt es sich, die zählung auf 1 zurückzusetzen und ihm einen neuen namen zu geben, der sich von der „gpt-4“-serie unterscheidet.

die merkmale großer inferenzmodelle sindki wird mehr zeit mit nachdenken verbringen, bevor sie antwortet, genau wie menschen über den problemlösungsprozess nachdenken. die logik hinter den vorherigen großen modellen bestand darin, die reihenfolge der wortgenerierung durch lernen von mustern in einer großen anzahl von datensätzen vorherzusagen. streng genommen verstanden sie die frage nicht wirklich.

als erste version des modells der o1-serie brachte openai nur die vorschauversion o1-preview und die mini-version o1-mini auf den markt und wurde schrittweise für zahlende benutzer, kostenlose benutzer und entwickler eingeführt, und der preis für entwickler ist ziemlich hoch .

die kosten für die verwendung des o1-modells sind mindestens dreimal so hoch wie die von gpt-4o. es wird mit einer neuen methode trainiert.

berichten zufolge kann das neue modell o1 durch die dahinter stehende neue trainingsmethode komplexere programmier-, mathematik- und wissenschaftliche probleme beantworten. es wird „denken“, bevor es die antwort gibt, und ist schneller als menschen. die kleinere, günstigere mini-version konzentriert sich auf programmieranwendungsfälle.

bezahlte benutzer von chatgpt plus und team haben sofortigen zugriff auf beide modelle, indem sie manuell aus dem dropdown-menü der ki-modellauswahl in der benutzeroberfläche auswählen. beide modi werden nächste woche für chatgpt enterprise- und edu-benutzer verfügbar sein, und der zugriff auf o1-mini wird zu einem unbekannten zeitpunkt in der zukunft allen kostenlosen benutzern zur verfügung gestellt. openai hofft, in zukunft anhand von eingabeaufforderungen automatisch das richtige modell auswählen zu können.

der entwicklerzugriff auf o1 ist jedoch sehr teuer. in der api (application programming interface) berechnet o1-preview 15 us-dollar pro 1 million eingabe-tokens, also das dreifache der kosten von gpt-4o, und zwar 60 us-dollar pro 1 million ausgabe-tokens viermal so teuer wie gpt-4o. eine million token ist die größe des textblocks, den das modell analysiert, was etwa 750.000 wörtern entspricht.

jerry tworek, forschungsleiter bei openai, sagte den medien:o1die dahinter stehende trainingsmethode unterscheidet sich grundlegend von den vorgängermodellen.

zunächst wurde o1 „mit einem völlig neuen optimierungsalgorithmus und einem neuen, speziell darauf zugeschnittenen trainingsdatensatz trainiert“, der „inferenzdaten“ und speziell darauf zugeschnittene wissenschaftliche literatur enthielt.

zweitens bestand die bisherige trainingsmethode des gpt-modells darin, die regeln/paradigmen des datensatzes zu imitieren, während o1 „reinforcement learning“ verwendet, um dem modell beizubringen, probleme selbst durch belohnungen und bestrafungen und dann durch die „ideenkette“ zu lösen „ (ideenkette) gedanken), um mit benutzeranfrageproblemen umzugehen und eine zusammenfassende version der gedankenkette zu geben, ähnlich der art und weise, wie menschen probleme schritt für schritt angehen.

im bild rechts können sie mit einem klick auf die ideenkette sehen, wie das o1-modell „denkt“

ein diagramm, das die ideenkette für ein komplexes mathematisches problem zeigt

openai glaubt, dass diese neue trainingsmethode das o1-modell genauer machen und das problem der „halluzination“ beim erfinden von antworten verringern wird, das auftreten von „halluzinationen“ jedoch nicht vollständig beseitigen kann. der hauptunterschied zwischen dem neuen modell und gpt-4o besteht darin, dass es komplexe probleme wie programmierung und mathematik besser lösen kann und gleichzeitig seinen denkprozess verbessert, verschiedene strategien ausprobiert und fehler in seinen eigenen antworten erkennt und korrigiert.

die erkenntnis wird auf das „niveau eines doktoranden in naturwissenschaften“ springen.

openai hat erklärt, dass gpt-4, das im jahr 2023 veröffentlicht wurde, dem intelligenzniveau von high-school-studenten ähnelt, während gpt-5 die entwicklung der ki von „high-school-studenten zu doktoranden“ vervollständigt. dieses o1-modell ist ein wichtiger schritt.

im vergleich zu bestehenden großen modellen wie gpt-4o kann openai o1 schwierigere argumentationsprobleme lösen und gleichzeitig die mechanischen mängel früherer modelle verbessern.

das neue modell kann beispielsweise zählen, wie viele „r“ es in erdbeere gibt.

gleichzeitig wird die ki bei der beantwortung von programmierfragen besser organisiert sein.bevor sie mit dem schreiben von code beginnen, denken sie über den gesamten antwortprozess nach., und geben sie dann den code aus.

beispielsweise gibt gpt-4o, das „den stift in die hand nimmt und schreibt“, bei der aufgabe zum schreiben von gedichten mit voreingestellten bedingungen (z. b. das letzte wort des zweiten satzes muss mit i enden) zwar eine antwort, jedoch häufig nur ein teil der bedingungen ist erfüllt. es erfolgt auch keine selbstkorrektur. das bedeutet, dass die ki bei der ersten generierung auf die richtige antwort stoßen muss, sonst macht sie fehler. aber im o1-modell wird die ki weiterhin versuchen und ihre antworten verfeinern, wodurch die genauigkeit und qualität der generierten ergebnisse erheblich verbessert wird.

interessant ist, dass, wenn sie auf den denkprozess der ki klicken, die ki auch erscheint und sagt: „ich denke darüber nach, ist es in ordnung, das zu tun?“, „oh, ich habe nicht genug zeit, ich.“ „müssen so schnell wie möglich antworten“ usw. openai bestätigte, dass es sich hier nicht um die ursprüngliche gedankenkette, sondern um eine „vom modell generierte zusammenfassung“ handelt, und das unternehmen gab auch offen zu, dass es hier faktoren gibt, um einen „wettbewerbsvorteil“ aufrechtzuerhalten.

jerry tworek, forschungsleiter bei openai, verriet, dass sich das training hinter dem o1-modell grundlegend von früheren produkten unterscheidet.während frühere gpt-modelle darauf ausgelegt waren, muster in ihren trainingsdaten nachzuahmen, wurde o1 darauf trainiert, probleme selbstständig zu lösen. im prozess des verstärkenden lernens werden belohnungs- und bestrafungsmechanismen genutzt, um der ki beizubringen, mithilfe von „denkketten“ mit problemen umzugehen, so wie menschen lernen, probleme zu zerlegen und zu analysieren.

laut test,das o1-modell konnte bei der qualifikationsprüfung der internationalen mathematikolympiade 83 % erreichen, während gpt-4o nur 13 % der probleme richtig lösen konnte.im programmierfähigkeitswettbewerb codeforces erreichte das o1-modell 89 %, während gpt-4o nur 11 % erreichte.

openai sagte, dass basierend auf tests in der nächsten aktualisierten versionki kann auf doktorandenniveau anspruchsvolle benchmarks in physik, chemie und biologie bearbeiten

nachteile: keine möglichkeit, echtzeit-webseiten zu durchsuchen, keine möglichkeit, dateien und bilder hochzuladen, mangelndes umfassendes weltwissen oder anfällig für halluzinationen

aber als erste version des o1-modells weist auch die heute veröffentlichte o1-preview-version offensichtliche mängel auf. es handelt sich beispielsweise nur um eine „nur-text-version“, die vorübergehend keine webinformationen durchsuchen und keine dateien und bilder hochladen kann, was bedeutet, dass sie nicht über viele der funktionen von chatgpt verfügt. sie ist in vielen fällen nicht so leistungsstark wie gpt-4o anwendungsfälle und es gibt nutzungsbeschränkungen, die o1-vorschauversion hat ein wöchentliches limit von 30 nachrichten und die mini-version hat ein wöchentliches limit von 50 nachrichten.

zu den weiteren erwähnten einschränkungen gehören: das o1-modell ist in vielen bereichen nicht so leistungsfähig wie gpt-4o und schneidet in einigen anwendungsfällen schlechter ab; die argumentationsfähigkeit ist langsamer und die beantwortung von fragen kann länger dauern es handelt sich lediglich um ein reines textmodell, dem die fähigkeit fehlt, über bestimmte dokumente nachzudenken oder echtzeitinformationen aus dem netzwerk zu sammeln.

darüber hinaus wurde es in der branche immer als problem angesehen, das ki-modell tic-tac-toe spielen zu lassen. das neue o1-modell mit argumentationsfähigkeiten wird in diesem spiel immer noch fehler machen, das heißt, es kann die technischen schwierigkeiten nicht vollständig überwinden .

openai gab in einem technischen artikel auch zu, dass es einige „anekdotische rückmeldungen“ erhalten hatte, dass die o1-vorschau und die mini-version eher „illusionen“ hervorriefen als gpt-4o und seine mini-version, das heißt, die ki sei immer noch sehr erfinde zuversichtlich antworten, und o1 wird selten zugeben, dass es die antwort auf eine frage nicht kennt.

techcrunch, ein bekanntes technologiemedium, wies darauf hin, dass openai in einem blogbeitrag zum o1-modell darauf hingewiesen habe, dass es beschlossen habe, den benutzern nicht die ursprüngliche „denkkette“ dieses neuen modells zu zeigen, sondern eine zusammenfassung davon zu geben der zweck besteht darin, einen „wettbewerbsvorteil“ aufrechtzuerhalten und mögliche mängel auszugleichen. „wir bemühen uns, dem modell beizubringen, alle nützlichen ideen in der gedankenkette in seinen antworten zu reproduzieren.“

tägliche wirtschaftsnachrichten, umfassende öffentliche informationen

tägliche wirtschaftsnachrichten

bericht/feedback