nachricht

es zeigt sich, dass das mysteriöse modell „strawberry“ von openai in zwei wochen auf den markt kommt. die beantwortung der frage wird mehr als zehn sekunden dauern und der abonnementpreis könnte zehnmal höher sein.

2024-09-11

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

letzten monat sorgte openai-ceo altman mit einem foto von erdbeeren für viele schlagzeilen. jetzt wird das erdbeermodell vielleicht wirklich „ausgereift“.

laut the information, als teil des chatgpt-dienstes,openai plant, das modell „strawberry“ innerhalb von zwei wochen zu veröffentlichen.

natürlich heißt es in dem bericht auch, dass sich das endgültige veröffentlichungsdatum ändern kann, also gehen sie bitte mit vorsicht vor.

der zuverlässige tippgeber @apples_jimmy geht davon aus, dass das erdbeermodell voraussichtlich diese woche auf den markt kommt.

und er sagte auch, dass openai voraussichtlich im oktober ein neues modell namens gpt-4.x-version veröffentlichen wird, das möglicherweise gpt-4.5 heißen wird.

ich habe gehört, dass das leistungsstärkere gpt-5-modell bereits im dezember auf den markt kommen könnte, aber sicherheitshalber schlage ich vor, dass sie damit im ersten oder zweiten quartal 2025 rechnen.

die information berichtet, dass unklar sei, in welcher form das erdbeermodell eingeführt wird.eine möglichkeit besteht darin, dass das erdbeermodell ein eigenständiges produkt sein wird.

eine andere möglichkeit ist das erdbeermodellwird in das chatgpt-modellauswahlmenü integriertbenutzer können nach belieben zwischen verschiedenen modelldiensten wechseln.

in früheren berichten wurde auch erwähnt, dass darin der größte unterschied zwischen dem erdbeermodell und anderen modellen bestehtes weiß, wie man „denkt“, bevor man eine frage beantwortet.

darüber hinaus schneidet das erdbeermodell nicht nur in mathematik und programmierung gut ab, sondern kann, wenn man ihm mehr zeit zum „denken“ gibt, auch kundenfragen zu subjektiven themen, wie etwa produktmarketingstrategien, beantworten.

in den informationen heißt es:die denkzeit des erdbeermodells beträgt in der regel 10 bis 20 sekunden, was den vorteil hat, fehler zu reduzieren.

und weil das erdbeermodell mehr zeit mit nachdenken verbringt, kann es erkennen, wann es dem kunden mehr fragen stellen muss, um die bedürfnisse des benutzers vollständig zu verstehen.

darüber hinaus weist das erdbeermodell auch einige unterschiede zum gpt-4o-modell auf. zum beispiel seine originalversionverfügt nicht über die multimodellfunktionen von gpt-4o, kann nur textantworten empfangen und generieren, aber keine bilder verarbeiten.

the information geht davon aus, dass dies möglicherweise darauf zurückzuführen ist, dass auch wettbewerber ähnliche produkte auf den markt bringen. selbst wenn dieses produkt in einigen aspekten nicht perfekt ist (z. b. weil es keine bilder verarbeiten kann), kann openai das tempo der markteinführung nur beschleunigen.

in diesem zusammenhang erwähnte der whistleblower @apples_jimmy auch: auch anthropic und google bereiten heimlich ihre neuen modelle vor,und plant, es etwa zum zeitpunkt der us-wahlen auf den markt zu bringen.

darüber hinaus hat der abo-preis immer wieder für aufregung bei den nutzern gesorgt.

chatgpt hat eine neue kostenpflichtige stufe, chatgpt pro, eingeführt und diese bereits einigen benutzern zur verfügung gestellt.der preis beträgt 200 $/monat, zehnmal teurer als die aktuellen 20 $/monat.

wenn dies zutrifft, könnte dies auch die oben genannten berichte über das erdbeermodell widerspiegeln.

in den informationen wurde auch darauf hingewiesen, dass das erdbeermodell wie chatgpt plus möglicherweise in der anzahl der nutzungen pro stunde durch einen benutzer begrenzt ist, während modelle mit höheren abonnementpreisen reaktionsschneller sind.

zum zeitpunkt der drucklegung hat openai nicht auf diese angelegenheit reagiert.

schicht für schicht die „erdbeeren“ schneiden

was bedeutet das „strawberry“-modell von openai für uns?

tatsächlich ist der vorgänger von strawberry model „q*“, eine mysteriöse existenz, die ende letzten jahres für aufruhr sorgte.

im vergangenen november wurde sam altman ohne vorwarnung aus dem vorstand geworfen. er wurde bei der sitzung sogar benachrichtigt, was das gesamte unternehmen und die gesamte branche schockierte.

als grund gab der damalige vorstand an, dass er und das team keine einigung über sicherheit und risikomanagement erzielen konnten. und dieses risiko hing mit dem damals streng geheimen projekt „q*“ zusammen.

dieses projekt wurde ursprünglich von ilya sutskever geleitet. jetzt hat er openai verlassen, um ein unternehmen zu gründen, das sich mit der ki-sicherheit beschäftigt. wenn man bedenkt, dass musk einmal gesagt hat, dass dieses projekt „eine bedrohung für die menschheit“ darstellt, ist es schwer, sich nicht zu fragen, was hier vor sich geht.

zuvor versuchten the information und reuters ihr bestes, insiderinformationen zu erhalten, konnten diese aber am ende nur bestätigen.mathematische operationsfähigkeit steht im mittelpunkt von „q*“

bild von: reuters

das große vorbild ist gut im „literarischen“ und kann gekonnt mit sprache und text umgehen. im grunde ist es dem menschen ebenbürtig. aber mathematische operationen waren noch nie sehr gut. auch wenn „q*“ laut reuters einst eine gewaltige veränderung bei openai auslöste, entsprach seine leistung damals etwa dem rechenniveau eines grundschülers.

aktuelle aktuelle informationen zeigen, dass es innerhalb von openai bereits projekte gibt, die bei mathematischen operationen eine genauigkeit von 90 % erreichen können, was eine erstaunliche verbesserung darstellt.

bild von: reuters

lassen sie mich betonen: es lässt sich derzeit nicht bestätigen, welchen schritt „strawberry“ erreicht hat.

man kann nur sagen, dass, wenn „strawberry“ als aktualisierte version von „q*“ verwendet wird, die wahrscheinlichkeit hoch ist, dass es sich um ein projekt handelt, das weiterhin nach durchbrüchen in mathematik und informatik strebt.

die beziehung zwischen „mathematischer berechnung“ und „argumentation“ kann nicht direkt gleichgesetzt werden, offenbart aber die ambitionen von openai.

ich spreche immer von argumentation, wovon redest du genau?

was genau ist also „argumentation“?

diese beiden wörter haben in wirklichkeit offensichtlich eine sehr weit gefasste definition. anfang dieses jahres führte ein team unter der leitung der chinesischen universität hongkong eine umfassende überprüfung der fähigkeiten zum modellbasierten denken durch. die grundlegendste definition von „argumentation“ ist dreifach:

kognitives denken: die fähigkeit, aus unvollständigem und inkonsistentem wissen sinnvolle schlussfolgerungen zu ziehen

die häufigste form dieser argumentation besteht darin, ein puzzle zusammenzusetzen. jedes kleine teil ist eine ecke eines großen bildes. wenn sie zwei teile zufällig auswählen, passen sie definitiv nicht zusammen.

sie können diese kleinen fragmente nur festhalten und sie langsam zusammenfügen, um ein fertiges bild zu ergeben. dabei gibt es keine anleitungen oder schrittdiagramme und man ist oft auf gefühl und intuition angewiesen.

logisches denken: schlussfolgerungen in geordneter weise auf der grundlage von prämissen und der beziehung zwischen diesen prämissen ziehen und die schlussfolgerung eine implizite beziehung aufweist oder logisch begründet ist

das lösen mathematischer probleme ist ein typisches logisches denken. es gibt bekannte bedingungen und fragen, auf deren grundlage sie die ergebnisse schritt für schritt berechnen können. logisches denken ist derzeit der „härteste knochen“ in der entwicklung großer modelle.

denken in natürlicher sprache: dies ist ein prozess der integration mehrerer arten von wissen, das explizites oder implizites wissen sein kann, um neue schlussfolgerungen über die welt zu ziehen.

freunde, die gerne krimis und kriminalromane lesen, sollten es leicht verständlich finden. diese art der argumentation ähnelt der begegnung mit einer mordgeschichte. das buch enthält einige vage hinweise und einige unklare informationen. sie müssen verschiedene hinweise kombinieren, um herauszufinden, wer der mörder ist.

wenn sie sich nur die von reuters erhaltenen internen openai-dokumente ansehen, besteht das ziel von „strawberry“ darin, zu planen, auf das internet zuzugreifen und eingehende recherchen durchzuführen.

diese ähneln eher der letzten art des denkens in natürlicher sprache, was nichts anderes ist, als es zu stärken. es ist schwer zu sagen, ob es als eine verbesserung der denkfähigkeit angesehen werden kann.

aber,openai ist in bezug auf „argumentation“ nicht so starr, sondern hat eine umfassendere vision

vor zwei monaten sagte john schulman, einer der gründer von openai, im dwarkensh-podcast, dass der fortschritt von gpt-4 größtenteils auf die post-training-technologie zurückzuführen sei.

„es ist sehr kompliziert, ein modell zu erstellen, das die funktionen bietet, die den menschen nach der ausbildung wichtig sind“, sagte john schulman. „dies erfordert große investitionen und die anhäufung einer menge forschungs- und entwicklungsarbeit, was zu bestimmten hindernissen führt.“ ausmaß. "

john schulmans definition von „argumentation“ lautet wie folgt:

„begründung bedeutet, dass einige berechnungen erforderlich sind oder einige schlussfolgerungen erforderlich sind. aus dieser definition geht hervor, dass es erforderlich ist, während der bearbeitung der aufgabe berechnungen und schritt-für-schritt-berechnungen durchführen zu können.“

es ist ersichtlich, dass in seiner definition denk- und rechenverhalten stark miteinander verknüpft sind, und er hofft, dass maschinelles denken in echtzeit durchgeführt werden kann – genau wie menschen können sie informationen analysieren und interpretieren, während sie diese empfangen.

aber selbst wenn jemand nicht gut in mathematik ist, hindert ihn das nicht daran, logisch über dinge nachzudenken, und er kann dennoch verschiedene arten des denkens vervollständigen. warum ist die mathematische fähigkeit von maschinen so wichtig?

es kann so verstanden werden:in der mathematik geht es nicht nur darum, operationen durchzuführen, sondern auch darum, informationen auszudrücken.

mathematik ist eine sprache, die mehr auf symbolischer form und präziser bedeutung beruht, wobei 1 gleich 1 und 0 gleich 0 ist. bei der verwendung von rechensymbolen und gleichungen zur darstellung von informationen ist diese tatsächlich niedrigerdimensional als natürliche sprache.

mit anderen worten: der grund, warum große modelle „gebildet“ sind, liegt darin, dass sie auf „berechnungen“ basieren und natürliche sprache in computersprache umwandeln.

dieser punkt wurde bereits im 19. jahrhundert von george boole dargelegt, einem der bedeutendsten mathematiker der geschichte (derselbe boole, der die boolesche variable geschaffen hat).

george boole

boole war ein zutiefst religiöser mann, der sogar die existenz gottes durch mathematische überlegungen erklären wollte.

unabhängig von seiner endgültigen schlussfolgerung erklärt der reichtum, den er der welt schließlich hinterlassen hat, nämlich das buch „untersuchung der gesetze des denkens“, gleich zu beginn sein großes ziel: die symbolische sprache der infinitesimalrechnung zu verwenden, um das konzept von auszudrücken argumentation. ein grundgesetz der denktätigkeit.

dies erklärt auch, warum die erwartungen der menschen etwas nervöser sind, wenn es um die leistung der ki bei mathematischen operationen geht:

sobald sie die mathematische sprache durchbrechen, stehen sie möglicherweise kurz davor, die denkaktivitäten zu durchbrechen.

veteranen der openai-technologie sind erneut zurückgetreten

es gibt ein sehr seltsames phänomen. es scheint, dass jede große neuigkeit über die technologie-insider von openai immer mit drastischen personellen veränderungen einhergeht.

zufälligerweise gaben heute auch mehrere interne mitarbeiter von openai offiziell ihren rücktritt bekannt.

alexis conneau, der ehemalige forschungsdirektor von openai audio agi, gab beispielsweise bekannt, dass er das unternehmen verlässt, um ein unternehmen zu gründen. in seiner anderen funktion ist er ein wichtiges technisches mitglied des gpt-4o-forschungsteams.

vor der veröffentlichung von gpt-4o sagte er voller begeisterung voraus, dass es eine neue ära der mensch-computer-interaktion einläuten könnte.

er kam im april 2023 zu openai, nachdem er umfangreiche berufserfahrung in großen unternehmen wie google und meta gesammelt hatte. seiner meinung nach besteht die hauptaufgabe darin, das gpt-modell mit einem „sprechenden mund“ auszustatten.

prafulla dhariwal, der leiter des forschungsteams hinter gpt-4o, lobte conneau einmal:

alexis conneau hatte die vision für sie vor allen anderen bei openai und arbeitete unermüdlich daran, sie in die tat umzusetzen!

oder arvind neelakantan, der seit viereinhalb jahren bei openai arbeitet, ist heute ebenfalls in das meta-ki-forschungsteam „feindlager“ gewechselt.

er war an der entwicklung vieler wichtiger openai-projekte beteiligt, darunter embeddings, gpt-3 und gpt-4, api und chatgpt usw.

neelakantan sagte, dass die arbeit bei openai der höhepunkt seiner karriere sei. bei meta ai wird er sich auf die entwicklung des lama-modells der nächsten generation konzentrieren.

in diesem zusammenhang sandte auch der ehemalige openai-direktor für entwicklerbeziehungen, logan kilpatrick, seinen rücktrittssegen.

seit anfang dieses jahres hat openai eine rücktrittswelle ausgelöst, sein gründerteam ist sogar „zerbrochen“.

der frühere chefwissenschaftler ilya sutskever hat gerade seinen rückzug von openai angekündigt, und auch jan leike, einer der erfinder von rlhf, ist in seine fußstapfen getreten und hat das unternehmen verlassen.

die gründe für den abschied sind grundsätzlich unterschiedlich, abgesehen von den nachwirkungen des letztjährigen „palace fight“, möglicherweise aber auch in der persönlichen karriereplanung.

die drastischen personellen veränderungen bei openai dürften kurzfristig keine auswirkungen auf die ki-wettbewerbslandschaft haben. gleichzeitig kann die unreife ki-branche inmitten des abschwungs kein ein-jahres-fenster mehr tolerieren.

mit der kontinuierlichen veröffentlichung von modellneuigkeiten freuen wir uns darauf, in der zweiten jahreshälfte wieder eine großartige ära der ki-navigation zu erleben.

egal wie schlimm es ist, es wird zumindest interessanter sein als die langweiligen neuen ki-technologien im ersten halbjahr.

es ist absehbar, dass der fortschritt des zugrunde liegenden modells der ki-technologie wie eine starke treibende kraft sein kann, die die explosion der gesamten anwendungsseite vorantreibt, genau wie das aufkommen von gpt-4 damals, und uns lange verlorene überraschungen beschert.

bis dahin werden wir als nutzer immer die größten nutznießer sein.