2024-09-27
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
gestern veröffentlichte openai-ceo sam altman einen langen artikel „intelligent era“ auf seiner neu eröffneten blog-homepage. der allgemeine inhalt des vollständigen textes lautet: mit der entwicklung des deep learning wird in ein paar tausend tagen die künstliche intelligenz eintreffen. bis dahin wird die ki jeden aspekt des menschen verändern und auch die menschheit wird in das zeitalter der intelligenz eintreten.
eine solche vision aus dem mund des vaters von chatgpt wird zweifellos große aufmerksamkeit erregen. aber anders als in der vergangenheit lobten die internetnutzer mit überwältigender mehrheit die fähigkeit von gpt, openai zu unterstützen. unter dem langen artikel beschwerten sich einige internetnutzer darüber, dass sam altman wieder ärger mache.
einige internetnutzer glauben beispielsweise, dass altman ein wortspiel spielt: er sagt voraus, dass die super-künstliche intelligenz in ein paar tausend tagen eintreffen wird, aber niemand weiß, ob diese tausenden von tagen 1.000 tage oder 9.999 tage sein werden. es kann einen unterschied geben von 2 oder 30 jahren.
dies spiegelt tatsächlich die situation von openai von der seite wider:er ist nicht mehr der „wahre gott“ im bereich der künstlichen intelligenz und wird von zweifeln überschwemmt.
als chatgpt zum ersten mal veröffentlicht wurde, war openai künstliche intelligenz als „einzige antwort“. jetzt werden das modell, die rentabilität, das team, die sicherheit usw. von openai in frage gestellt.
das erste ist das neue modell o1, das vor einigen tagen von openai veröffentlicht wurde, wurde von internetnutzern als nicht bahnbrechend angesehen.
openai sagte, dass das o1-modell wie ein mensch denken und eine komplexe interne argumentationsphase durchlaufen wird, bevor es eine antwort gibt. in diesem prozess baut das modell eine detaillierte und tiefgreifende denkkette auf und kann auch seinen eigenen denkpfad kontinuierlich verbessern sowie eigene fehler identifizieren und korrigieren.
o1 schneidet bei komplexen denkaufgaben sehr gut ab. es eignet sich gut für programmier- und mathematikprobleme, die für gpt-4 schwierig zu bewältigen sind.
o1 übertraf 89 % der konkurrenten im codeforces-programmierwettbewerb und übertraf bei benchmarks zu physikalischen, biologischen und chemischen problemen die genauigkeit eines menschlichen doktortitels.
allerdings kann o1 immer noch keine einfache frage beantworten, z. b. welches größer ist, 9.9 oder 9.11. einige internetnutzer analysierten, dass o1 auf modellebene nicht wesentlich optimiert wurde, sondern eher einer verbesserung auf technischer ebene gleicht. einige leute spekulierten sogar:o1 ist der fein abgestimmte agent von gpt-4o.
darüber hinaus ist openai o1 auch extrem teuer. im gegensatz zu herkömmlichen modellen generiert o1 mehrere kandidaten und bewertet sie bei jedem argumentationsschritt, und diese versteckten denkprozesse kosten token, also geld. dies bedeutet, dass die inhaltsausgabe von 100 token als 1000 token abgerechnet werden kann.
der zweite bereich, in dem openai in frage gestellt wurde, ist die stabilität des führungsteams.
nachdem openai im november letzten jahres den „zwangsabtreibungsvorfall“ erlebt hatte, wurde openai den internetnutzern als ein team gezeigt, das sich für die entwicklung künstlicher intelligenz einsetzt.
insbesondere nach der entlassung von altman reichten mehr als 700 openai-mitarbeiter (mehr als 90 % des unternehmens) einen offenen brief an den vorstand ein. sie bestanden darauf, dass sie massenhaft zurücktreten würden, wenn altman nicht in das unternehmen zurückgebracht würde.
allerdings haben die rücktritte in den letzten monaten den filter des openai-teams völlig zum erliegen gebracht.
im februar dieses jahres trat mitbegründer andrej karpathy zurück und gründete ein ki+-bildungsunternehmen, eureka labs. im mai dieses jahres traten spitzenmanager wie jan leike, der leiter des super alignment-teams, und ilya sutskever, der chefwissenschaftler, nacheinander zurück.
im august gab openai-mitbegründer john schulman seinen rücktritt in den sozialen medien bekannt und sprang direkt zu anthropi, dem direkten konkurrenten von openai.
derzeit sind von den 11 mitbegründern nur noch 3 übrighäufige wechsel in der unternehmensspitze und mangelnde stabilisierung werden unweigerlich auswirkungen auf die entwicklung von openai haben.
zusätzlich zu den änderungen auf hoher ebeneauch der schutz der interessen einfacher arbeitnehmer durch openai wurde in frage gestellt。
im juni dieses jahres berichtete vox, dass openai mitarbeiter auffordern würde, bei ihrem ausscheiden eine vereinbarung mit einer nichtverunglimpfungsklausel zu unterzeichnen, da sie sonst viel geld verlieren würden.
aschenbrenner, der dieses jahr wegen „lecks“ entlassen wurde, glaubt, dass der wahre grund, warum openai ihn entlassen hat, darin bestand, dass er ein internes memo über die sicherheit von openai geschrieben hat.
ein wichtiger faktor für die instabilität des openai-teams ist die art und weise, wie openai sicherheit und kommerzialisierung in einklang bringt. dahinter steckt die frage, die sich alle gestellt haben: kann openai als gemeinnützige organisation die wichtige aufgabe übernehmen, „allgemeine künstliche intelligenz zum nutzen der gesamten menschheit“ zu schaffen?
insbesondere können sich non-profit-organisationen, wenn man den aktuellen technologischen weg betrachtet, das geld, das für die implementierung von agi ausgegeben wird, die der gesamten menschheit zugute kommt, definitiv nicht leisten.
openai wurde 2015 zunächst als gemeinnützige organisation mit dem ziel gegründet, die entwicklung sicherer und nützlicher künstlicher intelligenz (ki) voranzutreiben. allerdings kam die von den sponsoren versprochene milliarde us-dollar nicht wie geplant an und die mittel von openai waren schnell erschöpft. openai hatte keine andere wahl, als 2019 die gründung von openai global, llc (einem von openai gegründeten profitablen unternehmen) zu starten.
da darüber hinaus skalierungsgesetze weiterhin eine rolle spielen, werden die investitionen von openai in gpt4 und gpt5 exponentiell zunehmen. man kann davon ausgehen, dass selbst gpt4 möglicherweise um mehrere jahre verzögert worden wäre, wenn microsoft nicht weiterhin geld für openai ausgegeben hätte. aber microsoft ist ein börsennotiertes unternehmen, und sein hauptzweck besteht darin, geld zu verdienen.
dies lässt auch zweifel an der beziehung zwischen openai und microsoft aufkommen: ob openai immer noch ein unabhängiges unternehmen ist; ob microsoft durch die technologie von openai gewinne monopolisieren kann usw.
da openai nach und nach mit großen finanzierungslücken konfrontiert war, ist es auf der suche nach mehr finanzierung. in kombination mit den verschiedenen aktionen von openai können wir vermuten, dass sam altman möchte, dass openai an die börse geht.
im juni dieses jahres enthüllten die medien, dass sam altman einigen aktionären mitgeteilt hatte, dass das unternehmen erwäge, die governance-struktur von openai in ein gewinnorientiertes unternehmen umzuwandeln. im selben monat stellte openai auch sarah friar, die als cfo den erfolgreichen börsengang von square geleitet hatte, als neue cfo ein.
unabhängig davon, ob openai irgendwann an die börse geht oder gemeinnützig bleibt, kann es nicht das tun, was closeai unter dem banner von openai tut.
schließlich ist es tatsächlich der auslöser aller zweifel: openai-produkte werden immer langsamer und der kuchen wird immer größer.
es gab keine bewegung auf gpt5 (vielleicht wurde es durch o1 ersetzt, anstatt nur in der zeitung zu leben).
einen blog zu starten und lange artikel zu schreiben ist nur eine der möglichkeiten, ein bild zu zeichnen. er machte auch eine vielbeachtete ankündigung, dass openai 7 billionen us-dollar aufbringen wird, um chips zu bauen und die globale halbleiterindustrie neu zu gestalten.
von zeit zu zeit freue ich mich auf agi auf sozialen plattformen und lasse mich von meinen eigenen produkten inspirieren.
bei der veröffentlichung von o1 wurde eine reihe kurzer videos gedreht, die wie eine varieté-show aussahen.
angesichts der zweifel musste sam altman mehr vom kuchen abziehen, um die führende position von openai zu behaupten.
und mehr kuchen führen zu mehr fragen.
vollständiger text.
autor: dong daoli
herausgeber: zhang zeyi
visuelles design: shu rui
verantwortlicher redakteur: zhang zeyi
über „new silicon newgeek“: mit ki als mittelpunkt verfolgen wir alle aspekte des technologiebereichs und sind bestrebt, auf einfachste weise zu erklären, wie technologie die welt verändert. bleiben sie dran.