Nachricht

Der Aufruhr um das Personal von OpenAI geht weiter: Mitbegründer geht langfristig in Urlaub, ein weiteres Mitglied des Gründungsteams schließt sich Anthropi an

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Am Morgen des 6. August, Pekinger Zeit, begrüßte OpenAI einen weiteren hochrangigen Personalwechsel.

John Schulman, Gründungsmitglied von OpenAI, gab auf sozialen Plattformen bekannt, dass er OpenAI verlassen und sich Anthropic, einem weiteren Startup für künstliche Intelligenz, anschließen wird. Greg Brockman, Präsident und Mitbegründer von OpenAI, kündigte in den sozialen Medien an, dass er sich bis Ende des Jahres beurlauben werde, ohne Neuigkeiten über einen möglichen Abgang zu erwähnen. Es gibt auch Neuigkeiten, dass Peter Deng, Produktleiter von OpenAI, ebenfalls gehen wird.


Nach dem vorherigen Rücktritt von OpenAI-Mitbegründer und Chefwissenschaftler Ilya Sutskever bleibt die Personallage von OpenAI instabil. Es ist erwähnenswert, dass John Schulman und Ilya Sutskvo, die dieses Mal ihren Rücktritt ankündigten, zuvor für die Ausrichtungsarbeit für künstliche Intelligenz bei OpenAI verantwortlich waren. OpenAI hat das „Super Intelligence Alignment“-Team zuvor aufgelöst, und der Abgang von John Schulman könnte bedeuten, dass OpenAI weniger bereit ist, erneut in die Ausrichtung künstlicher Intelligenz zu investieren.

Obwohl Greg Brockman seinen Abgang nicht bekannt gab, könnte der langfristige Urlaub des Kernpersonals in einer Zeit, in der sich OpenAI auf die Bewältigung der Herausforderungen von Modellen der nächsten Generation konzentriert, auch die internen Unterschiede innerhalb von OpenAI widerspiegeln.

Gerne wieder personelle Veränderungen

John Schulman sagte, dass er die Entscheidung getroffen habe, OpenAI zu verlassen und sich Anthropic anzuschließen, weil er sich stärker auf die Ausrichtung der künstlichen Intelligenz konzentrieren und zur eigentlichen technischen Arbeit zurückkehren wollte. „Ich gehe nicht, weil OpenAI die Alignment-Forschung nicht unterstützt. Im Gegenteil, das Unternehmen hat sich dazu verpflichtet, in diesen Bereich zu investieren. Meine Entscheidung ist eine persönliche und ich hoffe, dass ich mich auf die nächste Phase meiner Karriere konzentrieren kann.“ „Sagte John Schulman.

John Schulman sagte, dass OpenAI bisher, abgesehen von Praktika, das einzige Unternehmen ist, für das er gearbeitet hat, und er ist OpenAI-CEO Sam Altman und Mitbegründer Greg Brock Mann sehr dankbar, dass sie ihn von Anfang an eingestellt haben: „Ich glaube, dass OpenAI und Das Team, für das ich arbeite, wird ohne mich weiterhin erfolgreich sein.

Sam Altman antwortete John Schulman auf sozialen Plattformen mit den Worten: „Vielen Dank für alles, was Sie für OpenAI getan haben. Sie sind ein talentierter Forscher und eine Person, die tief über Produkte und die Gesellschaft nachdenkt. Sie sind ein großartiger Freund für uns alle.“

Der Reporter bemerkte, dass OpenAI Anfang des Jahres das „Super Intelligence Alignment“-Team auflöste und am 28. Mai Ortszeit ein neues Sicherheitskomitee gründete. John Schulman ist eines der Mitglieder des Sicherheitskomitees. Damals beschrieb OpenAI seine Position als Director of Alignment Science.

Obwohl Mitbegründer Greg Brockman einen längeren Urlaub nahm, gab er seine Absicht nicht bekannt, zu gehen. Er gab in den sozialen Medien lediglich an, dass dies das erste Mal seit der Gründung von OpenAI vor 9 Jahren sei, dass er sich entspannen könne. „Die Mission ist noch lange nicht abgeschlossen, wir müssen noch eine sichere AGI (künstliche allgemeine Intelligenz) aufbauen“, sagte Greg Brockman.

Peter Deng hat die Nachricht von seinem Abgang in den sozialen Medien noch nicht erwähnt. Peter Deng ist ein bekannter Produktmanager im Silicon Valley. Er war als Produktmanager für Google, Instagram, Facebook und andere Unternehmen tätig und wechselte als Vizepräsident für Verbraucherprodukte zu OpenAI und Ingenieurteams hinter ChatGPT. In einem Podcast-Gespräch Anfang des Jahres sagte er, als er die Werte der KI-Sicherheit und ChatGPT erwähnte, dass die ideale Situation darin bestehe, dass künstliche Intelligenz den persönlichen Werten jedes Benutzers entsprechen könne normativ, und es gehört nicht uns. Welche Werte möchten Sie in ChatGPT vermitteln, aber wie können Werte aus der ganzen Welt auf irgendeine Weise in künstliche Intelligenz integriert werden?

Der personelle Aufruhr bei OpenAI hält an, seit Sam Altman letztes Jahr vom OpenAI-Vorstand entlassen und wieder eingestellt wurde. Es gibt Gerüchte, dass die Entlassung von Sam Altman mit internen Meinungsverschiedenheiten über Fragen der KI-Sicherheit zusammenhängt. Sam Altman und Ilya Sutskvo haben Meinungsverschiedenheiten über Fragen der KI-Sicherheit und der Kommerzialisierung. Als Schlüsselfigur im internen Konflikt kündigte Ilya Sutskvo im Mai dieses Jahres an, dass er OpenAI verlassen werde, wo er fast zehn Jahre lang gearbeitet hatte.

Darüber hinaus verließ Andrej Karpathy, ein weiteres Gründungsteammitglied von OpenAI, OpenAI im Februar dieses Jahres und kündigte im Juli die Gründung eines AI+-Bildungsunternehmens an. Bei OpenAI sind immer weniger Mitglieder des Gründungsteams beschäftigt.

Wird es den Entwicklungsfortschritt von GPT beeinflussen?

OpenAI begrüßt erneut personelle Veränderungen, was bedeuten könnte, dass sich der Fokus von OpenAI auf KI-Sicherheit geändert hat. Ob die nächste Generation von GPT von personellen Veränderungen betroffen sein wird, bleibt abzuwarten.

Der Reporter stellte fest, dass laut der Beschreibung von OpenAI die erste Aufgabe des zuvor eingerichteten Sicherheitsausschusses darin besteht, die Prozesse und Sicherheitsmaßnahmen von OpenAI in den nächsten 90 Tagen zu bewerten und weiterzuentwickeln und am Ende der 90 Tage Empfehlungen mit allen Vorstandsmitgliedern auszutauschen. Nach der Prüfung durch den Vorstand: Offenlegung angenommener Empfehlungen. Dem Zeitplan zufolge werden diese Empfehlungen nach Ende August veröffentlicht, und John Schulman hat beschlossen, OpenAI bis dahin zu verlassen.

Im Hinblick auf die KI-Sicherheit zeigt die Einführung von OpenAI in das neu gegründete Sicherheitskomitee, dass die Verantwortlichkeiten des Teams nicht ganz mit denen des aufgelösten „Super Intelligence Alignment“-Teams übereinstimmen. Mit dem Weggang von John Schulman, Direktor für Alignment-Wissenschaft, könnte dies bedeuten, dass OpenAI der Ausrichtung künstlicher Intelligenz weniger Aufmerksamkeit schenkt.

„Alignment“ bedeutet, dass die Ziele des KI-Systems mit menschlichen Werten und Interessen im Einklang stehen müssen. Zu den ursprünglichen Aufgaben des „Super Intelligence Alignment“-Teams gehörte die Erforschung technischer Lösungen zur Verhinderung von Anomalien im KI-System. Ilya Sutskvo hat in Interviews erwähnt, dass ChatGPT möglicherweise bewusst ist und dass die Welt sich der wahren Leistungsfähigkeit der Technologie bewusst werden muss, die sein Unternehmen und andere entwickeln. Altman sieht das nicht ganz so und antwortete kürzlich: „[Der ehemalige Vorstand] hatte einige Meinungen über mich und unsere Aktivitäten, auch wenn ich mit ihren Ideen sehr nicht einverstanden war. Die Frage der KI-Ausrichtung ist noch nicht klar Es wird gesagt, dass es vollständig gelöst ist, aber derzeit ist der Effekt, das System der künstlichen Intelligenz lernen zu lassen, gemäß einer Reihe von Werten zu handeln, als ich es mir vorgestellt habe.

Anthropic, dem John Schulman beitreten wird, gilt als der größte Konkurrent von OpenAI. Anthropic, ein von ehemaligen Führungskräften und Mitarbeitern der OpenAI-Forschung gegründetes Unternehmen, besitzt die Claude-Serie großer Modelle. Im Juni dieses Jahres veröffentlichte Anthropic das neueste Modell Claude 3.5 Sonnet, das bessere Ergebnisse als GPT-4o in Bezug auf Argumentation auf Graduiertenebene (GPQA), Codierungsfähigkeit (HumanEval) und Textargumentation (DROP) aufweist.

Gemessen am Fortschritt der GPT-Forschung und -Entwicklung der nächsten Generation scheint OpenAI auf einige Schwierigkeiten gestoßen zu sein. Im Juli dieses Jahres sagte Sam Altman, dass die Entwicklung von GPT-5 noch einige Zeit in Anspruch nehmen wird. Die GPT-5-bezogene Technologie befindet sich noch in einem frühen Stadium und es gibt Daten- und Algorithmusprobleme.

Da John Schulman das Unternehmen verlässt, um sich dem Rivalen Anthropic anzuschließen, und Greg Brockman sich beurlauben lässt, bleibt abzuwarten, ob sich der Abgang wichtiger Persönlichkeiten auf den Fortschritt der Forschung und Entwicklung von OpenAI auswirken wird.

Es ist erwähnenswert, dass es andere Konflikte zwischen den Mitbegründern von OpenAI gibt. Weniger als zwei Monate nach der Zurückziehung der Klage verklagte Tesla-CEO Musk, Mitbegründer von OpenAI, kürzlich Sam Altman und Greg Brockman vor einem US-Gericht und beschuldigte die zuständigen Mitarbeiter, Geschäftsinteressen über ihr eigenes Interesse zu stellen und gegen die Gründung des Unternehmens zu verstoßen Vertrag. In der Anklageschrift wird behauptet, dass Sam Altman und andere sich bewusst bei Musk einschmeichelten und ihn täuschten, um das gemeinnützige Unternehmen OpenAI mitzugründen, es dann aber mit verschiedenen Mitteln in eine gewinnorientierte Organisation umwandelten. OpenAI reagierte vor einigen Monaten mit Screenshots auf Musks Vorwürfe und sagte, Musk habe dem Plan des Unternehmens zugestimmt, mehr Geld zu sammeln, eine gewinnorientierte Organisation zu gründen und die Veröffentlichung von Open-Source-Produkten schrittweise einzustellen.