nouvelles

Séisme du personnel d'OpenAI : l'allié d'Ultraman, Brockman, est en congé de longue durée et le chef de produit a démissionné

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Rapport sur le cœur de la machine

Département éditorial de Machine Heart

La direction d’OpenAI a de nouveau reçu trois nouvelles importantes concernant des changements de personnel.



Premièrement, le président d'OpenAI, Greg Brockman, l'un des 11 cofondateurs, prendra un congé de longue durée.

Le dirigeant a joué un rôle crucial dans la transformation des résultats révolutionnaires d'OpenAI en modèles et produits d'IA à grande échelle tels que ChatGPT, et a servi de retour de Sam Altman dans l'entreprise après son éviction du conseil d'administration.



La version que Greg Brockman a donnée aux employés était qu'il prévoyait de retourner dans l'entreprise après un congé prolongé. Cependant, les vacances de longue durée des cadres supérieurs occupant des postes clés donneront inévitablement lieu à certaines spéculations de la part du monde extérieur.

De plus, un autre co-fondateur, John Schulman, a annoncé son passage à Anthropic, une société rivale fondée par d'anciens employés d'OpenAI.



Chez OpenAI, Schulman a dirigé un processus connu sous le nom de « post-formation » pour affiner les grands modèles de langage derrière ChatGPT et d'autres produits.

Schulman a également récemment repris les restes de l'équipe Hyper-Alignment, dont l'objectif est d'empêcher l'intelligence artificielle de nuire à la société. Avant cela, le chef de l'équipe Super Alignment était Jan Leike, qui a annoncé sa démission le même jour en tant que co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever. Ilya a fondé une startup axée sur la sécurité après avoir quitté OpenAI, et Jan Leike a rejoint Anthropic.

Selon une personne ayant une connaissance directe du sujet, le chef de produit Peter Deng, qui a rejoint l'entreprise l'année dernière et qui était auparavant chef de produit chez Meta Platforms, Uber et Airtable, a quitté l'entreprise. OpenAI a récemment embauché son premier directeur financier et chef de produit, et leur arrivée aura probablement un impact sur le rôle de Deng.



Nous connaissons également un autre cofondateur d'OpenAI, Andrej Karpathy, qui l'a quitté en février de cette année et a créé une startup éducative.

Ces nouvelles soudaines de démissions ne sont pas forcément pertinentes, mais elles illustrent au moins un point : depuis le « Palace Fighting Farce » survenu en novembre dernier, même si Sam Altman est revenu chez OpenAI et a pris les commandes, la direction de l'entreprise reste instable.

John Schulman : C'est une décision très difficile

Par la suite, John Schulman a révélé la nouvelle de son départ sur X et a expliqué qu'il avait choisi de passer à Anthropic parce qu'il souhaitait approfondir l'alignement de l'IA, qui est la pratique consistant à aligner l'IA sur les valeurs humaines.

Pour ses collègues qui ont combattu à ses côtés, John Schulman a laissé une lettre :



J'ai pris la décision difficile de quitter OpenAI. Ce choix découle de mon désir de me concentrer davantage sur l’alignement de l’IA et d’ouvrir un nouveau chapitre de ma carrière, en revenant au travail technique de première ligne. J'ai décidé de poursuivre cet objectif chez Anthropic, où je pensais pouvoir acquérir de nouvelles perspectives et mener des recherches avec des personnes qui approfondissaient en profondeur les sujets qui m'intéressaient le plus. Pour être clair, je ne pars pas à cause du manque de soutien d'OpenAI pour la recherche sur l'alignement. Au contraire, les dirigeants des entreprises se sont montrés très engagés à investir dans ce domaine. Ma décision était personnelle et basée sur l’orientation que je souhaitais donner à la prochaine phase de ma carrière.

Il y a près de 9 ans, j'ai rejoint OpenAI après avoir obtenu mon diplôme d'études supérieures et je suis devenu membre de l'équipe fondatrice. C'est la première et la seule entreprise pour laquelle j'ai travaillé (autre qu'un stage). Le travail est également très intéressant et je remercie Sam et Greg de m'avoir recruté dès le début, ainsi que Mira et Bob de m'avoir fait confiance, de m'avoir offert de nombreuses opportunités et de m'avoir aidé à relever avec succès les différents défis. Je suis fier de ce que nous avons accompli ensemble chez OpenAI ; nous avons construit une entreprise inhabituelle et sans précédent avec une mission de bien-être public.

Je crois qu'OpenAI et l'équipe dont je fais partie continueront de prospérer même sans moi. Les travaux de formation ultérieurs progressent sans problème et nous disposons d'un groupe de talents exceptionnels. ChatGPT – beaucoup de crédit. C'est fantastique que Barret, avec Liam, Luke et d'autres, aient construit l'équipe pour en faire l'équipe très compétente qu'elle est aujourd'hui. Je suis heureux de voir l’équipe de coordination travailler ensemble pour réaliser des projets prometteurs. Sous la direction de Mia, Boaz et d’autres, je pense que l’équipe sera très compétente.

Je suis extrêmement reconnaissant d’avoir l’opportunité de participer à un moment aussi important de l’histoire et fier de ce que nous avons accompli ensemble. Même si je travaillais ailleurs, je vous soutiendrais tous.

Sur le même ton familier, Ultraman Sam a renvoyé un autre partenaire entrepreneurial :



Le fondateur a démissionné et l'équipe s'est dissoute

Les changements de personnel d’OpenAI ont commencé avec le conflit au sein du conseil d’administration.

En novembre de l'année dernière, OpenAI a annoncé que Sam Altman démissionnerait de son poste de PDG et se retirerait du conseil d'administration parce que Sam Altman n'était pas assez franc avec le conseil d'administration. L'ancien scientifique en chef d'OpenAI, Ilya Sutskever, a été le principal responsable de tout l'incident.

Mais quelques jours plus tard, Sam Altman revient chez OpenAI en tant que PDG, et OpenAI annonce une réorganisation de son conseil d'administration.

Lorsqu'un "combat de palais" s'est produit dans OpenAI et qu'Ultraman Sam a été expulsé d'OpenAI, certaines personnes ont dit qu'Ilya "avait vu quelque chose" qui était suffisamment puissant pour le faire s'inquiéter de l'avenir de l'IA et repenser son développement.

Certaines personnes l'ont même interprété comme suit : OpenAI a peut-être implémenté l'AGI en interne, mais n'a pas synchronisé le message vers davantage de personnes en temps opportun. Afin d'éviter que la technologie ne soit appliquée à grande échelle sans évaluation de la sécurité, Ilya et d'autres ont insisté sur le point. clé d'arrêt d'urgence. Mais ce ne sont que des suppositions.

Après une tourmente, Ultraman semble pouvoir gérer OpenAI plus librement, tandis qu'Ilya Sutskever est gêné.

En mai de cette année, Ilya Sutskever, co-fondateur et scientifique en chef d'OpenAI, a officiellement annoncé sa démission. En même temps qu'Ilya, Jan Leike, co-responsable de l'équipe Super Alignment, a annoncé son départ. L'équipe Super Alignment d'OpenAI a été dissoute.



En juin, Ilya a déclaré sur X qu'il avait fondé une nouvelle société - "Safe SuperIntelligence (SSI)".

Jan Leike a également annoncé fin mai qu'il rejoindrait Anthropic, concurrent d'OpenAI, pour continuer à travailler sur la recherche sur le super alignement. Après que John Schulman a annoncé qu'il avait rejoint Anthropic, Jan Leike a déclaré : « Je suis très heureux de travailler à nouveau ensemble !



Pour des raisons de sécurité, le conseil d'administration d'OpenAI a annoncé en mai la création d'un nouveau comité de sûreté et de sécurité, dirigé par les administrateurs Bret Taylor (président du conseil d'administration), Adam D'Angelo, Nicole Seligman et Sam Altman (PDG). Ce comité est chargé de faire des recommandations à l'ensemble du conseil d'administration sur les décisions de sécurité critiques pour les projets et opérations OpenAI.

Cependant, les changements de personnel se sont poursuivis. Cela incite les gens à spéculer sur ce qui se passe au sein d’OpenAI.

Alors, jusqu’où le grand modèle d’IA de nouvelle génération d’OpenAI sera-t-il par rapport à l’AGI ? La sécurité des grands modèles mérite-t-elle de s’inquiéter ?

Il convient de noter qu’OpenAI semble ralentir ces derniers temps. La nouvelle publiée par OpenAI lors du DevDay cet automne indiquait que GPT-5 ne serait pas publié pour le moment, ce qui réduirait les attentes en matière de versions de modèles à grande échelle, et se concentrerait sur la mise à jour de son API et de ses services de développement.

Lien de référence : https://www.theinformation.com/articles/trio-of-leaders-leave-openai?rc=ks2jbm