2024-08-19
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Les troubles au sein du personnel d'OpenAI se sont intensifiés depuis que le PDG Sam Altman a été licencié et réembauché par le conseil d'administration d'OpenAI l'année dernière.
Depuis le début de cette année, de nombreux cadres supérieurs ont démissionné. Pour l’instant, il ne reste que trois des 11 cofondateurs d’OpenAI : Altman, Wojciech Zaremba, chef de l’équipe de génération de langage et de code, et Greg Brockman, le président en congé.
Pourquoi OpenAI, qui a une énorme influence dans le domaine de l’intelligence artificielle, ne parvient-il pas à retenir ces fondateurs ?
libère ces signaux
Plus tôt ce mois-ci, John Schulman, qui a joué un rôle important dans la création de ChatGPT, a annoncé qu'il quittait OpenAI pour rejoindre son concurrent Anthropic. Il a déclaré : « J'ai décidé de poursuivre l'objectif d'étudier l'alignement de l'IA chez Anthropic et de mener des recherches avec des personnes qui abordent des sujets qui m'intéressent. Peter Deng, vice-président des produits de consommation et chef de produit qui a rejoint l'année dernière, a également annoncé officiellement. » démission.
Liu Pengfei, professeur agrégé à l'Université Jiao Tong de Shanghai et chef du groupe de recherche sur l'intelligence artificielle générative, a déclaré dans une interview avec China Business News : « Le départ de chercheurs chevronnés tels que Schulman montre qu'OpenAI n'est peut-être plus le premier choix pour les meilleurs Les scientifiques en IA. D'autres se concentrent sur l'IA. Les entreprises sécurisées comme Anthropic ou les nouvelles startups attirent des talents, ce qui pourrait être un signe de diversification dans l'écosystème de recherche en IA.
Il convient de noter que Brockman, qui s'est tenu fermement aux côtés d'Altman lors de la tempête de rappel de l'année dernière, a également annoncé qu'il prendrait un congé jusqu'à la fin de l'année presque au même moment, déclarant : « La tâche est loin d'être terminée. nous devons encore construire une AGI sécurisée." (Intelligence Artificielle Générale)".
À cet égard, Tan Yinliang, professeur de sciences de la décision et de systèmes d'information de gestion à la China Europe International Business School, a déclaré dans une interview avec China Business News que l'industrie interprétait généralement la décision de Brockman comme un départ imminent parce que l'ancien co-fondateur d'OpenAI, Andrej Karpathy, , a également démissionné après avoir pris de longues vacances.
Tan Yinliang a déclaré que les actions récentes de Schulman et Brockman ont émis deux signaux : premièrement, il y a des problèmes dans la gestion interne d'OpenAI, des scientifiques exceptionnels pourraient continuer à partir et l'écart de développement entre d'autres sociétés d'IA et OpenAI pourrait progressivement disparaître ; Le développement des modèles de nouvelle génération a peut-être rencontré un goulot d'étranglement, et le domaine technique devra peut-être se demander si ScalingLaws (la loi de la mise à l'échelle) approche de sa fin.
"Lorsque le mois prochain, les clauses de non-concurrence dans les entreprises américaines seront complètement abolies et que le flux de talents en IA sera complètement délié, le problème de fuite des cerveaux d'OpenAI pourrait devenir encore plus grave", a-t-il déclaré.
"Rebel" ouvre une nouvelle ère
Selon les statistiques des instituts de recherche du secteur, près de 75 employés principaux d'OpenAI ont démissionné et ont fondé une trentaine de startups d'intelligence artificielle. Dario Amodei, fondateur et PDG de la société d'intelligence artificielle Anthropic, a déclaré lors d'une émission en juillet que les sociétés modèles d'intelligence artificielle sont sur le point de gagner plus d'un billion de dollars de revenus. Sur le marché de l’intelligence artificielle, qui pèse des milliards, OpenAI et ses employés expatriés peuvent représenter plus de la moitié du marché.
Les frères et sœurs Amodei ont été vice-président de la recherche et vice-président de la politique de sécurité chez OpenAI. En 2020, ils ont démissionné en raison de leur mécontentement face à la publication directe de GPT-3 par OpenAI sans résoudre les problèmes de sécurité. Ils ont également emmené l'ancien directeur politique Jack Clark et le chercheur Jared Kaplan pour participer à la création de 14 chercheurs. L’entreprise a levé au moins 7 milliards de dollars de financement depuis 2021 auprès de géants de la technologie tels que Google et Amazon. La dernière version du chatbot, Claude 3.5 Sonnet, lancée en juin, est considérée comme équivalente ou meilleure que le GPT-4o d'OpenAI en termes de performances globales.
Perplexity, une société de recherche en intelligence artificielle fondée en août 2022 par l'ancien chercheur d'OpenAI Aravind Srinivas, est actuellement évaluée à plus de 3 milliards de dollars. La société a déclaré avoir reçu 250 millions de requêtes le mois dernier, soit la moitié du nombre enregistré pour l'ensemble de l'année dernière. La croissance explosive a fait de Perplexity considéré comme un concurrent sérieux de Geimini de Google et de SearchGPT d'OpenAI.
En juillet de cette année, Musk, co-fondateur d'OpenAI et PDG de Tesla, a également « obtenu le dernier ticket » et a annoncé la création de sa société d'intelligence artificielle xAI pour « comprendre la vraie nature de l'univers ».
Tan Yinliang a déclaré : « Il est relativement courant que les fondateurs partent dans le domaine de la technologie dure, et cette culture de « l'exode » est répandue depuis le début de l'essor de la Silicon Valley. La plus célèbre est la « Fée Enfant Huit Rebelles ». ", ces huit personnes qui sont parties de Fairchild. Après avoir quitté son emploi, il a fondé un grand nombre de premières entreprises technologiques, dont Intel et AMD. C'est ce groupe d'entreprises qui a fait de San Francisco la Silicon Valley à l'ère de l'intelligence artificielle. huit auteurs de l'article "AttentionIsAllYouNeed", qui a jeté les bases du grand modèle, sont désormais également présents. Ils ont quitté Google et ont créé leur propre entreprise.
Il a déclaré : « Les projets entrepreneuriaux personnels et diverses différences philosophiques qui surgissent au cours du processus de développement de l'entreprise peuvent être des raisons pour lesquelles les fondateurs partent. Cependant, parfois, partir n'est pas nécessairement une mauvaise chose. Ce sont ces « renégats » qui s'ouvrent. un nouveau domaine et une nouvelle époque.
La sécurité est un sujet qu'OpenAI ne peut éviter
Cependant, il est indéniable que « sécurité » et « alignement » sont également des mots très fréquents dans les déclarations de démission des fondateurs.
Outre Schulman, Ilya Sutskever, co-fondateur et scientifique en chef d'OpenAI, et Jan Leike, chef de l'équipe Super Alignment, ont annoncé leur démission en mai. Lake s'est même plaint sur les réseaux sociaux X que « la culture et les processus de sécurité ont cédé la place à des produits brillants ».
Par la suite, Suzkwer a annoncé la création d'une nouvelle société d'intelligence artificielle, Safe Superintelligence Inc. (SSI), en juin de cette année et a déclaré que « la superintelligence sûre est notre seul objectif ». Lake a rejoint Anthropic, la société rivale d'intelligence artificielle d'OpenAI, pour "poursuivre la mission de super alignement".
À cet égard, Tan Yinliang a déclaré : « Dans le domaine de l'intelligence artificielle, « l'alignement » (AIAlignment) fait référence à la garantie que le comportement du système d'IA est cohérent avec les valeurs humaines, les intentions et les objectifs attendus. Pour que l'IA réponde mieux aux besoins humains, cela nécessite de réfléchir aux choses et aux valeurs des gens. Altman n'a pas fait assez dans le département de sécurité. Il avait initialement promis de donner 20 % des ressources de puissance de calcul à l'équipe de super-alignement. le concept a été modifié et toute l’équipe de sécurité s’est partagée les 20 %. Pour un groupe de scientifiques aux intentions originales, la sécurité est leur insistance.
Fin juillet de cette année, OpenAI a également transféré Aleksander Madry, directeur principal du département de sécurité, de son poste de sécurité et l'a réaffecté au travail de « raisonnement de l'IA ». Au début de ce mois, Musk a de nouveau intenté une action en justice contre OpenAI et Altman, accusant OpenAI de placer les profits et les intérêts commerciaux au-dessus des intérêts publics, s'écartant ainsi de l'intention initiale de bénéficier à toute l'humanité lors de la création de l'entreprise.
Li Wei'an, professeur titulaire à l'Université de Nankai et doyen de l'Institut chinois de recherche sur la gouvernance d'entreprise, a déclaré dans une interview accordée à China Business News : « Dans l'entrepreneuriat traditionnel, de nombreux changements d'emploi sont dus au manque de rémunération, d'actions ou de postes correspondants. à la valeur créée, mais ce n’est pas principalement la raison du départ des co-fondateurs d’OpenAI.
Il a déclaré que les fondateurs d'OpenAI ne détiennent pratiquement pas d'actions. Du point de vue de la gouvernance de l'intelligence artificielle, la principale raison pour laquelle les fondateurs sont partis est le conflit des concepts de gouvernance, c'est-à-dire si la gouvernance de l'intelligence artificielle est pour le bien ou pour le profit.
ChallengerAnthropique
De Lake à Schulman, Anthropic continue d'attirer les principaux membres d'OpenAI.
La société a également récemment embauché Pavel Izmailov, un ancien chercheur d'OpenAI qui a été licencié en avril de cette année pour avoir prétendument divulgué des informations. Steven Bills, qui est membre du personnel technique d'OpenAI depuis plus de deux ans, a également déclaré le mois dernier qu'il avait quitté OpenAI pour rejoindre l'équipe d'alignement d'Anthropic.
Liu Pengfei a déclaré qu'Anthropic a fait de la sécurité et de l'alignement de l'IA sa mission principale depuis sa création. Cette orientation lui permet de concentrer davantage de ressources et d'attention sur les questions d'alignement, offrant potentiellement aux chercheurs un environnement de recherche plus pur. De plus, pour un chercheur chevronné comme Schulman, travailler dans une entreprise plus récente et relativement petite peut signifier une plus grande influence et davantage d'opportunités pour façonner l'orientation de l'entreprise, ce qui est plus important pour ceux qui espèrent travailler dans une entreprise très attractive à mi-carrière. chercheurs à la recherche de nouveaux défis.
Li Wei'an a déclaré : « L'innovation d'Anthropic en matière de structure de gouvernance d'entreprise reflète un meilleur équilibre entre les affaires et la sécurité, ce qui peut également être la raison pour laquelle elle peut continuer à attirer des talents pour changer d'emploi.
Il a expliqué : « Afin de trouver un équilibre entre l'IA pour le bien et l'IA pour le profit, en termes de structure de gouvernance, Anthropic a créé un comité de confiance composé de personnalités bien connues de la société pour superviser les administrateurs. qui violent définitivement l'objectif de la technologie. De plus, afin d'assurer la mise en œuvre du système, Anthropic a également mis en place une classe spéciale d'actions T qui seront détenues par les membres du trust.
En mai de cette année, Amodei a déclaré lors d'un sommet : « Nous avons sept cofondateurs. Trois ans et demi plus tard, nous sommes tous toujours dans l'entreprise.
Quant aux défis rencontrés par OpenAI, Tan Yinliang a déclaré : « En regardant d'autres sociétés d'IA, le modèle de Claude a surpassé le GPT dans certains domaines. Lorsque tout le monde court sur l'itinéraire établi de Transformer, le point final et le chemin sont en fait très clairs. À l’heure actuelle, si les scientifiques continuent de partir, l’avantage d’OpenAI en tant que premier arrivé n’est pas insurmontable.»
"En août, Musk a également relancé le procès contre OpenAl. En termes financiers, les pertes annuelles d'OpenAI pourraient atteindre 5 milliards de dollars américains et ses flux de trésorerie pourraient être épuisés l'année prochaine. Au milieu des inquiétudes internes et externes, cette année Cela devrait être un bon début pour OpenAI. C'est très difficile", a-t-il déclaré.