nouvelles

« Tyrant » domine AGI, OpenAI se dirige-t-il vers un avenir dangereux ?

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Auteur de la technologie Tencent, Guo Xiaojing Hao Boyang

Editeur Su Yang

Les troubles au sein du personnel d’OpenAI se poursuivent, cette foisOpenAI Le président Greg Brockman, reconnu comme un fidèle partisan de Sam Altaman et qui était avec lui lorsque Sam a été évincé du conseil d'administration, a annoncé un congé de longue durée. Greg Brockman lui-même a annoncé qu'il reviendrait dans l'entreprise après de longues vacances. Cependant, de nombreux cadres supérieurs d'entreprises technologiques prendront de longues vacances avant de quitter leur emploi. Il est difficile que ses actions ne suscitent pas d'autres spéculations.

En outre, deux cadres principaux ont été exposés au départ : l'un d'entre eux était Johnson Schulman, l'un des cofondateurs. Il a brièvement dirigé l'équipe de sécurité avant de partir. Cette équipe était auparavant dirigée conjointement par l'ancien scientifique en chef d'OpenAI, Ilya Sutskever. chercheur Jan Leike .

Dans le même temps, Johnson a également dirigé le projet OpenAI.GPT Le processus de post-formation d'une série de grands modèles peut être considéré comme un élément très critique dans la construction technologique. Ce qui est encore plus intriguant, c'est qu'après sa démission, comme Jan Leike, il a directement rejoint Anthropic, le principal concurrent d'OpenAI.

De plus, Peter Deng, le chef de produit qui a rejoint OpenAI l'année dernière, a également démissionné. Bien qu'il n'ait pas été co-fondateur, il a démissionné moins d'un an après son arrivée, ce qui fera également spéculer le monde extérieur sur ce qui est arrivé à l'OpenAI. L'équipe OpenAI.

La deuxième vague de mobilité des talents d’OpenAI

Il ne reste que 3 fondateurs et 1 est en congé de longue durée.

Après ce changement, parmi les 11 co-fondateurs originaux d'OpenAI, seuls Sam Altman, Wojciech Zaremba et Greg Brockman (qui a également annoncé un congé à long terme) restent dans OpenAI. Les autres membres fondateurs ont tous quitté l'équipe.

Cinq de ces 11 fondateurs existaient entre 2017 et 2018, lorsque Musk a annoncé son désinvestissement, déclenchant une vague de troubles au sein d'OpenAI. Dont Trevor Blackwell, Vicki Cheung, Durk Kingma, Pamela Vagata.Andrej Karpathy, un autre membre fondateur, a également été débauché directement par Musk pour devenir le directeur général de Tesla.Pilote automatique principal. Il n'est revenu à OpenAI qu'en février 2023.

Les six membres fondateurs restants ont tous démissionné cette année après la bataille judiciaire d’OpenAI à la fin de l’année dernière. Y compris l'ancien scientifique en chef d'OpenAI Ilya Sutskever, ledit John Schulman et le scientifique Andrej Karpathy qui n'est revenu que pour un an. On peut dire que l’année 2024 sera le plus grand changement de direction qu’OpenAI ait connu depuis la crise d’Elon Musk.

Où sont passés tous les employés qui ont quitté OpenAI ?

À en juger par le sort des employés qui quittent OpenAI, ils empruntent généralement deux chemins. La première consiste à rejoindre des sociétés rivales, essentiellement Deepmind et Anthropic. La seconde est de créer sa propre entreprise. La grande majorité des salariés démissionnaires évoqués ci-dessus (66%) ont choisi de rejoindre de nouveaux projets entrepreneuriaux.

Ce choix a en fait donné naissance à ce qu’on appelle la « mafia OpenAI ». Selon les médias, près de 30 employés avaient quitté OpenAI avant cette année et fondé leur propre entreprise d'IA. Plusieurs d’entre eux ont atteint le niveau licorne. Le plus connu d'entre eux est Anthropic, fondé par Dario Amodei, devenu le concurrent le plus puissant d'OpenAI.

Quel est l’impact de cette démission ?

Selon le schéma d'architecture précédemment divulgué par Information, les trois personnes qui subissent cette fois des changements de personnel sont toutes des gestionnaires principaux d'OpenAI. D'un point de vue fonctionnel, Brockman et Shulman relèvent tous deux de Mira Murati, CTO d'OpenAI (Greg devrait également être responsable du travail supplémentaire en tant que président et membre du conseil d'administration), et Peter Deng, qui est le vice-président des produits utilisateurs, devrait être à la tête de le troisième niveau de reporting. Le travail dont ils sont responsables appartient essentiellement au travail technique de base d’OpenAI. L'impact de ces changements ne peut pas être considéré comme insignifiant. Il est probable que trois des 40 principaux cadres supérieurs ont été remplacés.

Mais en fait, en regardant le contenu spécifique des trois personnes responsables, cela n’est peut-être pas vraiment lié au noyau de développement du nouveau modèle d’OpenAI pour le moment. Selon le précédent blog officiel d’OpenAI, Greg Brockman sera président à partir de 2022 et, à cette époque, il se concentrait sur la formation du système d’IA phare d’OpenAI. Mais en fait, depuis GPT-4, l’actuel scientifique en chef Jakub Pachocki a dirigé le développement de GPT-4 et d’OpenAI Five.

Shulman était autrefois responsable de la partie post-formation d'OpenAI et a proposé l'algorithme d'optimisation de la politique proximale (PPO). Il s'agit d'un ensemble d'algorithmes stratégiques de base pour améliorer les grands modèles de langage, et c'est également l'un des principaux algorithmes utilisés par OpenAI jusqu'à présent. Cependant, après la démission d'Illya, il a été nommé responsable du Super Alignement, et son impact actuel sur le projet GPT-5 est estimé très limité.

Le vice-président responsable des produits, Peter Deng, est responsable des produits des clients et a une relation globale limitée avec le travail de développement principal de GPT-5.

On peut essentiellement confirmer que le vice-président de la recherche Bob MacGrew et le scientifique en chef Jakub Pachocku sont les personnalités les plus critiques dans le développement du nouveau modèle.

En outre, les principales personnalités d’OpenAI susceptibles de promouvoir l’innovation technologique ne sont plus les cadres supérieurs, mais certains chercheurs de terrain. Par exemple, Emad, ancien PDG de Stability AI, a déclaré sur X que seule la démission d'Alec Radford peut déterminer l'effondrement d'OpenAI.

Nous pouvons également voir son poids en recherchant le nombre de citations dans les articles de Scholar sur Google.

Par conséquent, l'impact de cette démission sur les progrès de la recherche d'OpenAI pourrait être limité. Le principal impact concerne le moral interne de l'équipe et la confiance externe dans l'entreprise.

Après tout, un patron qui ne peut même pas garder ses meilleurs amis et qui a éliminé toutes les entreprises de Lianchuang aura du mal à avoir confiance en ses capacités de gestion.

Suppositions clés en conflit

Mots-clés à laisser : Super Alignement

Le projet Super Alignment d'OpenAI a été créé en juin 2023. Il prévoit d'investir 20 % de la puissance de calcul au cours des quatre prochaines années pour construire un chercheur d'alignement automatique équivalent au niveau humain utilisant la supervision de l'IA pour résoudre le problème des systèmes intelligents et des humains de plus haut niveau. Problèmes de cohérence des objectifs. L'équipe « Super Alignment » est dirigée conjointement par le co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever, et le chercheur Jan Leike.

On peut dire qu'Ilya Sutskever est l'une des figures majeures d'OpenAI. Lorsque l'article « L'attention est tout ce dont vous avez besoin » a été publié en 2017 et a attiré une grande attention dans l'industrie, Ilya l'a pleinement soutenu.TransformateurDirection de l'architecture, puis pilotage du développement des modèles des séries GPT et Vincentienne DALL-E.

Ilya était également un étudiant de Geoffrey Hinton, connu comme le « père du Deep Learning ». Il a complété ses études de premier cycle et des cycles supérieurs sous la direction de Hinton et a finalement obtenu un doctorat en informatique. Hinton a également averti que le développement rapide de l’intelligence artificielle pourrait entraîner des menaces au-delà de l’intelligence humaine.

Fin 2023, l'incident connu sous le nom de « OpenAI Palace Fight » a finalement pris fin temporairement avec le départ d'Ilya et le retour de Sam Altman. Cependant, la polémique continue à ce jour. La plus grande spéculation du monde extérieur est qu’il existe des différences internes au sein d’OpenAI, et un énorme conflit de croyances est encore plus grave.

À en juger par les antécédents et le comportement de Sam Altman, l'industrie a tendance à le considérer comme un partisan de l'e/acc (accélérationnisme efficace), estimant que le développement de la technologie est essentiellement bénéfique à l'humanité et que l'humanité devrait investir autant de ressources que possible. Accélérer l'innovation pour changer la structure sociale existante. Correspondant à ce qu'OpenAI a fait, cela peut se résumer simplement et grossièrement à la concentration des ressources financières et des ressources pour percer l'AGI à toute vitesse.

Le super alignement et l’accélération efficace ne sont, par essence, plus une bataille de routes, mais un énorme conflit de croyances intérieures. En mai 2024, Jan Leike a également annoncé sa démission, en postant sur les réseaux sociaux Un travail dangereux, mais au cours des dernières années, la sécurité de l'IA a cédé la place à des produits brillants. a finalement atteint le point de non-retour.

Avec la démission de Jan Leike, l'équipe originale de Super Alignment a pratiquement pris fin. Les membres restants ont été intégrés dans l'équipe de sécurité dirigée par Johnson Schulman. Aujourd'hui encore, Johnson Schulman a également annoncé son départ.

Ce qui est très intriguant, c'est que Jan Leike et Johnson Schulman se sont tous deux tournés vers Anthropic, dont on peut dire qu'il a les mêmes racines qu'OpenAI. Le fondateur d'Anthropic est également Dario Amodei, un ancien employé principal d'OpenAI. On dit que lorsque Dario est parti dès 2020, c'était à cause de problèmes de sécurité de l'IA.

Dario a lancé Constitutional AI chez Antropic, une méthode de formation de modèles d'IA qui guide le comportement des systèmes d'IA à travers un ensemble clair de principes comportementaux, plutôt que de s'appuyer sur les commentaires humains pour évaluer les réponses. Le cœur de cette approche est d'utiliser le système d'IA lui-même pour aider à superviser d'autres systèmes d'IA afin d'améliorer l'innocuité et l'utilité de l'IA tout en élargissant l'échelle de supervision.

Dario a souligné que l'idée principale de l'IA constitutionnelle est d'utiliser les systèmes d'IA pour aider à superviser d'autres systèmes d'IA, élargissant ainsi l'échelle de supervision et améliorant l'innocuité et l'utilité de l'IA. Le processus de l’IA constitutionnelle implique des étapes telles que l’autocritique, la correction, l’apprentissage supervisé et l’apprentissage par renforcement, ainsi qu’une série de principes constitutionnels basés sur le langage naturel pour contraindre le comportement de l’IA.

Est-ce très similaire aux pensées super-alignées d’Ilya ?

Il semble que depuis lors, OpenAI et Anthropic soient devenus des représentants différents des deux convictions de l’accélérationnisme efficace et du super-alignement dans le domaine de l’IA.

Auparavant, certaines personnes avaient souligné avec inquiétude que le départ d'Ilya pourrait être dû au fait qu'il avait constaté que certaines technologies d'OpenAI étaient hors de contrôle. Si tel est réellement le cas, Anthropic, qui marche sur une autre route, pourrait devenir un avantage pour contenir cette bête géante. . bras.

Après tout, les modèles de la série Claude d'Anthropic sont infiniment proches des grands modèles de la série GPT d'OpenAI en termes de capacités.

Un autre type de conflit : le « tyran » Sam Altman et des structures de gouvernance idéalistes

Ce sur quoi une autre figure centrale, Sam Altman, fondateur d’OpenAI, doit insister est peut-être plus difficile que la croyance en une accélération efficace.

Tout d’abord, l’archéologie OpenAI, fondée le 11 décembre 2015. Dès le début, elle était pleine d'idéalisme et sa vision consistait notamment à promouvoir activement le développement d'une intelligence artificielle générale (AGI) qui profite à toute l'humanité, au bénéfice de tous, et à lutter contre le monopole de l'intelligence artificielle par de grandes entreprises ou quelques personnes.

Dans le cadre de cette vision, des fonds ont été collectés auprès de grands noms, dont Elon Musk, et les bailleurs de fonds semblent engager des milliards de dollars dans l'organisation à mesure qu'elle se développe. À l'heure actuelle, OpenAI n'a besoin que de se soucier de la manière d'atteindre ses idéaux. vous soucier des nécessités quotidiennes.

Cependant, après la parution du document Attention is All you need, désormais mondialement connu, OpenAI a emprunté la voie de la loi de mise à l'échelle, qui nécessite une énorme consommation de ressources.

En 2019, afin d'obtenir un financement, OpenAI s'est tournée vers une structure hybride. Sous la société mère OpenAI Inc., une filiale OpenAI Global a été créée, dans laquelle l'investissement de Microsoft a été échangé contre jusqu'à 49 % des actions d'OpenAI Global.

C'est-à-dire qu'OpenAI conserve sa société mère d'origine à but non lucratif, mais sous cette société mère, une filiale à but lucratif appelée OpenAI Global est créée. Cette filiale peut absorber l'argent des investisseurs en capital-risque et les actions des salariés, ce qui lui permet de lever des fonds comme une entreprise ordinaire.

Cependant, OpenAI LP n'est pas complètement devenue une entreprise ordinaire. Elle possède également une particularité, à savoir les « bénéfices capturés ». Cela signifie que même si cela peut être rentable, il y a une limite. Si l'argent gagné dépasse cette limite, l'excédent sera restitué à la société mère à but non lucratif. Cela garantit qu'OpenAI LP ne s'écarte pas de son objectif initial de bénéficier à toute l'humanité.

Cependant, une structure apparemment innovante présente un risque potentiel, à savoir que le conseil d'administration de l'organisation à but non lucratif OpenAI LP contrôle l'organisation à but lucratif Open AI Global. La mission de l'organisation à but non lucratif est le puits. -l'être de toute l'humanité, et non les droits et intérêts des actionnaires. Microsoft a obtenu 49 % des actions, mais n'avait aucun siège au conseil d'administration ni aucun mot à dire.

Ce qui est encore plus dramatique, c'est qu'après l'exclusion d'Altman du conseil d'administration, 98 % des salariés ont menacé de démissionner et ont signé une lettre ouverte exigeant sa réintégration. Altman a déclaré dans une interview ultérieure: "Cet incident pourrait détruire les capitaux propres de chacun, et pour de nombreux employés, cela représente la totalité ou la majeure partie de leur richesse."

La « bousculade » des employés ordinaires pour les intérêts les plus laïques a vaincu les grands idéaux de sécurité de l’AGI des principaux fondateurs.

En plus de la structure de gouvernance d'OpenAI, un certain style de gestion « controversé » de Sam Altman a également été révélé en ligne. Par exemple, Altman a une méthode qu'il appelle la gestion « dynamique », qui consiste à faire les choses sans avertissement, a mis quelqu'un en intérim. rôle de leadership et allouer des ressources. Par exemple, Altman a soudainement promu un autre chercheur en intelligence artificielle, Jakub Pachocki, au poste de directeur de recherche. Ilya Sutskever, alors directeur de recherche, a exprimé son inquiétude et a promis des ressources et des responsabilités à deux dirigeants différents en même temps, bien que l'intention initiale de Sam soit de déclencher une concurrence. , Mais Ilya estime que cela provoquera davantage de conflits.

De plus, le style de Sam Altman en compétition est également plus loup et direct, comme dansGPT-4oAvant sa mise en ligne, il a été révélé qu'il n'avait pas subi suffisamment de tests de sécurité. Des rumeurs disent que le moment a été choisi pour offrir une barrière plus efficace au concurrent Google.

OpenAI est le déclencheur de cette vague d’IA générative et a toujours été considéré comme le leader. Cependant, la situation actuelle devient de plus en plus difficile : le monde entier attend avec impatience les nombreuses avancées qu'OpenAI a entre les mains, mais en même temps, il attend également avec impatience de savoir si ces avancées pourront être transformées en un véritable produit. cela peut générer suffisamment de bénéfices - après tout, OpenAI La force de ses produits a toujours été critiquée par l'industrie.

De plus, selon les prévisions des institutions d'investissement, OpenAI devrait continuer à perdre de l'argent cette année et continuer à former des modèles plus puissants. La poursuite du financement est également une question qu'OpenAI doit considérer lorsque sa capacité hématopoïétique n'est pas suffisante.

L'environnement concurrentiel devient de plus en plus féroce. Non seulement les géants l'entourent, mais Microsoft, le plus grand actionnaire, a répertorié OpenAI comme concurrent dans son dernier rapport financier. Il doit également faire face au tout aussi puissant Antropic.

Après le retour de Sam Altman, il pourrait devenir « seul », et le monde extérieur s'inquiétera également de savoir si ce conseil d'administration, qui semble être devenu une « coquille vide », pourra continuer à maintenir OpenAI à la tête.

Cependant, un consultant dans le domaine du capital-risque nous a exprimé aujourd'hui les opinions suivantes : « La direction originale d'OpenAI était un groupe d'universitaires dotés d'un parcours, d'une intégrité et d'idéaux magnifiques ; cependant, peut-être que les entreprises technologiques peuvent vraiment se développer, mais elles ont besoin d'un « tyran ». " Sans un « tyran » arbitraire, la prise de décision peut prendre beaucoup de temps. »

OpenAI sous la houlette du « tyran » Altman, je me demande où ça va finalement aller ?

Le secret de l'essor d'OpenAI : Ultraman est avide de pouvoir depuis qu'il est enfant et compte sur ses relations pour accumuler une énorme influence