nouvelles

Les troubles au sein du personnel d'OpenAI se poursuivent : le co-fondateur prend un congé de longue durée, un autre membre fondateur de l'équipe rejoint Anthropi

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Le matin du 6 août, heure de Pékin, OpenAI a accueilli un autre changement de personnel de haut niveau.

John Schulman, membre fondateur de l'équipe fondatrice d'OpenAI, a annoncé sur les plateformes sociales qu'il quitterait OpenAI et rejoindrait une autre startup d'intelligence artificielle, Anthropic. Greg Brockman, président et co-fondateur d'OpenAI, a annoncé sur les réseaux sociaux qu'il prendrait un congé jusqu'à la fin de l'année, sans évoquer un éventuel départ. Il y a également des nouvelles selon lesquelles Peter Deng, chef de produit d’OpenAI, partira également.


Après la précédente démission du co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever, le personnel d'OpenAI reste instable. Il convient de noter que John Schulman et Ilya Sutskvo, qui ont cette fois annoncé leur démission, étaient auparavant responsables du travail d’alignement de l’intelligence artificielle d’OpenAI. OpenAI a déjà dissous l'équipe « Super Intelligence Alignment », et le départ de John Schulman pourrait signifier qu'OpenAI est encore moins disposé à réinvestir dans l'alignement de l'intelligence artificielle.

De plus, bien que Greg Brockman n'ait pas révélé son départ, à une époque où OpenAI se concentre sur la résolution des défis des modèles de nouvelle génération, le congé à long terme du personnel de base peut également refléter les différences internes au sein d'OpenAI.

Bienvenue à nouveau aux changements de personnel

John Schulman a déclaré qu'il avait pris la décision de quitter OpenAI et de rejoindre Anthropic parce qu'il souhaitait se concentrer davantage sur l'alignement de l'intelligence artificielle et revenir au travail technique réel. "Je ne pars pas en raison du manque de soutien d'OpenAI pour la recherche sur l'alignement. Au contraire, l'entreprise s'est engagée à investir dans ce domaine. Ma décision est personnelle et j'espère me concentrer sur la prochaine étape de ma carrière. " John Schulman a déclaré .

John Schulman a déclaré que jusqu'à présent, en dehors des stages, OpenAI est la seule entreprise pour laquelle il a travaillé, et il est très reconnaissant envers le PDG d'OpenAI, Sam Altman, et le co-fondateur Greg Brock Mann qui l'ont recruté dès le début : « Je crois qu'OpenAI et l'équipe pour laquelle je travaille continuera à prospérer sans moi."

Sam Altman a répondu à John Schulman sur les plateformes sociales en disant : « Merci pour tout ce que vous avez fait pour OpenAI. Vous êtes un chercheur talentueux et une personne qui réfléchit profondément aux produits et à la société. Vous êtes un grand ami pour nous tous ».

Le journaliste a remarqué que plus tôt cette année, OpenAI a dissous l'équipe « Super Intelligence Alignment » et a créé un nouveau comité de sécurité le 28 mai, heure locale. John Schulman est l'un des membres du comité de sécurité. À cette époque, OpenAI décrivait son poste de directeur de la science de l'alignement.

Bien que le co-fondateur Greg Brockman ait pris un long congé, il n'a pas révélé son intention de partir. Il a seulement déclaré sur les réseaux sociaux que c'était la première fois qu'il pouvait se détendre depuis la co-fondation d'OpenAI il y a 9 ans. "La mission est loin d'être terminée, nous devons encore construire une AGI (intelligence générale artificielle) sécurisée", a déclaré Greg Brockman.

Peter Deng n'a pas encore évoqué la nouvelle de son départ sur les réseaux sociaux. Peter Deng est un chef de produit bien connu dans la Silicon Valley. Il a été chef de produit pour Google, Instagram, Facebook, Uber et d'autres sociétés. L'année dernière, il a rejoint OpenAI en tant que vice-président des produits de consommation, responsable du produit et du design. et les équipes d'ingénierie derrière ChatGPT. Dans une conversation en podcast plus tôt cette année, lorsqu'il a mentionné les valeurs de la sécurité de l'IA et de ChatGPT, il a déclaré que la situation idéale est que l'intelligence artificielle puisse s'adapter aux valeurs personnelles de chaque utilisateur. normatif, et ce n'est pas le nôtre. Quelles valeurs souhaitez-vous inculquer à ChatGPT, mais comment les valeurs du monde entier peuvent-elles être intégrées d'une manière ou d'une autre dans l'intelligence artificielle ?

Les troubles au sein du personnel d'OpenAI se sont poursuivis depuis que Sam Altman a été licencié et réembauché par le conseil d'administration d'OpenAI l'année dernière. Il y a des rumeurs selon lesquelles le licenciement de Sam Altman est lié à des divergences internes sur des questions de sécurité de l'IA. Sam Altman et Ilya Sutskvo ont des divergences sur les questions de sécurité et de commercialisation de l'IA. Figure clé des conflits internes, Ilya Sutskvo a annoncé en mai dernier qu'il quitterait OpenAI, où il travaillait depuis près de 10 ans.

De plus, Andrej Karpathy, un autre membre fondateur de l'équipe OpenAI, a quitté OpenAI en février de cette année et a annoncé la création d'une société d'enseignement IA+ en juillet. OpenAI compte de moins en moins de membres de l’équipe fondatrice encore employés.

Cela affectera-t-il la progression du développement de GPT ?

OpenAI accueille à nouveau les changements de personnel, ce qui peut signifier que l'accent mis par OpenAI sur la sécurité de l'IA a changé. Reste à savoir si la prochaine génération de GPT sera affectée par les changements de personnel.

Le journaliste a remarqué que, selon la description d'OpenAI, la première tâche du comité de sécurité précédemment créé est d'évaluer et de développer davantage les processus et les garanties d'OpenAI au cours des 90 prochains jours, et de partager des recommandations avec tous les membres du conseil d'administration à la fin des 90 jours. Après examen par le conseil d’administration, Disclose a adopté les recommandations. Selon le calendrier, ces recommandations seront rendues publiques après la fin août et John Schulman a décidé de quitter OpenAI avant cette date.

En termes de sécurité de l’IA, l’introduction d’OpenAI au comité de sécurité nouvellement formé montre que les responsabilités de l’équipe ne sont pas entièrement cohérentes avec celles de l’équipe dissoute « Super Intelligence Alignment ». Avec le départ de John Schulman, directeur de la science de l'alignement, cela pourrait signifier qu'OpenAI accorde moins d'attention à l'alignement de l'intelligence artificielle.

« Alignement » signifie exiger que les objectifs du système d'IA soient cohérents avec les valeurs et les intérêts humains. Les responsabilités initiales de l'équipe « Super Intelligence Alignment » comprenaient la recherche de solutions techniques pour prévenir les anomalies dans le système d'IA. Ilya Sutskvo a mentionné dans des interviews que ChatGPT était peut-être conscient et que le monde devait prendre conscience de la véritable puissance de la technologie que son entreprise et d'autres créent. Altman ne voit pas les choses de la même manière, répondant récemment que « [l'ancien conseil d'administration] avait des opinions sur moi et sur ce que nous faisions, même si j'étais très fortement en désaccord avec leurs idées. La question de l'alignement de l'IA n'est pas encore claire. . On dit que le problème est complètement résolu, mais actuellement, l'effet de laisser le système d'intelligence artificielle apprendre à agir selon un ensemble de valeurs est meilleur que ce que j'imaginais.

Anthropic, que rejoindra John Schulman, est considéré comme le principal concurrent d’OpenAI. Anthropic, une société fondée par d'anciens dirigeants et employés de recherche d'OpenAI, possède la série Claude de grands modèles. En juin de cette année, Anthropic a publié le dernier modèle Claude 3.5 Sonnet, qui offre de meilleurs résultats que GPT-4o en termes de raisonnement de niveau universitaire (GPQA), de capacité de codage (HumanEval) et de raisonnement textuel (DROP).

À en juger par les progrès de la recherche et du développement GPT de nouvelle génération, OpenAI semble avoir rencontré quelques difficultés. En juillet de cette année, Sam Altman a déclaré qu'il faudrait un certain temps pour développer la technologie liée au GPT-5, qui en est encore à ses débuts et qu'il existe des problèmes de données et d'algorithmes.

Avec le départ de John Schulman pour rejoindre son rival Anthropic et la prise de congé de Greg Brockman, il reste à voir si le départ de personnalités clés aura un impact sur les progrès de la recherche et du développement d'OpenAI.

Il convient de noter qu’il existe d’autres conflits entre les cofondateurs d’OpenAI. Moins de deux mois après avoir retiré le procès, le PDG de Tesla, Musk, cofondateur d'OpenAI, a récemment poursuivi Sam Altman et Greg Brockman devant un tribunal américain, accusant le personnel concerné de faire passer les intérêts commerciaux avant les leurs et de violer les principes fondateurs de l'entreprise. contracter. L’acte d’accusation affirme que Sam Altman et d’autres ont délibérément attiré les faveurs de Musk et l’ont trompé pour co-fonder la société à but non lucratif OpenAI, mais ont ensuite utilisé divers moyens pour en faire une entité à but lucratif. OpenAI a répondu aux accusations de Musk il y a quelques mois avec des captures d'écran, affirmant que Musk avait accepté le projet de l'entreprise de lever davantage de fonds, de créer une organisation à but lucratif et d'abandonner progressivement les versions de produits open source.