nouvelles

OpenAI, du coup !Le co-fondateur démissionne, le président prend un congé

2024-08-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



Auteur | Kong Haili Xiao Xiao, stagiaire Wang Tian Liu Xin

Editeur : Zhu Yimin Wang Jun

Source de l'image |

"Tremblement de terre" de haut niveau OpenAI !

Les membres de l'équipe principale partent les uns après les autres !L'un des fondateurs a démissionné et le président a pris un congé.

Le 5 août, heure locale,John Schulman, l'un des co-fondateurs d'OpenAI, a annoncé son départ sur les réseaux sociaux et passera à Anthropic, cette dernière est une société fondée par d'anciens chercheurs d'OpenAI et est considérée comme un concurrent sérieux d'OpenAI. Anthropic s'est toujours présenté comme plus soucieux de la sécurité qu'OpenAI.


Au même moment, un autre co-fondateur d'OpenAI,Il a été révélé que le président Greg Brockman prolongeait ses vacances jusqu'à la fin de l'année pour "se détendre et se ressourcer". . Peter Deng, qui a rejoint OpenAI en tant que chef de produit l'année dernière, a également choisi de partir. Il avait précédemment déclaré que le modèle d'OpenAI avait délibérément supprimé ses fonctionnalités les plus puissantes lors de sa sortie pour garantir la sécurité.


Face au départ de John Schulman, le PDG Sam Altman a exprimé sa gratitude dans une réponse sur les réseaux sociaux et a déclaré qu'il "avait développé une grande partie de la stratégie initiale d'OpenAI".


À ce stade, il ne reste que trois des 11 cofondateurs d'OpenAI : le PDG Sam Altman, le chef de l'équipe de génération de langage et de code OpenAI Wojciech Zaremba et le président Greg Brockman, qui est en congé de longue durée.

En fait,Depuis que le PDG d'OpenAI, Sam Altman, a été évincé et réembauché en une semaine en novembre dernier, la direction de l'entreprise a connu de fréquents changements de personnel et a mis du temps à se stabiliser.

En février de cette année, un autre co-fondateur, Andrej Karpathy, a démissionné et a annoncé le mois dernier la création d'une société d'enseignement IA+, Eureka Labs, qui servira de nouveau type d'« école native de l'IA » pour encadrer les étudiants dans leur apprentissage.

En mai, Ilya Sutskever, l'ancien scientifique en chef d'OpenAI, a officiellement annoncé sa démission. La nouvelle société qu'il a annoncée se concentrera sur la poursuite des capacités de l'IA grâce à une ingénierie révolutionnaire et à des percées scientifiques tout en donnant la priorité à la sécurité.

En juillet, OpenAI a transféré un autre chef de la sécurité, Aleksander Madry, à d'autres postes. Récemment, OpenAI a également embauché deux nouveaux dirigeants. Kevin Weil, vétéran des produits Facebook, occupera le poste de directeur des produits nouvellement créé, et l'ancienne PDG de Nextdoor, Sarah Friar, occupera également le poste de directrice financière.

Les initiés de l'industrie estiment qu'en tant que société leader dans le domaine de l'IA, la série de changements de personnel d'OpenAI affectera non seulement les opérations et le développement stratégique de l'entreprise, mais affectera même dans une certaine mesure la configuration industrielle de l'ensemble du secteur de l'intelligence artificielle.

Dans le même temps, OpenAI est confrontée à une concurrence féroce de la part de ses concurrents sur le champ de bataille commercial. Microsoft a conclu une coopération stratégique avec le concurrent d'OpenAI Anthropic, et Meta rendra son puissant modèle gratuit et open source. Et selon les rapports,OpenAI pourrait également connaître d'énormes pertes d'exploitation,À ce stade, des changements fréquents de direction peuvent nuire au moral des employés au sein de l’entreprise.

L'opinion du secteur estime que l'instabilité de la haute direction d'OpenAI peut être liée à des différences dans la prise de décision, l'orientation stratégique ou la planification de carrière personnelle au sein de l'entreprise. Plus d'un cadre supérieur a fait des commentaires sur les réseaux sociaux lors de son changement de démission, dont plus ou moins. moins véhiculé, le "OpenAI se concentre trop sur la commercialisation et ignore la sécurité."

Schulman, qui a démissionné, a écrit dans un article sur les réseaux sociaux : "La direction de l'entreprise s'est engagée à investir dans (la recherche alignée). Ma décision est personnelle et basée sur ce sur quoi je veux me concentrer dans la prochaine étape de ma carrière." He He a également déclaré : « Ce choix est dû au fait que j'espère me concentrer profondément sur la recherche sur l'alignement de l'IA, ouvrir un nouveau chapitre de ma carrière chez Anthropic et revenir au travail technique réel.

Il a été précédemment révélé que la Super Alignment Team avait été dissoute.

En mai de cette année, il a également été révélé qu'OpenAI avait dissous l'équipe Super Alignment, qui se consacrait à « guider et contrôler des systèmes d'intelligence artificielle plus intelligents que nous grâce à des percées scientifiques et technologiques ». Jan Leike, le chef de l'équipe Super Alignment, a également rejoint Anthropic à cette époque.Cependant, OpenAI a ensuite démenti les rumeurs selon lesquelles elle aurait dissous l'équipe de super-alignement et ignoré la sécurité.

FutureSearch, un organisme de recherche sur l'intelligence artificielle (IA), a publié un rapport en juillet de cette année, affirmant qu'il avait collecté toutes les informations financières disponibles sur OpenAI et conclu, grâce à des calculs professionnels, qu'OpenAI comptait environ 9,88 millions d'utilisateurs payants par mois, avec un chiffre d'affaires annuel récurrent atteignant 3,4 dollars. milliard. Cela correspond presque exactement aux revenus annualisés d’OpenAI précédemment divulgués par Altman.

Cependant, en raison du coût énorme de la formation, du développement et de l’exécution des modèles, il faudra un certain temps pour qu’OpenAI devienne rentable. Selon les recherches de FutureSearch et d'autres informations pertinentes, les coûts d'exploitation totaux d'OpenAI cette année pourraient atteindre 8,5 milliards de dollars, dont les coûts d'inférence et de formation sont respectivement de 4 milliards de dollars et 3 milliards de dollars. Si le chiffre d'affaires annuel d'OpenAI s'élève à 3,4 milliards de dollars, son écart de revenus et de dépenses atteint 5 milliards de dollars. En tant que PDG de l'entreprise, Sam Altman a un lourd fardeau sur les épaules, d'une part, il doit maximiser les revenus, et d'autre part, il doit rechercher de nouveaux financements. Les troubles au sein de la direction de l'entreprise ont ajouté quelques incertitudes.

Musk poursuit OpenAI

Le jour même de la démission de John Schulman (le 5 août, heure locale), Elon Musk a relancé le procès contre OpenAI, accusant une fois de plus OpenAI et ses deux fondateurs, Sam Altman et Greg Brockman, d'avoir violé le développement de la technologie d'intelligence artificielle par l'entreprise. mission au profit de l’humanité.

Transcrire des vidéos YouTube pour entraîner l'IA ?Plus d'une centaine de créateurs ont décidé de poursuivre collectivement

Le 2 août, heure locale, un représentant d'une présentatrice YouTube a officiellement soumis un document de recours collectif au tribunal de district américain du district nord de Californie.Il est allégué qu'OpenAI a transcrit des millions de vidéos YouTube sans autorisation pour former de grands modèles. Actuellement, plus de 100 personnes participent au recours collectif.

Au moment de mettre sous presse, OpenAI n’a pas répondu au recours collectif.

L’acte d’accusation indique que les créateurs sont propriétaires des vidéos YouTube et que les actions d’OpenAI ont violé les conditions de la plate-forme YouTube et obtenu des avantages injustes grâce aux pertes des créateurs, obligeant OpenAI à indemniser plus de 5 millions de dollars.

Selon le 21st Century Business Herald,Au cours des six derniers mois, OpenAI a été plongé dans la controverse autour du « vol » de vidéos YouTube.: En avril de cette année, le New York Times a publié un article indiquant qu'OpenAI avait épuisé toutes les données de formation basées sur le texte en 2021 et s'était tourné vers le développement de Whisper, un grand modèle de synthèse vocale, pour transcrire des vidéos YouTube, des podcasts et d'autres données d'image. en texte , puis continuez à optimiser le grand modèle.

Il y a un demi-mois, les médias ont découvert que de nombreuses sociétés d'IA utilisaient un ensemble de données open source appelé Pile dans leurs formations, dont l'un était un sous-ensemble appelé « Sous-titres YouTube ». L'ensemble de données se compose de texte brut, principalement des introductions textuelles dans les vidéos et des sous-titres textuels automatiquement transcrits par YouTube, couvrant 173 500 vidéos YouTube et plus de 4,8 chaînes.

En tant que plus grand site Web de vidéos au monde, YouTube interdit depuis longtemps la capture vidéo et impose même des restrictions strictes sur les téléchargements commerciaux et les téléchargements par lots de vidéos. Le porte-parole de Google, Matt Bryant, a déclaré publiquement que les conditions d'utilisation de Google et le fichier robots.txt (un fichier de page Web qui indique aux robots d'exploration quel contenu ne peut pas être exploré) interdisent clairement l'exploration non autorisée du contenu YouTube. Google prend des « mesures techniques et juridiques » pour empêcher une telle utilisation lorsqu'il existe des raisons juridiques ou techniques claires pour le faire.

Cependant, les dirigeants d'OpenAI ont toujours refusé de répondre directement s'ils utilisaient des vidéos YouTube pour former leurs propres produits d'IA - en particulier pour former Sora. Au début de cette année, Mira Mulati, directrice de la technologie d'OpenAI, a cédé pour la première fois dans une interview, affirmant qu'elle n'était « pas sûre » d'utiliser ou non des vidéos YouTube.

Li Yunkai, associé du cabinet d'avocats Tianyuan, a précédemment analysé avec un journaliste du 21st Century Business Herald :Le différend sur les droits d'auteur des supports de formation ne peut pas être résolu et le problème fondamental est la boîte noire technique. . " Comment pouvons-nous prouver si le grand modèle a pris votre matériel ? Quel type de formation a-t-il suivi ? " Li Yunkai a dit que dans ce cas, la solution qui peut rendre la responsabilité de la plateforme plus légère et plus sûre est en fait de " garder le silence ". , tant que la plateforme ne le dit pas, le créateur ne peut pas le prouver. Pour les titulaires de droits d’auteur, la plus grande difficulté est aussi l’incapacité d’en apporter la preuve.

SFC

Rédacteur en chef de ce numéro Jiang Peipei

21 Lectures recommandées