nouvelles

ultraman quitte le comité de sécurité d'openai : il peut décider de publier ou non de grands modèles

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

whips a rapporté que le 17 septembre, selon des rapports étrangers, le pdg d'openai, sam altman, quittera le comité interne créé par openai en mai, chargé de superviser les décisions clés en matière de sécurité liées aux projets et aux opérations de l'entreprise.

openai a déclaré aujourd'hui dans un article de blog que le comité de sûreté et de sécurité deviendrait un groupe de surveillance indépendant du conseil d'administration présidé par le professeur de l'université carnegie mellon zico kolter, avec des membres dont le pdg de quora adam d'angelo, le général à la retraite de l'armée américaine paul nakasone et l'ancien vice-président de sony. la présidente nicole seligman.

ils sont tous membres actuels du conseil d'administration d'openai.

openai a souligné dans le message que le comité avait mené un examen de sécurité du dernier modèle d'ia o1 d'openai - bien qu'altman soit toujours impliqué.la société a déclaré que le groupe continuerait à recevoir des briefings réguliers de l'équipe de sécurité d'openai et se réserve le droit de retarder la publication jusqu'à ce que les problèmes de sécurité soient résolus.

openai a écrit dans le message : dans le cadre de son travail, le bureau de sécurité continuera de recevoir régulièrement des rapports d'évaluation technique sur les modèles actuels et futurs, ainsi que des rapports de surveillance post-publication en cours. nous construisons un cadre de sécurité complet basé sur nos processus et pratiques de publication de modèles afin de définir clairement les critères de réussite des versions de modèles.

le départ d'altman du comité de sûreté et de sécurité intervient après que cinq sénateurs américains ont soulevé des questions sur les politiques d'openai dans une lettre à altman cet été.

près de la moitié des employés d'openai qui se concentraient autrefois sur les risques à long terme de l'intelligence artificielle ont quitté l'entreprise, et d'anciens chercheurs d'openai ont accusé altman de s'opposer à une véritable réglementation de l'ia en faveur de politiques qui font progresser les objectifs d'entreprise d'openai.

comme on dit, openai a considérablement augmenté ses dépenses de lobbying fédéral, avec un budget de 800 000 dollars pour les six premiers mois de 2024, contre 260 000 dollars pour l'ensemble de l'année dernière.

plus tôt ce printemps, altman a également rejoint le conseil de sûreté et de sécurité de l’intelligence artificielle du département américain de la sécurité intérieure, qui donne des conseils sur le développement et le déploiement de l’intelligence artificielle dans les infrastructures critiques américaines.

même si altman est démis de ses fonctions, rien n'indique que le comité de sécurité prendra des décisions difficiles qui auront un impact sérieux sur la feuille de route commerciale d'openai.

notamment, openai a déclaré en mai qu’elle chercherait à répondre aux critiques valables de son travail par l’intermédiaire d’un comité – les critiques valables dépendent bien sûr de la perception du spectateur.

en mai, helen toner et tasha mccauley, anciennes membres du conseil d'administration d'openai, ont déclaré dans un article paru dans the economist qu'elles pensaient qu'openai n'était pas digne de confiance et ne pouvait pas assumer ses responsabilités.

ils écrivent : sur la base de notre expérience, nous pensons que l'autonomie ne peut pas résister de manière fiable à la pression des incitations au profit.

et les incitations au profit d’openai continuent de croître.

la société aurait levé plus de 6,5 milliards de dollars de financement, ce qui valoriserait openai à plus de 150 milliards de dollars. pour parvenir à cet accord, openai abandonnera probablement sa structure d'entreprise hybride à but non lucratif, conçue pour limiter les rendements des investisseurs, en partie pour garantir qu'openai reste cohérent avec sa mission fondatrice : développer une intelligence artificielle générale qui profite à toute l'humanité.