nouvelles

Altman accusé d'être malhonnête à propos du travail de sécurité d'OpenAI

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Rapport Whip Bull, 3 août, selon des rapports étrangers, après qu'un lanceur d'alerte a allégué à la Securities and Exchange Commission (SEC) des États-Unis que l'accord de confidentialité de la société d'intelligence artificielle OpenAI empêchait illégalement les employés de divulguer des problèmes de sécurité majeurs aux législateurs, OpenAI fait face à une pression croissante. La pression sera plus forte pour prouver qu’elle ne cache pas les risques liés à l’IA.

Dans une lettre adressée hier à OpenAI, le sénateur Chuck Grassley (R-Iowa) a demandé des preuves que le fait qu'OpenAI n'exige plus de signatures pourrait empêcher ses employés de soumettre des demandes aux régulateurs gouvernementaux pour protéger la divulgation.

Plus précisément, Grassley a demandé à OpenAI de fournir les accords actuels d'emploi, d'indemnités de départ, de non-dénigrement et de confidentialité pour garantir au Congrès que les contrats n'empêchent pas la divulgation.

Grassley a déclaré que cela est essentiel afin que nous puissions compter sur les lanceurs d’alerte qui dénoncent les menaces émergentes pour aider à développer des politiques d’IA efficaces qui protègent contre les risques existants liés à l’IA découlant des progrès technologiques.

La lettre de Grassley indiquait qu'il avait apparemment demandé ces enregistrements à deux reprises à OpenAI, mais qu'il n'avait reçu aucune réponse.

La porte-parole de Grassley, Clare Slattery, a déclaré au Washington Post que jusqu'à présent, OpenAI n'avait pas répondu à sa dernière demande de documents.

"Il ne suffit pas de dire que vous avez fait une mise à jour", a déclaré Grassley dans une déclaration fournie à Ars. "Les faits sont plus éloquents que les mots. Altman doit fournir des documents et répondre à ma demande de surveillance afin que le Congrès puisse évaluer avec précision si OpenAI protège adéquatement ses employés et ses utilisateurs."

En plus de demander récemment à OpenAI de mettre à jour son accord d'employé, Grassley a également exhorté OpenAI à être plus transparent sur le nombre total de demandes d'employés sollicitant des divulgations fédérales depuis 2023.

Les sénateurs voulaient savoir quelles informations les employés souhaitaient divulguer aux responsables et si OpenAI approuvait réellement leurs demandes.

De même, Grassley a demandé à OpenAI de confirmer combien d’enquêtes SEC elle a ouvertes depuis 2023.

Pris ensemble, les documents révéleront s'il est toujours interdit aux employés d'OpenAI de faire des divulgations fédérales, quels types de divulgations OpenAI refuse et dans quelle mesure la SEC surveille OpenAI pour cacher les risques de sécurité.

Grassley a écrit dans la lettre : OpenAI doit garantir que ses employés peuvent fournir des divulgations protégées sans restrictions illégales.

Il a demandé à OpenAI de répondre d'ici le 15 août afin que le Congrès puisse exercer une surveillance objective et indépendante des protocoles de sécurité et des accords de confidentialité d'OpenAI.

OpenAI n'a pas immédiatement répondu à la demande de commentaires d'Ars.

Sur .

Il a également confirmé qu'OpenAI souhaite que les employés actuels et anciens se sentent à l'aise pour faire part de leurs préoccupations.

"C'est essentiel pour toute entreprise, mais particulièrement pour nous, où il s'agit d'un élément important de notre programme de sécurité", a écrit Altman. En mai, nous avons supprimé une disposition de non-dénigrement pour les employés actuels et anciens, ainsi qu'une disposition qui donnait à OpenAI le droit d'annuler les capitaux propres acquis (même s'ils n'ont jamais été utilisés). Nous avons travaillé dur pour corriger cela.

En juillet, le lanceur d'alerte a déclaré à la Securities and Exchange Commission qu'OpenAI devrait être tenu de fournir non seulement les contrats d'employés en vigueur, mais également tous les contrats contenant des accords de confidentialité afin de garantir qu'OpenAI n'a pas dissimulé les pratiques historiques ou actuelles de dissimulation des risques de sécurité de l'IA. Ils souhaitent que tous les employés actuels et anciens soient informés de tout contrat contenant des accords de confidentialité illégaux et qu'OpenAI soit condamné à une amende pour chaque contrat illégal.

Sam Altman accusé d'avoir dédaigné les problèmes de sécurité de l'IA

Mais les appels à plus de transparence de la part d’OpenAI ne se limitent pas aux législateurs. La veille de la lettre ouverte de Grassley, le PDG d'OpenAI, Sam Altman, a publié une déclaration sur X affirmant qu'OpenAI avait consacré suffisamment de ressources aux efforts de sécurité depuis juillet dernier, mais les vérificateurs de faits de X ont déclaré dans leurs commentaires que la déclaration était trompeuse et a suscité un tollé général.

Altman a écrit : Comme nous l'avons dit en juillet dernier, nous nous sommes engagés à allouer au moins 20 % de nos ressources informatiques aux efforts de sécurité dans l'ensemble de l'entreprise, ce qui a soulevé des inquiétudes dans la communauté que de nombreux lecteurs biaisés de X pensaient que cela fournit plus de contexte.

La note de la communauté note qu'Altman faisait référence à un blog de juillet qui confirmait explicitement qu'OpenAI allouait 20 % des ressources informatiques à son équipe Super Alignment. L'équipe étant désormais dissoute et le scientifique en chef responsable d'Hyper-Alignment ayant quitté l'entreprise, les commentateurs de X affirment que les affirmations d'Altman ont induit le public en erreur sur les ressources informatiques réellement allouées par OpenAI à ses efforts de sécurité désormais vaguement définis.

Certains commentateurs X ont demandé plus de détails sur les efforts de sécurité actuels d'OpenAI. Dans une lettre du 31 juillet en réponse à cinq autres sénateurs concernant les problèmes de sécurité de l'IA, OpenAI a expliqué plus en détail ses efforts en matière de sécurité. La société a également clarifié la déclaration d'Altman selon laquelle X l'avait signalé comme nécessitant « plus de contexte », en écrivant que les ressources informatiques mentionnées dans le blog ne devaient en aucun cas faire référence uniquement à l'équipe Super Alignment.

OpenAI a déclaré dans une lettre aux sénateurs : Pour faire progresser davantage notre programme de recherche sur la sécurité, nous nous sommes engagés en juillet dernier à allouer au moins 20 % des ressources informatiques à la sécurité de l'IA sur une période de plusieurs années. Cet engagement s'applique toujours aux efforts de sécurité dans l'ensemble de l'entreprise, et pas seulement à une équipe spécifique.

Cela déroute certaines personnes, car le blog d'OpenAI indique clairement qu'OpenAI consacrera 20 % des ressources informatiques que nous avons acquises jusqu'à présent à la résolution du problème de coordination de la superintelligence au cours des quatre prochaines années. À l'époque, OpenAI avait déclaré que son principal pari en matière de recherche fondamentale était son ancienne équipe super-orchestrée, qui "a besoin de ressources informatiques car bien le faire est essentiel pour réaliser notre mission".

Un

OpenAI n'a pas encore répondu au compte meme, mais a précédemment déclaré que les équipes super-alignées sont essentielles à la sécurité de l'IA, car la société a besoin de percées scientifiques et technologiques pour guider et contrôler les systèmes d'IA qui sont plus intelligents que nous.

OpenAI détaille les initiatives de sécurité

Dans la lettre d'OpenAI aux sénateurs, le directeur de la stratégie Jason Kwon a déclaré aux législateurs qu'OpenAI protège contre les risques en travaillant avec des experts externes pour évaluer et équiper nos modèles. Cela comprenait la consultation de plus de 100 experts externes qui ont aidé à évaluer les risques associés à notre dernier modèle, GPT-4o.

Kwon écrit : Les résultats et les mesures d'atténuation de sécurité issus des tests de l'équipe rouge sont accessibles au public dans les cartes système qui accompagnent nos modèles, et OpenAI a publié un article sur « Mesure des risques chimiques, biologiques, radiologiques et nucléaires (CBRN) associés aux systèmes d'intelligence artificielle. ," Recherche qui estime dans quelle mesure différentes professions et industries peuvent être affectées par les modèles linguistiques, évalue l'impact des modèles linguistiques sur les opérations d'influence et explique l'interprétabilité des décisions du système d'intelligence artificielle.

Afin de garantir davantage la sécurité de l'IA, Kwon a déclaré qu'OpenAI procéderait à un déploiement itératif, en publiant d'abord de nouvelles fonctionnalités telles que le modèle vidéo Sora ou le moteur vocal à un groupe limité, puis en les diffusant largement auprès du public.

Kwon a écrit : Cette stratégie nous permet d'obtenir des commentaires de personnes extérieures à OpenAI, de mettre à jour nos garde-fous de sécurité si nécessaire et d'informer le public des fonctionnalités d'IA à venir avant d'ouvrir complètement notre modèle.

Pour les employés développant de nouvelles fonctionnalités ou de nouveaux modèles qui craignent toujours des représailles pour avoir soulevé des problèmes de sécurité, Kwon a déclaré qu'OpenAI avait lancé une hotline d'intégrité en mars. Ce canal permet aux employés de signaler des problèmes de manière anonyme s'ils ne se sentent pas à l'aise de soulever des problèmes via d'autres canaux existants.

Même si OpenAI affirme que les employés sont libres de parler de leurs préoccupations, il est clair que si OpenAI considère certaines informations comme présentant un risque pour la sécurité, elles ne peuvent toujours pas être partagées.

Kwon écrit : OpenAI continue de faire une distinction entre exprimer des inquiétudes et divulguer des secrets commerciaux d'entreprise. Ce dernier (droit de divulgation protégé) reste interdit en vertu des accords de confidentialité conclus avec les employés actuels et anciens. Nous pensons que cette interdiction est particulièrement importante compte tenu de l’impact de notre technologie sur la sécurité nationale des États-Unis.

Étant donné que cette exception permet à OpenAI de refuser certaines divulgations fédérales, Grassley voulait probablement savoir si OpenAI aurait pu refuser indûment des divulgations sur la base de la protection des secrets commerciaux.

La lettre de Grassley indiquait clairement que les sénateurs étaient préoccupés par les risques pour la sécurité des entreprises.