2024-08-30
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
it house a rapporté le 30 août que les sociétés d'intelligence artificielle openai et anthropic avaient convenu d'autoriser le gouvernement américain à accéder aux nouveaux modèles d'intelligence artificielle majeurs avant que ces sociétés ne publient ces modèles pour contribuer à améliorer leur sécurité.
source de l'imagepexels
l'institut américain de sécurité de l'ia a annoncé jeudi que celes deux sociétés ont signé un protocole d'accord avec l'institut, s'engageant à fournir un accès avant et après la sortie publique du modèle.. le gouvernement américain a déclaré que cette décision les aiderait à évaluer conjointement les risques de sécurité et à atténuer les problèmes potentiels. l'agence a déclaré qu'elle travaillerait avec son homologue britannique pour fournir des commentaires sur les améliorations en matière de sécurité.
jason kwon, directeur de la stratégie d'openai, a exprimé son soutien à la coopération :
« nous soutenons fermement la mission de l’american ai safety institute et sommes impatients de travailler ensemble pour développer les meilleures pratiques et normes pour la sécurité des modèles d’ia. nous pensons que l’institut joue un rôle clé pour assurer le leadership des états-unis dans le développement responsable de l’ia. nous espérons que grâce à la coopération avec l’institut, nous pourrons fournir un cadre dont le monde pourra tirer des leçons.
anthropic a également déclaré qu'il est très important d'établir la capacité de tester efficacement les modèles d'ia. jack clark, co-fondateur et responsable des politiques de l'entreprise, a déclaré :
« il est crucial de garantir que l'ia soit sûre et fiable pour que cette technologie ait un impact positif. grâce à de tels tests et à une telle coopération, les risques liés à l'ia peuvent être mieux découverts et réduits, et le développement responsable de l'ia peut être encouragé. je suis fier de faire partie de ce travail important et j’espère établir de nouvelles normes pour la sécurité et la fiabilité de l’ia.
le partage de l’accès aux modèles d’intelligence artificielle est une étape importante alors que les législateurs fédéraux et étatiques réfléchissent à la manière d’imposer des limites à la technologie sans étouffer l’innovation. it house a noté que mercredi, les législateurs californiens ont adopté la frontier artificial intelligence model security innovation act (sb 1047), qui oblige les sociétés d'intelligence artificielle de californie à prendre des mesures de sécurité spécifiques avant de former des modèles de base avancés. cela a suscité l'opposition des sociétés d'intelligence artificielle, notamment openai et anthropic, qui ont averti que cela pourrait nuire aux petits développeurs open source, bien que le projet de loi ait depuis été révisé et attend toujours l'approbation de la signature du gouverneur de californie, gavin newsom.
pendant ce temps, la maison blanche tente d’obtenir des engagements volontaires de la part des grandes entreprises sur les mesures de sécurité de l’ia. plusieurs grandes sociétés d’ia ont pris des engagements non contraignants à investir dans la recherche sur la cybersécurité et la discrimination et à travailler sur le filigrane du contenu généré par l’ia.
elizabeth kelly, directrice de l'institut national pour la sécurité de l'intelligence artificielle, a déclaré dans un communiqué que ces nouveaux accords ne sont qu'un « début, mais ils constituent une étape importante dans nos efforts pour aider à gérer de manière responsable l'avenir de l'intelligence artificielle ».