nouvelles

openai et anthropic conviennent de soumettre de nouveaux modèles au gouvernement américain pour évaluation de sécurité avant de les lancer

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

le jeudi 29 août, heure de l'est, selon les médias, les leaders de l'ia openai et anthropic ont convenu de laisser l'ia security research institute du gouvernement américain évaluer les capacités et les avantages possibles des nouveaux modèles d'ia avant de les lancer sur les risques, et de rechercher conjointement des méthodes. pour atténuer les risques potentiels pour la sécurité et garantir que ces technologies d’ia n’auront pas d’impact négatif sur la société.

l’american ai security institute a été créé en 2023 en vertu d’un décret sur l’ia de l’administration biden-harris. la mission de l'institut est de développer des tests, des évaluations et des lignes directrices pour garantir que les technologies d'ia peuvent innover de manière responsable. en outre, dans le cadre d'un accord annoncé jeudi par le national institute of standards and technology (nist) du département américain du commerce, le gouvernement américain travaillera en étroite collaboration avec l'ai security institute du royaume-uni pour fournir des commentaires à ces entreprises d'ia afin de les aider à améliorer leurs pratiques. mesures de sécurité.

elizabeth kelley, directrice de l'american ai security research institute, a déclaré :

"la sécurité est essentielle pour stimuler l'innovation technologique de rupture. ces accords ne sont qu'un début, mais ils sont importants dans la mesure où nous dirigeons le développement futur de l'intelligence artificielle de manière responsable."

jason kwon, directeur de la stratégie d'openai, a exprimé son soutien à la collaboration :

« nous soutenons fermement la mission de l'american ai safety institute et sommes impatients de travailler ensemble pour développer les meilleures pratiques et normes pour la sécurité des modèles d'ia. nous pensons que l'institut joue un rôle clé pour assurer le leadership des états-unis dans le développement responsable du rôle de l'ia. nous espérons que grâce à la coopération avec l’institut, nous pourrons fournir un cadre dont le monde pourra tirer des leçons.

anthropic a également déclaré qu'il est important d'établir la capacité de tester efficacement les modèles d'ia. jack clark, co-fondateur et responsable des politiques de l'entreprise, a déclaré :

"il est crucial de garantir que l'ia soit sûre et fiable pour que cette technologie ait un impact positif. grâce à de tels tests et à une telle coopération, les risques posés par l'ia peuvent être mieux découverts et réduits, et le développement responsable de l'ia peut être encouragé. nous nous engageons à être nous sommes fiers de participer à ce travail important et espérons établir de nouvelles normes en matière de sécurité et de fiabilité de l’ia.

par ailleurs, il convient de noter qu'openai, une société soutenue par microsoft, prépare une nouvelle ronde de financement, visant à lever au moins 1 milliard de dollars, ce qui valoriserait l'entreprise à plus de 100 milliards de dollars. microsoft a investi 13 milliards de dollars dans openai depuis 2019 et détient désormais 49 % des bénéfices de l'entreprise.

la nouvelle du nouveau cycle de financement est arrivée environ un mois après qu'openai a révélé qu'il testait une nouvelle fonctionnalité appelée searchgpt. cette nouvelle fonctionnalité combine la technologie de l'ia et les données de recherche en temps réel. chatgpt pourrait non seulement répondre aux questions à l'avenir, mais également vous aider à trouver des réponses en ligne.