nouvelles

openai et anthropic aident le gouvernement américain à évaluer de manière préventive les risques des nouveaux modèles

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

en tant que leaders dans le domaine de l’ia, openai et anthropic sont bien conscients de leurs responsabilités dans la promotion du progrès technologique. afin de garantir que le nouveau modèle d'ia n'entraînera pas de risques sociaux, les deux sociétés ont décidé de le soumettre à l'ai security research institute du gouvernement américain pour évaluation avant de lancer le nouveau modèle. cette collaboration vise à garantir que les avancées technologiques servent les intérêts à long terme de la société tout en évitant les impacts négatifs potentiels.

l’ai safety institute a été créé en 2023 à la suite d’un décret de l’administration biden-harris visant à promouvoir l’innovation responsable en matière d’ia. l’institut procédera à une évaluation complète de la sécurité des nouveaux modèles d’ia d’openai et d’anthropic, y compris les capacités du modèle, les risques possibles et les stratégies pour atténuer ces risques. grâce à ce processus, il est garanti que le développement de la technologie de l’ia pourra répondre aux attentes et aux besoins de la société.

les dirigeants d’openai et d’anthropic ont exprimé leur ferme soutien à cette collaboration et ont souligné l’importance de la sécurité dans le développement de l’ia. ils croient qu'en travaillant avec les gouvernements, ils peuvent mieux comprendre l'impact des progrès technologiques sur la société et rechercher conjointement des moyens d'atténuer les risques potentiels pour la sécurité.