nouvelles

openai admet que le modèle d'inférence o1 augmentera le risque de création d'armes biologiques

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

modèle d'inférence ia o1

ifeng.com technology news le 14 septembre, heure de pékin, openai a admis que son dernier modèle d'inférence d'ia o1 augmente « considérablement » le risque d'utilisation abusive de l'ia pour créer des armes biologiques.

la carte système d'openai est un outil qui explique le fonctionnement de l'ia. l'outil indique que le nouveau modèle pose un risque « modéré » pour les questions liées aux armes chimiques, biologiques, radiologiques et nucléaires (cbrn),il s’agit du risque le plus élevé jamais présenté par openai.openai affirme que cela signifie que le modèle « améliore considérablement » la capacité des experts à créer des armes biologiques.

les experts affirment que si un logiciel d’ia doté de fonctions plus avancées tombe entre les mains d’acteurs dangereux, il entraînera un risque d’abus plus élevé. par exemple, le modèle o1 possède des capacités de raisonnement étape par étape.

mira murati, directrice de la technologie d'openai, a déclaré au financial times que la société était particulièrement « prudente » lors du lancement du modèle o1 au public en raison de ses capacités avancées. elle a ajouté que le modèle a été testé par des « équipes rouges », des experts dans divers domaines scientifiques. mulati a déclaré que le modèle o1 fonctionnait bien mieux que les modèles précédents en termes d'indicateurs de sécurité globaux. (auteur/xiao yu)

pour plus d'informations de première main, veuillez télécharger le client phoenix news et vous abonner à phoenix technology. si vous souhaitez consulter des rapports détaillés, veuillez rechercher « ifeng.com technology » sur wechat.