notizia

openai ammette che il modello di inferenza o1 aumenterà il rischio di creare armi biologiche

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

modello di inferenza ai o1

ifeng.com technology news, ora di pechino, il 14 settembre, openai ha ammesso che il suo ultimo modello di inferenza ai o1 aumenta "significativamente" il rischio di abuso dell'ia per creare armi biologiche.

la scheda di sistema di openai è uno strumento che spiega come funziona l'intelligenza artificiale. lo strumento afferma che il nuovo modello pone un rischio “moderato” per le questioni relative alle armi chimiche, biologiche, radiologiche e nucleari (cbrn),questo è il rischio più alto mai offerto da openai.openai afferma che ciò significa che il modello “migliora significativamente” la capacità degli esperti di creare armi biologiche.

gli esperti affermano che se un software di intelligenza artificiale con funzioni più avanzate cadesse nelle mani di attori pericolosi, il rischio di abusi aumenterebbe. ad esempio, il modello o1 ha capacità di ragionamento passo passo.

mira murati, chief technology officer di openai, ha dichiarato al financial times che la società è stata particolarmente "cauta" nel lanciare il modello o1 al pubblico a causa delle sue funzionalità avanzate. ha aggiunto che il modello è stato testato dalle cosiddette "squadre rosse", esperti in vari campi scientifici. mulati ha affermato che il modello o1 ha ottenuto risultati molto migliori rispetto ai modelli precedenti sugli indicatori di sicurezza complessivi. (autore/xiao yu)

per ulteriori notizie di prima mano, scarica il client phoenix news e iscriviti a phoenix technology. se desideri visualizzare rapporti approfonditi, cerca "ifeng.com technology" su wechat.