uutiset

openai myöntää, että o1-päätelmämalli lisää riskiä luoda biologisia aseita

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

ai-päätelmämalli o1

ifeng.com technology news syyskuun 14. päivänä pekingin aikaa openai myönsi, että sen uusin tekoälyn johtopäätösmalli o1 lisää "merkittävästi" riskiä, ​​että tekoälyä käytetään väärin biologisten aseiden luomiseen.

openai:n järjestelmäkortti on työkalu, joka selittää kuinka tekoäly toimii. työkalun mukaan uusi malli muodostaa "kohtalaisen" riskin kemiallisiin, biologisiin, säteily- ja ydinaseisiin (cbrn) liittyville ongelmille.tämä on suurin openai:n koskaan antama riski.openai sanoo, että tämä tarkoittaa, että malli "parantaa merkittävästi" asiantuntijoiden kykyä luoda bioaseita.

asiantuntijat sanovat, että jos kehittyneemmillä toiminnoilla varustettu tekoälyohjelmisto joutuu vaarallisten toimijoiden käsiin, se lisää väärinkäytösten riskiä. esimerkiksi o1-mallissa on vaiheittaiset päättelyominaisuudet.

mira murati, openai:n teknologiajohtaja, kertoi financial timesille, että yritys oli erityisen "varovainen" o1-mallin lanseerauksessa yleisölle sen kehittyneiden ominaisuuksien vuoksi. hän lisäsi, että mallia on testannut niin sanotut "punaiset ryhmät" - eri tieteenalojen asiantuntijat. mulati sanoi, että o1-malli suoriutui paljon paremmin kuin aiemmat mallit yleisissä turvallisuusindikaattoreissa. (kirjoittaja / xiao yu)

jos haluat lisää ensikäden uutisia, lataa phoenix news -asiakasohjelma ja tilaa phoenix technology. jos haluat nähdä perusteellisia raportteja, tee haku "ifeng.com technology" wechatissa.