notizia

L’ex ricercatore OpenAI avverte il “vecchio datore di lavoro”: l’intelligenza artificiale non regolamentata causerà danni catastrofici

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House News il 24 agosto, secondo un rapporto di Business Insider Beijing Time di questa mattina, dopo che OpenAI ha espresso pubblicamente la sua opposizione al disegno di legge SB 1047 della California (AI Safety Act), due ex ricercatori di OpenAI si sono fatti avanti per opporsi pubblicamente al suo "vecchio club" ed emettere un avvertimento.

Il California AI Safety Act richiederà alle società di intelligenza artificiale di adottare misure per evitare che i loro modelli causino "danni gravi", come lo sviluppo di armi biologiche che potrebbero causare grandi vittime o causare più di 500 milioni di dollari USA (IT Home Note: attualmente circa 3,566 miliardi yuan) perdite economiche.

Gli ex dipendenti hanno scritto al governatore della California Gavin Newsom e ad altri legislatori che l'opposizione di OpenAI al disegno di legge è stata deludente ma non sorprendente.

Due ricercatori, William Saunders e Daniel Cocotailo, hanno scritto nella lettera: "Noi (in precedenza) abbiamo scelto di unirci a OpenAI perché volevamo garantire che la società stesse sviluppando" sistemi di intelligenza artificiale incredibilmente potenti ". Sicurezza".Ma abbiamo scelto di andarcene perché abbiamo perso la nostra fiducia nello sviluppo di sistemi di intelligenza artificiale in modo sicuro, onesto e responsabile.

La lettera menzionava anche che il CEO di OpenAI Altman aveva sostenuto pubblicamente la regolamentazione dell'intelligenza artificiale molte volte, ma quando furono pronte per essere introdotte misure normative effettive, espressero opposizione. “Lo sviluppo di modelli di intelligenza artificiale all’avanguardia senza adeguate precauzioni di sicurezza comporta un rischio prevedibile di danni catastrofici per il pubblico”.