notizia

OpenAI afferma che la controversa legge sull’intelligenza artificiale della California danneggerà l’innovazione

2024-08-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report, 22 agosto, secondo Bloomberg News, OpenAI si oppone a un disegno di legge della California che impone nuovi requisiti di sicurezza alle società di intelligenza artificiale, unendosi ai leader tecnologici e ai politici che si sono recentemente opposti a questa controversa legislazione.

La startup con sede a San Francisco ha affermato che il disegno di legge danneggerebbe l’innovazione nel settore dell’intelligenza artificiale e ha sostenuto che la questione dovrebbe essere stabilita dal governo federale, non dagli stati.

La lettera ha anche sollevato preoccupazioni sul fatto che il disegno di legge, se approvato, potrebbe avere impatti ampi e significativi sulla competitività degli Stati Uniti nel campo dell’intelligenza artificiale e della sicurezza nazionale.

L'SB 1047, proposto da Wiener, mira a creare quelli che il suo ufficio chiama standard di sicurezza basati sul buon senso per le aziende che producono grandi modelli di intelligenza artificiale che superano determinate soglie di dimensioni e costi.

Il disegno di legge, approvato dal Senato dello stato a maggio, richiederebbe alle aziende di intelligenza artificiale di adottare misure per evitare che i loro modelli causino gravi danni, come facilitare lo sviluppo di armi biologiche che potrebbero causare vittime diffuse o causare danni economici per oltre 500 milioni di dollari.

Secondo il disegno di legge, le aziende sono tenute a garantire che i sistemi di intelligenza artificiale possano essere chiusi, a prestare ragionevole attenzione per garantire che i modelli di intelligenza artificiale non causino disastri e a divulgare dichiarazioni di conformità al procuratore generale della California. Se le imprese non rispettano questi requisiti, potrebbero essere denunciate e incorrere in sanzioni civili.

Il disegno di legge ha incontrato una forte opposizione da parte di molte grandi aziende tecnologiche, startup e venture capitalist, che hanno affermato che era eccessivo per una tecnologia ancora agli inizi e potrebbe soffocare l’innovazione tecnologica nello stato.

Alcuni critici del disegno di legge temono che potrebbe spingere le aziende di intelligenza artificiale fuori dalla California.

OpenAI ha espresso le stesse preoccupazioni in una lettera all’ufficio di Weiner.

Jason Kwon, Chief Strategy Officer di OpenAI, ha scritto nella lettera: “La rivoluzione dell’intelligenza artificiale è appena iniziata e la posizione unica della California come leader globale nel campo dell’intelligenza artificiale sta guidando la vitalità economica dello stato. L’SB 1047 minaccerebbe tale crescita, rallenterebbe il ritmo dell’innovazione e indurrebbe gli ingegneri e gli imprenditori di livello mondiale della California a lasciare lo stato per maggiori opportunità altrove.

Secondo una persona che ha familiarità con i piani immobiliari della società,OpenAI ha sospeso le discussioni sull'espansione del suo ufficio di San Francisco a causa delle preoccupazioni sull'incerto contesto normativo in California, ha detto la persona, richiedendo l'anonimato per discutere le conversazioni interne.

Wiener ha difeso la proposta di legge in una dichiarazione e ha affermato che la lettera di OpenAI non critica alcuna disposizione del disegno di legge.

Ha anche affermato che l’argomento secondo cui i talenti dell’intelligenza artificiale stanno lasciando lo stato è controverso perché la legge si applicherebbe a qualsiasi azienda che opera in California, indipendentemente da dove si trovano i suoi uffici.

Un rappresentante dell'ufficio di Wiener ha osservato che due eminenti esperti di sicurezza nazionale hanno pubblicamente sostenuto il disegno di legge.

"L'SB 1047 è un disegno di legge molto ragionevole che richiede ai grandi laboratori di intelligenza artificiale di fare ciò che hanno promesso di fare, ovvero testare i loro grandi modelli per rischi catastrofici per la sicurezza", ha affermato Wiener. "L'SB 1047 è ben calibrato rispetto a ciò che sappiamo sui prevedibili rischi dell'intelligenza artificiale e merita di essere adottato."

I critici hanno sostenuto che il disegno di legge, che richiederebbe alle aziende di fornire allo Stato informazioni dettagliate sui loro modelli, ostacolerebbe l’innovazione e impedirebbe ai piccoli sviluppatori open source di creare startup per paura di essere denunciati.

La settimana scorsa, nel tentativo di affrontare alcune resistenze, Wiener ha rivisto la legislazione proposta per eliminare la responsabilità penale per le aziende tecnologiche non conformi, aggiungere protezioni per i piccoli sviluppatori di modelli open source ed eliminare la Frontier Model Unit recentemente proposta.

In precedenza, gli sviluppatori potevano essere soggetti a sanzioni per falsa testimonianza se presentavano consapevolmente informazioni false al governo sui loro piani di sicurezza. Il rivale di OpenAI Anthropic, noto per essere più attento alla sicurezza rispetto ai suoi rivali, ha precedentemente affermato che sosterrebbe alcuni degli emendamenti al disegno di legge. Ma anche dopo l’introduzione degli emendamenti, il disegno di legge ha continuato a incontrare l’opposizione, anche da parte dell’ex presidente della Camera Nancy Pelosi, che ha rilasciato una dichiarazione definendo il disegno di legge disinformato.

Anche un gruppo di membri democratici del Congresso si è espresso contro il disegno di legge.

Secondo i documenti statali, OpenAI e altre società del settore tecnologico hanno assunto lobbisti che hanno lavorato al disegno di legge.

OpenAI ha affermato nella lettera di essere stata in contatto con l'ufficio di Wiener in merito al disegno di legge per diversi mesi, ma alla fine non l'ha appoggiata.

“Dobbiamo proteggere i vantaggi dell’intelligenza artificiale americana attraverso una serie di politiche federali, non statali, che forniscano chiarezza e certezza ai laboratori e agli sviluppatori di intelligenza artificiale proteggendo al tempo stesso la sicurezza pubblica”, si legge nella lettera.

OpenAI ritiene che le agenzie federali come l’Ufficio per le politiche scientifiche e tecnologiche della Casa Bianca, il Dipartimento del Commercio e il Consiglio di sicurezza nazionale siano più adatte a gestire i rischi critici legati all’intelligenza artificiale rispetto alle agenzie statali della California.

La società ha affermato di sostenere diverse proposte legislative federali, come il Future of Artificial Intelligence Innovation Act, che fornisce supporto al Congresso per un nuovo Istituto statunitense per la sicurezza dell’intelligenza artificiale.

"Come ho già detto più volte, sono d'accordo che idealmente il Congresso dovrebbe occuparsi di questo problema", ha detto Wiener in una nota. "Tuttavia, il Congresso non lo ha fatto, e dubitiamo che lo faccia. Secondo l'argomentazione di OpenAI sul Congresso, la California non approverà mai la sua legge sulla privacy dei dati e, data la mancanza di azione del Congresso, i californiani non otterranno nulla per i loro dati Protect."

L'SB 1047 sarà votato nella legislatura della California questo mese.

Se approvato, alla fine passerebbe alla scrivania del governatore della California Gavin Newsom.Anche se Newsom non ha detto se porrà il veto al disegno di legge, ha parlato della necessità di promuovere l’innovazione dell’intelligenza artificiale in California riducendo i rischi.