notizia

openai e anthropic concordano di lasciare che il governo degli stati uniti valuti la sicurezza prima di lanciare un nuovo modello

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house ha riferito il 30 agosto che le società di intelligenza artificiale openai e anthropic hanno accettato di consentire al governo degli stati uniti di accedere a nuovi e importanti modelli di intelligenza artificiale prima che queste società rilascino tali modelli per contribuire a migliorare la loro sicurezza.


fonte immagine pexels

lo ha annunciato giovedì l’istituto americano per la sicurezza aile due società hanno firmato un protocollo d'intesa con l'istituto, impegnandosi a fornire l'accesso prima e dopo il rilascio pubblico del modello. il governo degli stati uniti ha affermato che la mossa li aiuterà a valutare congiuntamente i rischi per la sicurezza e a mitigare i potenziali problemi. l’agenzia ha affermato che lavorerà con la sua controparte britannica per fornire feedback sui miglioramenti della sicurezza.

jason kwon, chief strategy officer di openai, ha espresso sostegno alla cooperazione:

“sosteniamo fortemente la missione dell’american ai safety institute e non vediamo l’ora di lavorare insieme per sviluppare le migliori pratiche e standard per la sicurezza dei modelli di intelligenza artificiale. riteniamo che l’istituto svolga un ruolo chiave nel garantire la leadership degli stati uniti nello sviluppo responsabile dell’ia ci auguriamo che, attraverso la cooperazione con l’istituto, possiamo fornire un quadro da cui il mondo possa imparare”.

anthropic ha inoltre affermato che è molto importante stabilire la capacità di testare efficacemente i modelli di intelligenza artificiale. jack clark, co-fondatore e responsabile della politica dell'azienda, ha dichiarato:

"garantire che l'intelligenza artificiale sia sicura e affidabile è fondamentale affinché questa tecnologia abbia un impatto positivo. attraverso tali test e cooperazione, i rischi portati dall'intelligenza artificiale possono essere scoperti e ridotti meglio e si può promuovere lo sviluppo responsabile dell'intelligenza artificiale. orgoglioso di far parte di questo importante lavoro e spero di stabilire nuovi standard per la sicurezza e l’affidabilità dell’ia”.

la condivisione dell’accesso ai modelli di intelligenza artificiale è un passo importante poiché i legislatori federali e statali valutano come porre limiti alla tecnologia senza soffocare l’innovazione. it house ha osservato che mercoledì i legislatori della california hanno approvato il frontier artificial intelligence model security innovation act (sb 1047), che richiede alle società di intelligenza artificiale in california di adottare misure di sicurezza specifiche prima di addestrare modelli di base avanzati. ciò ha suscitato critiche da parte di società di intelligenza artificiale tra cui openai e anthropic, che hanno avvertito che potrebbe danneggiare gli sviluppatori open source più piccoli, anche se il disegno di legge è stato da allora rivisto ed è ancora in attesa della firma del governatore della california gavin tom newsom.

nel frattempo, la casa bianca ha cercato di ottenere impegni volontari da parte delle principali aziende sulle misure di sicurezza dell’ia. diverse aziende leader nel settore dell’intelligenza artificiale hanno assunto impegni non vincolanti a investire nella ricerca sulla sicurezza informatica e sulla discriminazione e a lavorare sul watermarking dei contenuti generati dall’intelligenza artificiale.

elizabeth kelly, direttrice del national institute for artificial intelligence safety, ha affermato in una nota che questi nuovi accordi sono solo "l'inizio, ma rappresentano un'importante pietra miliare nei nostri sforzi per aiutare a gestire in modo responsabile il futuro dell'intelligenza artificiale".