notizia

Altman accusato di essere disonesto riguardo al lavoro di sicurezza di OpenAI

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report, 3 agosto: Secondo rapporti esteri, OpenAI sta affrontando una pressione crescente dopo che un informatore ha accusato la Securities and Exchange Commission (SEC) degli Stati Uniti dell'accordo di riservatezza della società di intelligenza artificiale OpenAI che impedisce illegalmente ai dipendenti di rivelare importanti problemi di sicurezza ai legislatori ci sarà una maggiore pressione per dimostrare che non nasconde i rischi dell’IA.

In una lettera a OpenAI ieri, il senatore Chuck Grassley (R-Iowa) ha chiesto prove del fatto che il fatto che OpenAI non richieda più le firme potrebbe impedire ai suoi dipendenti di presentare richieste alle autorità di regolamentazione governative per proteggere la divulgazione.

Nello specifico, Grassley ha chiesto a OpenAI di fornire attuali accordi di lavoro, di fine rapporto, di non denigrazione e di riservatezza per garantire al Congresso che i contratti non impediscano la divulgazione.

Grassley ha affermato che questo è fondamentale per poter fare affidamento sugli informatori che denunciano le minacce emergenti per aiutare a sviluppare politiche efficaci sull’IA che proteggano dai rischi esistenti dell’IA derivanti dai progressi tecnologici.

La lettera di Grassley afferma che a quanto pare ha chiesto due volte a OpenAI questi record ma non ha ricevuto risposta.

La portavoce di Grassley, Clare Slattery, ha dichiarato al Washington Post che finora OpenAI non ha risposto alla sua ultima richiesta di documenti.

"Non basta dire che hai fatto un aggiornamento", ha detto Grassley in una dichiarazione fornita all'Ars. "I fatti parlano più delle parole. Altman deve fornire dati e rispondere alla mia richiesta di supervisione in modo che il Congresso possa valutare con precisione se OpenAI sta proteggendo adeguatamente i suoi dipendenti e utenti."

Oltre a chiedere a OpenAI di aggiornare di recente il suo contratto con i dipendenti, Grassley ha anche esortato OpenAI a essere più trasparente sul numero totale di richieste dei dipendenti che richiedono la divulgazione federale a partire dal 2023.

I senatori volevano sapere quali informazioni i dipendenti volessero rivelare ai funzionari e se OpenAI avesse effettivamente approvato le loro richieste.

Allo stesso modo, Grassley ha chiesto a OpenAI di confermare quante indagini della SEC ha aperto dal 2023.

Nel loro insieme, i documenti riveleranno se ai dipendenti OpenAI è ancora vietato fornire divulgazioni federali, quali tipi di divulgazioni nega OpenAI e la misura in cui la SEC monitora OpenAI per nascondere i rischi per la sicurezza.

Grassley ha scritto nella lettera: OpenAI deve garantire che i suoi dipendenti possano fornire informazioni protette senza restrizioni illegali.

Ha chiesto a OpenAI di rispondere entro il 15 agosto in modo che il Congresso possa condurre una supervisione obiettiva e indipendente dei protocolli di sicurezza e degli accordi di riservatezza di OpenAI.

OpenAI non ha risposto immediatamente alla richiesta di commento di Ars.

SU .

Ha anche confermato che OpenAI vuole che i dipendenti attuali ed ex si sentano a proprio agio nel sollevare preoccupazioni.

"Questo è fondamentale per qualsiasi azienda, ma soprattutto per noi, dove costituisce una parte importante del nostro programma di sicurezza", ha scritto Altman. A maggio abbiamo eliminato una clausola di non denigrazione per i dipendenti attuali ed ex dipendenti, nonché una clausola che dava a OpenAI il diritto di annullare il capitale acquisito (anche se non è mai stato utilizzato). Abbiamo lavorato duramente per correggere questo problema.

A luglio, l’informatore ha dichiarato alla Securities and Exchange Commission che OpenAI dovrebbe essere tenuta a fornire non solo i contratti attuali dei dipendenti, ma tutti i contratti che contengono accordi di riservatezza per garantire che OpenAI non abbia coperto le pratiche storiche o attuali di copertura dei rischi per la sicurezza dell’IA. Vogliono che tutti gli attuali ed ex dipendenti siano informati di eventuali contratti che contengono accordi di riservatezza illegali e che OpenAI venga multato per ogni contratto illegale.

Sam Altman accusato di essere sprezzante nei confronti delle questioni relative alla sicurezza dell'IA

Ma le richieste di maggiore trasparenza da parte di OpenAI non si limitano ai legislatori. Il giorno prima della lettera aperta di Grassley, il CEO di OpenAI Sam Altman ha rilasciato una dichiarazione su La dichiarazione era fuorviante e ha scatenato una protesta pubblica.

Altman ha scritto: Come abbiamo detto lo scorso luglio, ci siamo impegnati a destinare almeno il 20% delle nostre risorse informatiche agli sforzi di sicurezza in tutta l'azienda, il che ha sollevato preoccupazioni nella comunità che molti lettori di X di parte pensavano che ciò fornisse più contesto.

La nota della community rileva che Altman si riferiva a un blog di luglio che confermava esplicitamente che OpenAI stava assegnando il 20% delle risorse informatiche al suo team Super Alignment. Con il team ora sciolto e il capo scienziato responsabile di Hyper-Alignment che lascia l'azienda, i commentatori di X affermano che le affermazioni di Altman hanno fuorviato il pubblico su quali risorse informatiche OpenAI effettivamente assegna ai suoi sforzi di sicurezza ora vagamente definiti.

Alcuni commentatori di X hanno richiesto maggiori dettagli sugli attuali sforzi di sicurezza di OpenAI. In una lettera del 31 luglio in risposta ad altri cinque senatori riguardo alle questioni di sicurezza dell’IA, OpenAI ha spiegato i suoi sforzi in materia di sicurezza in modo più dettagliato. La società ha inoltre chiarito l'affermazione di Altman secondo cui X lo aveva segnalato come richiedente "più contesto", scrivendo che le risorse informatiche menzionate nel blog non dovrebbero in alcun modo riferirsi solo al team di Super Alignment.

OpenAI ha dichiarato in una lettera ai senatori: Per portare avanti ulteriormente la nostra agenda di ricerca sulla sicurezza, lo scorso luglio ci siamo impegnati a destinare almeno il 20% delle risorse informatiche alla sicurezza dell'IA per un periodo pluriennale. Questo impegno si applica sempre agli sforzi di sicurezza dell'intera azienda, non solo di un team specifico.

Ciò confonde alcune persone perché il blog di OpenAI afferma chiaramente che OpenAI dedicherà il 20% delle risorse informatiche acquisite fino ad oggi alla risoluzione del problema del coordinamento della superintelligenza nei prossimi quattro anni. All'epoca, OpenAI affermò che la sua principale scommessa sulla ricerca fondamentale era il suo ex team super-orchestrato, che "ha bisogno di risorse informatiche perché farlo bene è fondamentale per raggiungere la nostra missione".

Uno

OpenAI non ha ancora risposto all’account del meme, ma in precedenza ha affermato che i team super-allineati sono fondamentali per la sicurezza dell’intelligenza artificiale perché la società ha bisogno di scoperte scientifiche e tecnologiche per guidare e controllare i sistemi di intelligenza artificiale più intelligenti di noi.

OpenAI descrive dettagliatamente le iniziative di sicurezza

Nella lettera di OpenAI ai senatori, il responsabile della strategia Jason Kwon ha detto ai legislatori che OpenAI protegge dai rischi lavorando con esperti esterni per valutare e coordinare i nostri modelli. Ciò ha incluso la consulenza di oltre 100 esperti esterni che hanno contribuito a valutare i rischi associati al nostro ultimo modello, GPT-4o.

Kwon scrive: I risultati e le mitigazioni della sicurezza derivanti dai test del team rosso sono disponibili pubblicamente nelle schede di sistema che accompagnano i nostri modelli e OpenAI ha pubblicato un documento sulla "Misurazione dei rischi chimici, biologici, radiologici e nucleari (CBRN) associati ai sistemi di intelligenza artificiale ," Ricerca che stima la misura in cui diverse occupazioni e industrie possono essere influenzate dai modelli linguistici, valuta l'impatto dei modelli linguistici sulle operazioni di influenza e spiega l'interpretabilità delle decisioni del sistema di intelligenza artificiale.

Per garantire ulteriormente la sicurezza dell'intelligenza artificiale, Kwon ha affermato che OpenAI condurrà un'implementazione iterativa, rilasciando prima nuove funzionalità come il modello video Sora o il motore vocale a un gruppo limitato, quindi rilasciandole ampiamente al pubblico.

Kwon ha scritto: Questa strategia ci consente di ottenere feedback da persone esterne a OpenAI, aggiornare i nostri guardrail di sicurezza secondo necessità e far conoscere al pubblico le imminenti funzionalità dell'IA prima di aprire completamente il nostro modello.

Per i dipendenti che sviluppano nuove funzionalità o modelli che temono ancora ritorsioni per aver sollevato problemi di sicurezza, Kwon ha affermato che OpenAI ha lanciato una hotline per l’integrità a marzo. Questo canale consente ai dipendenti di segnalare problemi in modo anonimo se si sentono a disagio nel sollevare problemi attraverso altri canali esistenti.

Sebbene OpenAI affermi che i dipendenti sono liberi di esprimere qualsiasi preoccupazione, è chiaro che se OpenAI ritiene che determinate informazioni costituiscano un rischio per la sicurezza, non possono comunque essere condivise.

Kwon scrive: OpenAI continua a fare una distinzione tra sollevare preoccupazioni e divulgare segreti commerciali dell'azienda. Quest'ultimo (diritto protetto alla divulgazione) rimane vietato dagli accordi di riservatezza con attuali ed ex dipendenti. Riteniamo che questo divieto sia particolarmente importante dato l’impatto che la nostra tecnologia ha sulla sicurezza nazionale degli Stati Uniti.

Dato che questa eccezione consente a OpenAI di negare alcune divulgazioni federali, Grassley probabilmente voleva scoprire se OpenAI avrebbe potuto negare in modo improprio le divulgazioni sulla base della protezione dei segreti commerciali.

La lettera di Grassley chiariva che i senatori erano preoccupati per i rischi per la sicurezza auto-controllata delle aziende.