notizia

Analisi approfondita: è stata raggiunta la “supervisione volontaria” promessa dai giganti dell’intelligenza artificiale come Google e Microsoft?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Un anno fa, tra cui Amazon, Microsoft, Google, Meta,IA apertaSette società di intelligenza artificiale, tra cui Anthropic e Inflection, hanno raggiunto otto impegni volontari con la Casa Bianca su come sviluppare l'intelligenza artificiale in modo sicuro e affidabile.

Questi impegni includono l’aumento dei test e della trasparenza dei sistemi di intelligenza artificiale e la condivisione di informazioni su potenziali pericoli e rischi.

Nel primo anniversario della firma del Voluntary Pledge, MIT Technology Review ha chiesto alle aziende di intelligenza artificiale che hanno firmato l’impegno alcuni dettagli sul lavoro svolto finora. Le loro risposte indicano alcuni progressi promettenti per l’industria tecnologica, ma anche alcuni avvertimenti significativi.

Questi impegni volontari vengono assuntiintelligenza artificiale generativa La mossa arriva quando la frenesia "potrebbe essere al suo massimo splendore" mentre le aziende corrono per lanciare i propri modelli e renderli più grandi e migliori di quelli dei loro rivali. Allo stesso tempo, stiamo anche iniziando a vedere dibattiti su questioni come il copyright e i deepfake. Una lobby di influenti figure tecnologiche come Geoffrey Hinton ha anche sollevato preoccupazioni sul fatto che l’intelligenza artificiale possa rappresentare rischi esistenziali per l’umanità. All’improvviso, tutti parlano dell’urgente necessità di garantire la sicurezza dell’intelligenza artificiale e i regolatori di tutto il mondo sono sotto pressione affinché agiscano.

Fino a poco tempo fa, lo sviluppo dell’intelligenza artificiale era come il “selvaggio West”. Gli Stati Uniti sono stati tradizionalmente riluttanti a regolamentare i propri giganti della tecnologia, affidandosi invece a loro per regolamentarsi da soli. Gli impegni volontari sono un buon esempio: si tratta di alcune norme prescrittive per il campo dell’intelligenza artificiale negli Stati Uniti, ma sono ancora volontarie e non possono essere applicate. La Casa Bianca ha successivamente emesso un ordine esecutivo che ha ampliato tali impegni e si è applicato ad altre società tecnologiche e agenzie governative.

"Un anno dopo, stiamo vedendo alcune aziende adottare alcune buone pratiche con i loro prodotti, ma non sono affatto vicine a dove dobbiamo essere in termini di buon governo o protezione dei diritti fondamentali", ha affermato Merve Hickok, Presidente e Direttore della ricerca. Ha esaminato le risposte delle aziende su richiesta del MIT Technology Review. "Molte di queste aziende continuano a promuovere affermazioni infondate sui loro prodotti, come ad esempio la pretesa che possano superare l'intelligenza e le capacità umane", ha aggiunto.

Una tendenza che emerge da queste risposte delle aziende tecnologiche è che le aziende stanno adottando sempre più misure per perseguire soluzioni tecniche, come il confronto rosso-blu (dove gli esseri umani esplorano i difetti nei modelli di intelligenza artificiale) e l’aggiunta di filigrane ai contenuti generati dall’intelligenza artificiale.

Rishi Bommasani, direttore del Center for Fundamental Modeling dell’Università di Stanford, ha affermato che non è chiaro quali cambiamenti siano intervenuti a tali impegni o se le aziende implementeranno le misure. Ha inoltre esaminato le risposte per la MIT Technology Review.

Un anno è un periodo lungo nel campo dell’intelligenza artificiale. Dopo aver firmato l’impegno volontario, il fondatore di Inflection AI Mustafa Suleyman ha lasciato l’azienda per unirsi a Microsoft per guidare gli sforzi legati all’intelligenza artificiale. La flessione ha rifiutato di commentare.

Il portavoce della Casa Bianca Robyn Patterson ha dichiarato: "Siamo grati per i progressi che le aziende leader hanno fatto nell'adempiere agli impegni volontari che vanno oltre i requisiti dell'ordine esecutivo. Tuttavia, il presidente continua a chiedere al Congresso di approvare una legislazione bipartisan sull'intelligenza artificiale".

Brandie Nonnecke, direttrice del CITRIS Policy Lab presso l’Università della California, Berkeley, ha affermato che senza una legislazione federale completa, tutto ciò che gli Stati Uniti possono fare ora è richiedere alle aziende di adempiere a questi impegni volontari.

Ma ciò che è importante ricordare è che “queste aziende stanno fondamentalmente studiando per il test che viene loro sottoposto”, ha detto Brandie Nonnecke, “quindi dobbiamo guardare attentamente per vedere se si stanno effettivamente convalidando in modo veramente rigoroso”.

Ecco la nostra valutazione dei progressi compiuti da queste società di intelligenza artificiale nell'ultimo anno.

Impegno 1. Le aziende si impegnano a testare la sicurezza interna ed esterna dei loro sistemi di IA prima del loro rilascio. Questi test, che saranno eseguiti in parte da esperti indipendenti, proteggono da alcune delle fonti più significative di rischi di IA, come la biosicurezza e la sicurezza informatica, nonché dai suoi effetti sociali più ampi.

Impegno 1: Condurre test di sicurezza interni ed esterni dei sistemi di intelligenza artificiale prima di rilasciarli. Parte di questi test saranno effettuati da esperti indipendenti e sono progettati per proteggere da alcune delle più importanti fonti di rischi legati all’IA, come la biosicurezza, la sicurezza informatica e gli impatti sociali più ampi.

Tutte le società (tranne Inflection, che ha scelto di non commentare) hanno affermato di aver condotto confronti rosso-blu per consentire a tester interni ed esterni di esplorare i difetti e i rischi dei loro modelli. OpenAI ha affermato di disporre di un team di preparazione separato che testa modelli di sicurezza informatica, minacce chimiche, biologiche, radiologiche e nucleari, nonché sofisticati modelli di intelligenza artificiale che possono fare o convincere una persona a fare cose che potrebbero causare danni. Anthropic e OpenAI hanno anche affermato che condurranno questi test con esperti esterni prima di lanciare nuovi modelli.Ad esempio, per lanciare il suo ultimo modello, Claude 3.5, Anthropic ha condotto test pre-implementazione con esperti dell'Artificial Intelligence Security Institute del Regno Unito. Anthropic ha inoltre consentito all'organizzazione di ricerca no-profit METR di condurre test pre-implementazione di Claude 3.5.Autopilota La funzionalità è stata “esplorata preliminarmente”. Google ha affermato che sta anche conducendo confronti interni rosso-blu sul suo modello Gemini per testare i confini dei contenuti legati alle elezioni, dei rischi sociali e delle preoccupazioni per la sicurezza nazionale. Microsoft ha affermato di aver collaborato con valutatori di terze parti di NewsGuard, un'organizzazione che promuove l'integrità giornalistica, per valutare il rischio e mitigare il rischio di uso improprio dei deepfake nello strumento di conversione testo in immagine di Microsoft. Meta ha affermato che oltre al confronto rosso-blu, ha anche valutato il suo ultimo modello, il Llama 3, per vedere come si comporta in una serie di aree di rischio, tra cui armi, attacchi informatici e sfruttamento minorile.

“Quando si tratta di test, non è sufficiente riferire semplicemente che un’azienda sta agendo”, ha affermato Rishi Bommasani. Amazon e Anthropic, ad esempio, hanno affermato di aver unito le forze con l’organizzazione no-profit Thorn per affrontare i rischi che l’intelligenza artificiale comporta per la sicurezza dei bambini. Vorrebbe conoscere maggiori dettagli su come gli interventi che l'azienda sta attuando riducono effettivamente questi rischi.

“Dovremmo capire chiaramente che non sono solo le aziende a fare le cose, ma che quelle cose stanno avendo l’effetto desiderato”, ha detto Rishi Bommasani.

risultato: Molto bene. Avanzare contro i rossi e blu e testare vari rischi è un lavoro importante. Tuttavia, Merve Hickok vorrebbe che i ricercatori indipendenti avessero un accesso più ampio ai modelli dell’azienda.

Impegno 2. Le aziende si impegnano a condividere informazioni nel settore e con governi, società civile e mondo accademico sulla gestione dei rischi dell'IA. Ciò include le best practice per la sicurezza, informazioni sui tentativi di aggirare le misure di sicurezza e collaborazione tecnica.

Impegno 2: Condividere informazioni sulla gestione dei rischi legati all’IA con l’industria e il governo, la società civile e il mondo accademico. Ciò include le migliori pratiche di sicurezza, informazioni sui tentativi di eludere le garanzie e la cooperazione tecnica.

Dopo aver firmato l’impegno volontario, Google, Microsoft, Anthropic e OpenAI hanno formato il Frontier Model Forum, un’organizzazione no-profit per promuovere la discussione e l’azione sulla sicurezza e la responsabilità dell’intelligenza artificiale. Successivamente si sono uniti Amazon e Meta.

Rishi Bommasani ha affermato che la collaborazione con organizzazioni no-profit che le società di intelligenza artificiale finanziano da sole potrebbe non essere nello spirito di un impegno volontario. A suo avviso, il Frontier Model Forum potrebbe essere un modo per queste aziende di collaborare tra loro e trasmettere messaggi di sicurezza, qualcosa che spesso faticano a fare come concorrenti.

"Anche se non divulgano informazioni al pubblico, si spera che almeno trovino collettivamente modi per ridurre il rischio", ha detto Rishi Bommasani.

Tutti e sette i firmatari sono anche membri dell’Artificial Intelligence Institute for Safety Consortium (AISIC), istituito dal National Institute of Standards and Technology (NIST) per sviluppare linee guida e standard per la politica e la valutazione delle prestazioni dell’IA operatori del settore. Google, Microsoft e OpenAI hanno anche rappresentanti nel gruppo consultivo di alto livello delle Nazioni Unite sull’intelligenza artificiale.

Molte aziende hanno anche evidenziato le loro collaborazioni di ricerca con il mondo accademico. Ad esempio, Google fa parte di MLCommons, dove collabora con il mondo accademico per condurre ricerche sui benchmark di sicurezza dell’IA intersettoriali. Google ha anche affermato che contribuisce attivamente con strumenti e risorse come crediti computazionali a programmi come il programma pilota National Artificial Intelligence Research Resources della National Science Foundation, che mira a democratizzare la ricerca sull’intelligenza artificiale negli Stati Uniti.

Molte aziende contribuiscono anche alla Partnership on AI, un’altra organizzazione no-profit co-fondata da Amazon, Google, Microsoft, Facebook, DeepMind e IBM, per implementare i modelli sottostanti.

risultato: C'è ancora molto lavoro da fare. Mentre il settore collabora per rendere i sistemi di intelligenza artificiale sicuri e affidabili, condividere più informazioni è senza dubbio un passo importante nella giusta direzione. Tuttavia, non è chiaro quanti degli sforzi annunciati si tradurranno effettivamente in cambiamenti significativi e quanti di essi saranno solo cosmetici.

Impegno 3. Le aziende si impegnano a investire in misure di sicurezza informatica e di protezione dalle minacce interne per proteggere pesi di modello proprietari e non ancora rilasciati. Questi pesi di modello sono la parte più essenziale di un sistema di intelligenza artificiale e le aziende concordano che è fondamentale che i pesi di modello vengano rilasciati solo quando previsto e quando vengono presi in considerazione i rischi per la sicurezza.

Impegno 3: Investire in misure di sicurezza informatica e di protezione dalle minacce interne per proteggere i pesi dei modelli proprietari e non rilasciati. Questi pesi dei modelli sono la parte più importante di un sistema di intelligenza artificiale e le aziende concordano sul fatto che è fondamentale rilasciare i pesi dei modelli solo intenzionalmente e tenendo presente i rischi per la sicurezza.

Molte aziende hanno implementato nuove misure di sicurezza informatica nell’ultimo anno. Microsoft, ad esempio, ha lanciato la sua "Security Future Initiative" per combattere la crescente portata degli attacchi informatici. Microsoft afferma che i pesi dei suoi modelli sono crittografati per ridurre il potenziale rischio di furto del modello e applica un'autenticazione forte e controlli di accesso durante la distribuzione di modelli altamente personalizzati.

Google ha anche lanciato un programma di difesa informatica basato sull’intelligenza artificiale. A maggio, OpenAI ha condiviso sei nuove misure che stava sviluppando per integrare le sue pratiche di sicurezza informatica esistenti, come l’estensione delle protezioni crittografiche all’hardware AI, e ha anche un programma di sovvenzioni per la sicurezza informatica che consente ai ricercatori di utilizzare il suo modello per costruire difese di sicurezza informatica.

Amazon ha affermato di aver anche adottato misure specifiche contro gli attacchi specifici dell’intelligenza artificiale generativa, come il “data wrong” e l’”hint word injection”, che possono utilizzare suggerimenti per guidare i modelli linguistici a ignorare le istruzioni precedenti e le protezioni di sicurezza.

Alcuni giorni dopo la firma dell’impegno volontario, Anthropic ha rilasciato dettagli sulle sue misure di salvaguardia, che includono pratiche comuni di sicurezza informatica come il controllo di chi ha accesso ai modelli e al peso dei modelli, nonché l’ispezione e il controllo delle catene di fornitura di terze parti. L’azienda collabora inoltre con valutatori indipendenti per valutare se i controlli che progetta soddisfano le esigenze di sicurezza informatica.

risultato: Molto bene. Tutte le aziende affermano di aver adottato misure aggiuntive per proteggere i propri modelli, anche se non sembra esserci molto consenso sui modi migliori per proteggere i modelli di intelligenza artificiale.

Impegno 4. Le aziende si impegnano a facilitare la scoperta e la segnalazione di vulnerabilità nei loro sistemi AI da parte di terze parti. Alcuni problemi potrebbero persistere anche dopo il rilascio di un sistema AI e un solido meccanismo di segnalazione consente di individuarli e risolverli rapidamente.

Impegno 4: Facilitare le terze parti a scoprire e segnalare le vulnerabilità nei loro sistemi di intelligenza artificiale. Anche dopo il rilascio del sistema di intelligenza artificiale, potrebbero ancora esistere alcuni problemi e un potente meccanismo di segnalazione può consentire di scoprire rapidamente e risolvere i problemi in modo tempestivo.

Uno dei modi più popolari per mantenere questa promessa è implementare un programma “bug bounty”, che premia le persone che scoprono difetti nei sistemi di intelligenza artificiale. Tra cui Google, Microsoft, Meta, Anthropic e OpenAI hanno lanciato tali piani per i sistemi di intelligenza artificiale. Amazon e Anthropic hanno inoltre affermato di aver creato moduli sui loro siti Web in cui i ricercatori di sicurezza possono inviare rapporti sulle vulnerabilità.

Secondo Brandie Nonnecke, potrebbero volerci anni per capire come svolgere un buon lavoro con un audit di terze parti. "Questa non è solo una sfida tecnica, ma una sfida socio-tecnica. Ci vorranno anni non solo per individuare gli standard tecnici per l'intelligenza artificiale, ma anche per individuare gli standard socio-tecnici, il che è complesso e difficile, " lei disse. .

Brandie Nonnecke ha affermato di temere che le prime aziende a implementare audit di terze parti potrebbero costituire un brutto precedente su come pensare e affrontare i rischi sociotecnici dell’intelligenza artificiale. Ad esempio, un audit può definire, valutare e affrontare determinati rischi ma ignorarne altri.

risultato: C'è ancora molto lavoro da fare. Le taglie sui bug sono fantastiche, ma non sono abbastanza complete. Nuove leggi, come la legge sull’intelligenza artificiale dell’UE, richiederanno alle aziende tecnologiche di condurre audit, e sarebbe meglio se le aziende tecnologiche condividessero storie di successo di tali audit.

Impegno 5. Le aziende si impegnano a sviluppare solidi meccanismi tecnici per garantire che gli utenti sappiano quando il contenuto è generato dall'IA, come un sistema di filigrana. Questa azione consente alla creatività con l'IA di prosperare ma riduce i pericoli di frode e inganno.

Impegno 5:Lo sviluppo di potenti meccanismi tecnici per garantire che gli utenti sappiano quali contenuti sono generati dall’intelligenza artificiale, come i “sistemi di watermarking”, consente alla creatività dell’intelligenza artificiale di prosperare riducendo al contempo il rischio di frode e inganno.

Molte aziende hanno creato sistemi di watermarking per contenuti generati dall’intelligenza artificiale. Ad esempio, Google ha lanciato SynthID, uno strumento di watermarking per immagini, audio, testo e video generati da Gemini. Meta ha sviluppato uno strumento per la filigrana delle immagini chiamato "Stable Signature" e uno strumento per la filigrana vocale chiamato "AudioSeal". Amazon ora aggiunge una "filigrana invisibile" alle immagini generate dal suo modello di generazione di immagini Titan. OpenAI ha utilizzato filigrane nel suo modello vocale personalizzato Voice Engine e ha creato un classificatore di rilevamento delle immagini per le immagini generate da DALL-E 3. Anthropic è l'unica azienda che non ha ancora creato uno strumento di watermarking, perché il watermarking è principalmente per le immagini e il modello Claude dell'azienda non supporta le immagini.

Tutte le società tranne Inflection, Anthropic e Meta sono anche membri della Content Provenance and Authenticity Alliance (C2PA), un'alleanza di settore che discuterà le questioni relative al momento in cui è stato creato il contenuto e se è stato creato o modificato dall'intelligenza artificiale o dagli esseri umani è incorporato nei metadati dell'immagine. Microsoft e OpenAl aggiungono automaticamente i metadati di origine di C2PA alle immagini create con DALL-E 3 e ai video creati con Sora. Sebbene Meta non sia membro dell'alleanza, ha annunciato che utilizzerà lo standard C2PA per identificare le immagini generate dall'intelligenza artificiale sulla sua piattaforma.

“Le sei aziende che hanno firmato l’impegno volontario gravitano naturalmente verso approcci tecnologici per affrontare i rischi, e questo è particolarmente vero con i sistemi di watermarking”, ha affermato Rishi Bommasani.

"La domanda è: le 'soluzioni tecniche' possono fare progressi significativi e risolvere i problemi sociali sottostanti che ci spingono a chiederci se i contenuti siano generati dalle macchine?"

risultato: Molto bene. Nel complesso, si tratta di un risultato incoraggiante e, sebbene il sistema di watermarking sia ancora sperimentale e inaffidabile, è comunque positivo vedere la ricerca che lo circonda e l'impegno nei confronti dello standard C2PA. È meglio di niente, soprattutto in un anno elettorale impegnativo.

Impegno 6. Le aziende si impegnano a segnalare pubblicamente le capacità, le limitazioni e le aree di utilizzo appropriato e inappropriato dei loro sistemi di intelligenza artificiale. Questo rapporto coprirà sia i rischi per la sicurezza che i rischi sociali, come gli effetti sull'equità e la parzialità.

Impegno 6: Riportare pubblicamente le capacità, i limiti e le aree in cui i loro sistemi di intelligenza artificiale sono adatti all’uso. Il rapporto riguarderà i rischi per la sicurezza e i rischi sociali, come gli impatti sull’equità e sui pregiudizi.

L'impegno della Casa Bianca lascia molto spazio all'interpretazione; ad esempio, le aziende possono tecnicamente soddisfare tali requisiti di divulgazione pubblica purché si muovano in quella direzione, mentre i livelli di trasparenza possono variare ampiamente.

In questo caso, la soluzione più comune offerta dalle aziende tecnologiche è la cosiddetta "scheda modello". Sebbene ogni azienda li chiami in modo leggermente diverso, essenzialmente servono come una sorta di descrizione del prodotto per il modello AI. Possono coprire tutto, dalle capacità e limitazioni di un modello (incluso come misurare i parametri di equità e spiegabilità) all’autenticità, robustezza, governance, privacy e sicurezza. Anthropic ha affermato che testerà anche il modello per potenziali problemi di sicurezza che potrebbero sorgere in seguito.

Microsoft ha pubblicato il suo rapporto annuale sulla trasparenza dell’intelligenza artificiale responsabile, che fornisce informazioni su come l’azienda crea applicazioni che utilizzano l’intelligenza artificiale generativa, prende decisioni e supervisiona l’implementazione di queste applicazioni. Microsoft ha inoltre affermato che chiarirà dove e come verrà utilizzata l'intelligenza artificiale nei suoi prodotti.

risultato: C'è ancora molto lavoro da fare. Merve Hickok ha affermato che una maggiore trasparenza nelle strutture di governance e nelle relazioni finanziarie tra le aziende sarebbe un’area di miglioramento per tutte le aziende, e vorrebbe anche che le aziende fossero più trasparenti riguardo alle fonti di dati, ai processi di formazione dei modelli, agli incidenti di sicurezza e all’uso dell’energia.

Impegno 7. Le aziende si impegnano a dare priorità alla ricerca sui rischi sociali che i sistemi di intelligenza artificiale possono rappresentare, anche per evitare pregiudizi e discriminazioni dannose e proteggere la privacy. I precedenti dell'intelligenza artificiale mostrano l'insidiosità e la prevalenza di questi pericoli e le aziende si impegnano a implementare un'intelligenza artificiale che li mitiga.

Impegno 7: Dare priorità alla ricerca sui rischi sociali che i sistemi di intelligenza artificiale possono comportare, evitando pregiudizi dannosi, discriminazioni e tutela della privacy. Il track record dell’intelligenza artificiale mostra quanto questi pericoli siano insidiosi e pervasivi e queste aziende promettono all’intelligenza artificiale di mitigarli.

Le aziende tecnologiche sono state impegnate a condurre ricerche sulla sicurezza e a incorporare i risultati nei loro prodotti. Amazon ha costruito "guardrail" per "Amazon Bedrock" in grado di rilevare allucinazioni e anche di applicare protezioni di sicurezza, privacy e autenticità. Anthropic ha affermato di aver assunto un gruppo di ricerca focalizzato sullo studio dei rischi sociali e della privacy e, nell'ultimo anno, di aver introdotto funzionalità emergenti per lo spoofing, il jailbreak, strategie di riduzione della discriminazione e modelli che manomettono il proprio codice o eseguono ricerche di persuasione. OpenAI afferma di aver addestrato i suoi modelli a evitare "contenuti che incitano all'odio" e a rifiutare contenuti che incitano all'odio o estremisti, e ha addestrato GPT-4V a respingere molte richieste che richiedono risposte basate su stereotipi. Google DeepMind ha anche pubblicato ricerche che valutano capacità pericolose e condotto ricerche sull’uso improprio dell’intelligenza artificiale generativa.

Tutte le aziende investono molto nella ricerca in questo settore. Google, ad esempio, ha investito milioni di dollari per creare un nuovo AI Security Fund per promuovere la ricerca sul campo attraverso forum di modellizzazione all’avanguardia. Microsoft ha dichiarato di aver stanziato 20 milioni di dollari per studiare i rischi sociali attraverso la National Artificial Intelligence Research Resource e di aver lanciato un programma di accelerazione della ricerca sui modelli di intelligenza artificiale, il programma Accelerating Fundamental Model Research sociologia.

risultato: Molto bene. È una promessa facile da mantenere, poiché i firmatari sono alcuni dei laboratori di ricerca aziendale sull’intelligenza artificiale più grandi e ricchi del mondo. Sebbene una maggiore ricerca su come rendere sicuri i sistemi di intelligenza artificiale sia un passo positivo, i critici sottolineano che concentrarsi sulla ricerca sulla sicurezza distoglie attenzione e risorse dalla ricerca sull’intelligenza artificiale, che si concentra su danni più immediati, come la discriminazione e il pregiudizio.

Impegno 8. Le aziende si impegnano a sviluppare e implementare sistemi di intelligenza artificiale avanzati per aiutare ad affrontare le sfide più grandi della società. Dalla prevenzione del cancro alla mitigazione del cambiamento climatico a molto altro ancora, l'intelligenza artificiale, se gestita correttamente, può contribuire enormemente alla prosperità, all'uguaglianza e alla sicurezza di tutti.

Impegno 8:Sviluppando e implementando sistemi avanzati di intelligenza artificiale per aiutare a risolvere le più grandi sfide della società, dalla prevenzione del cancro alla mitigazione dei cambiamenti climatici a molte altre aree, se gestita correttamente, l’intelligenza artificiale può far avanzare in modo significativo la prosperità, l’uguaglianza e la sicurezza umana.

Da quando hanno fatto questa promessa, le aziende tecnologiche hanno risolto una serie di problemi. Ad esempio, Pfizer utilizza Claude per valutare le tendenze nella ricerca sul trattamento del cancro dopo aver raccolto dati rilevanti, mentre la società biofarmaceutica statunitense Gilead utilizza l’intelligenza artificiale generativa di Amazon Web Services per condurre valutazioni di fattibilità di studi clinici e analizzare set di dati.

Google DeepMind ha una solida esperienza nel lancio di strumenti di intelligenza artificiale che aiutano gli scienziati. Ad esempio, AlphaFold 3 può prevedere la struttura e le interazioni di quasi tutte le molecole viventi. AlphaGeometry risolve problemi geometrici a un livello paragonabile a quello dei migliori studenti delle scuole superiori. GraphCast è un modello di intelligenza artificiale capace di previsioni meteorologiche a medio termine. Nel frattempo, Microsoft sta utilizzando immagini satellitari e intelligenza artificiale per migliorare la risposta agli incendi a Maui, nelle Hawaii, e mappare le popolazioni vulnerabili agli impatti climatici, il che aiuta i ricercatori a scoprire rischi come l’insicurezza alimentare, la migrazione forzata e le malattie.

Nel frattempo, OpenAI ha annunciato collaborazioni e finanziamenti per diversi progetti di ricerca, come uno su come educatori e scienziati possono utilizzare in sicurezza modelli di intelligenza artificiale multimodale in ambienti di laboratorio. L'azienda sta anche finanziando "hackathon" per aiutare i ricercatori a sviluppare energia pulita sulla sua piattaforma.

risultato: Molto bene. Alcuni lavori in settori come l’uso dell’intelligenza artificiale per facilitare la scoperta scientifica o prevedere il tempo sono davvero entusiasmanti. Le aziende di intelligenza artificiale non la utilizzano ancora per prevenire il cancro, il che è un livello piuttosto alto con cui cominciare.

Nel complesso, ci sono alcuni cambiamenti positivi nel modo in cui viene costruita l’intelligenza artificiale, come il confronto rosso-blu, i sistemi di watermarking e nuovi modi di condividere le migliori pratiche tra i settori. Tuttavia, queste sono solo alcune delle ingegnose soluzioni tecnologiche trovate per affrontare il complicato problema sociotecnico dei pericoli dell’intelligenza artificiale, e c’è ancora molto lavoro da fare. Un anno dopo, la promessa enfatizza ancora eccessivamente un particolare tipo di sicurezza dell’IA che si concentra su “rischi ipotetici” come le armi biologiche, senza menzionare la protezione dei consumatori, i deepfake, i dati e il diritto d’autore e l’impronta ambientale dell’IA, omissioni che oggi sembrano decisamente bizzarro.

Collegamento originale:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/