notizia

openai e anthropic concordano di sottoporre i nuovi modelli al governo degli stati uniti per una valutazione della sicurezza prima di lanciarli

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

giovedì 29 agosto, ora della costa orientale degli stati uniti, secondo quanto riportato dai media, i leader dell’intelligenza artificiale openai e anthropic hanno concordato di consentire all’ai security research institute del governo degli stati uniti di valutare le capacità e i possibili vantaggi dei nuovi modelli di intelligenza artificiale prima di lanciarli e di ricercare metodi congiuntamente per mitigare i potenziali rischi per la sicurezza e garantire che queste tecnologie di intelligenza artificiale non abbiano un impatto negativo sulla società.

l’american ai security institute è stato istituito nel 2023 in seguito a un ordine esecutivo sull’intelligenza artificiale dell’amministrazione biden-harris. la missione dell'istituto è sviluppare test, valutazioni e linee guida per garantire che le tecnologie di intelligenza artificiale possano innovare in modo responsabile. inoltre, in base a un accordo annunciato giovedì dal national institute of standards and technology (nist) del dipartimento del commercio degli stati uniti, il governo degli stati uniti lavorerà a stretto contatto con l’ai security institute del regno unito per fornire feedback a queste società di intelligenza artificiale per aiutarle a migliorare la loro misure di sicurezza.

elizabeth kelley, direttrice dell’american ai security research institute, ha dichiarato:

"la sicurezza è fondamentale per promuovere l'innovazione tecnologica rivoluzionaria. questi accordi sono solo l'inizio, ma sono significativi poiché guidiamo il futuro sviluppo dell'intelligenza artificiale in modo responsabile."

jason kwon, chief strategy officer di openai, ha espresso sostegno alla collaborazione:

"sosteniamo fortemente la missione dell'american ai safety institute e non vediamo l'ora di lavorare insieme per sviluppare le migliori pratiche e standard per la sicurezza dei modelli di intelligenza artificiale. riteniamo che l'istituto svolga un ruolo chiave nel garantire la leadership degli stati uniti nello sviluppo responsabile del ruolo dell'ia. ci auguriamo che, attraverso la cooperazione con l’istituto, possiamo fornire un quadro da cui il mondo possa imparare”.

anthropic ha inoltre affermato che è importante stabilire la capacità di testare efficacemente i modelli di intelligenza artificiale. jack clark, co-fondatore e responsabile della politica dell'azienda, ha dichiarato:

"garantire che l'ia sia sicura e affidabile è fondamentale affinché questa tecnologia abbia un impatto positivo. attraverso tali test e cooperazione, i rischi portati dall'ia possono essere scoperti e ridotti meglio e si può promuovere lo sviluppo responsabile dell'ia. ci impegniamo ad essere in grado di siamo orgogliosi di far parte di questo importante lavoro e speriamo di stabilire nuovi standard per la sicurezza e l’affidabilità dell’ia”.

inoltre, vale la pena notare che openai, una società sostenuta da microsoft, sta preparando un nuovo round di finanziamento, con l’obiettivo di raccogliere almeno 1 miliardo di dollari, che valuterà l’azienda a più di 100 miliardi di dollari. microsoft ha investito 13 miliardi di dollari in openai dal 2019 e ora possiede una quota del 49% dei profitti dell'azienda.

la notizia del nuovo round di finanziamento è arrivata circa un mese dopo che openai ha rivelato che stavano testando una nuova funzionalità chiamata searchgpt. questa nuova funzionalità combina la tecnologia ai e i dati di ricerca in tempo reale chatgpt potrebbe non solo rispondere alle domande in futuro, ma anche aiutarti a trovare risposte online.