notizia

Gli Stati Uniti lanciano il “Progetto Manhattan 2.0”, l’IA entrerà nel suo momento Oppenheimer? 6 miliardi sono stati lanciati contro i droni, 800 di questi lo hanno già fatto

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Nuovo rapporto sulla saggezza

Redattore: Enea così assonnato

[Introduzione alla Nuova Saggezza] Il Progetto Manhattan 2.0 sta arrivando? Ad oggi, l’esercito americano ha più di 800 progetti di intelligenza artificiale attivi e ha richiesto 1,8 miliardi di dollari di finanziamenti per l’intelligenza artificiale solo in 24 anni. Nei prossimi cinque anni, gli Stati Uniti stanzieranno anche 6 miliardi di dollari per la ricerca e lo sviluppo di aerei da combattimento collaborativi senza pilota. Ora, l’intelligenza artificiale sembra essere entrata nel suo momento Oppenheimer.

L’intelligenza artificiale è entrata nel suo momento Oppenheimer.

Ora, le armi IA vengono costantemente utilizzate per scopi militari e le industrie correlate sono in forte espansione.

La corsa agli armamenti multimiliardaria nel campo dell’intelligenza artificiale ha attirato i giganti della Silicon Valley e paesi di tutto il mondo.

I crescenti conflitti in tutto il mondo sono sia acceleratori che terreni di prova per la guerra basata sull’intelligenza artificiale. Gli eserciti di vari paesi nutrono grande interesse per l’intelligenza artificiale e attualmente manca una supervisione in questo campo.


L’esercito americano ha già più di 800 progetti di intelligenza artificiale attivi. Solo nel 2024, ha richiesto finanziamenti per un valore di 1,8 miliardi di dollari nel budget per l’intelligenza artificiale.

L’intelligenza artificiale che mette radici negli eserciti e nei governi di tutto il mondo probabilmente cambierà radicalmente la società, cambierà la tecnologia e cambierà la guerra.

La pubblicità dei droni diventa realtà

Un gruppo di soldati è sotto il fuoco dei razzi durante un combattimento urbano a distanza ravvicinata.

Uno di loro fece una chiamata via radio e presto arrivò una flotta di piccoli droni autonomi dotati di esplosivi.

Questi droni suicidi volano negli edifici e iniziano a scansionare i nemici una volta trovato un bersaglio, fanno esplodere a comando.

L'immagine sopra è tratta da una pubblicità della società di armi Elbit per promuovere come i droni IA possano "massimizzare la letalità e il ritmo di combattimento".


Ora la tecnologia sviluppata da Elbit è entrata sempre più nel mondo reale.

“Col passare del tempo, potremmo vedere gli esseri umani cedere più giudizio alle macchine”, ha affermato Paul Scharre, vicepresidente esecutivo e direttore della ricerca presso il think tank Center for a New American Security.

"Se guardiamo indietro tra 15 o 20 anni, ci renderemo conto che abbiamo varcato una soglia molto importante."


Nel 2023, un drone integrato con intelligenza artificiale rileva ordigni esplosivi

Gli Stati Uniti spendono 1 miliardo di dollari per il "Progetto Replicatore"

Sebbene lo sviluppo dell’intelligenza artificiale abbia visto un’impennata degli investimenti solo negli ultimi anni, lo sviluppo di sistemi d’arma autonomi in guerra può essere fatto risalire a decenni fa.

Naturalmente, questi sviluppi appaiono raramente nelle discussioni pubbliche, ma sono oggetto di studio da parte di un piccolo numero di studiosi e strateghi militari.

Ma ora l’attenzione del pubblico verso l’intelligenza artificiale è in aumento. Anche se le armi siano veramente “autonome” è diventato un argomento molto dibattuto.

Secondo esperti e ricercatori, possiamo intendere l'“autonomia” come uno spettro piuttosto che come un semplice concetto binario.

Ma in generale concordano sul fatto che le macchine sono ora in grado di prendere più decisioni senza il contributo umano che mai.


E il denaro si sta riversando nelle aziende e nelle agenzie governative, promettendo che l’intelligenza artificiale può rendere la guerra più intelligente, più economica e più veloce.

Il Pentagono prevede di spendere 1 miliardo di dollari per il suo “Programma Replicatore” entro il 2025. L’obiettivo di questo programma è sviluppare un gran numero di droni da combattimento senza pilota e utilizzare l’intelligenza artificiale per dare la caccia alle minacce.

Nei prossimi cinque anni, l’aeronautica americana prevede di stanziare circa 6 miliardi di dollari per la ricerca e lo sviluppo di aerei da combattimento collaborativi senza pilota per costruire una flotta di 1.000 aerei da combattimento IA in grado di volare in modo autonomo.

Negli ultimi anni, il Dipartimento della Difesa degli Stati Uniti ha anche raccolto centinaia di milioni di dollari per finanziare un programma segreto di intelligenza artificiale chiamato Project Maven, che si concentra su tecnologie come il riconoscimento automatico e la sorveglianza dei bersagli.


I soldati britannici usano l'intelligenza artificiale durante le esercitazioni

Le aziende tecnologiche firmano contratti enormi

Allo stesso tempo, la crescente domanda di intelligenza artificiale e autonomia nelle forze armate ha aiutato le aziende tecnologiche e i trafficanti di armi a ottenere enormi ordini.

Anduril, una società che sviluppa droni d’attacco autonomi, aerei da combattimento senza pilota e veicoli sottomarini, sta raccogliendo un nuovo round di capitale di rischio con una valutazione prevista di 12,5 miliardi di dollari.


Il fondatore di Anduril, Palmer Luckey, è un miliardario di 31 anni che quest'anno ha firmato un contratto con il Pentagono per costruire un programma di aerei da combattimento senza pilota.

Il miliardario della Silicon Valley Peter Thiel ha anche fondato Palantir, una società di tecnologia e sorveglianza. Ha già partecipato a progetti di intelligenza artificiale come il “primo veicolo definito dall’intelligenza artificiale” dell’esercito americano.


A maggio, il Pentagono ha annunciato di aver assegnato a Palantir un contratto da 480 milioni di dollari per la tecnologia IA che aiuta a identificare gli obiettivi nemici.

Attualmente, la tecnologia Palantir è stata utilizzata in diverse operazioni militari.


Palantir coinvolta nel "primo veicolo definito dall'intelligenza artificiale" dell'esercito americano

Anduril e Palantir, che prendono il nome rispettivamente dalla Spada Sacra e dalla Pietra Filosofale ne "Il Signore degli Anelli", sono solo una piccola parte della corsa all'oro della guerra internazionale dell'IA.


Helsing ha raccolto quasi 500 milioni di dollari in finanziamenti per il suo software di difesa basato sull’intelligenza artificiale e questo mese è stato valutato 5,4 miliardi di dollari.

Nel frattempo, Elbit Systems ha rivelato in una dichiarazione finanziaria di marzo di aver firmato un contratto per munizioni da 760 milioni di dollari nel 2023. E, nell’ultimo anno, le entrate hanno raggiunto i 6 miliardi di dollari.


Helsing raccoglie quasi 500 milioni di dollari per il suo software di difesa AI, valutato questo mese 5,4 miliardi di dollari

Le grandi aziende tecnologiche sono anche più ricettive nei confronti dell’industria della difesa e del suo utilizzo dell’intelligenza artificiale rispetto agli anni passati.

Nel 2018, i dipendenti di Google hanno protestato contro il coinvolgimento dell'azienda nel progetto Maven dell'esercito, sostenendo che violava le responsabilità etiche e morali. A quel tempo, sotto pressione, Google interruppe la sua collaborazione con il progetto.

Tuttavia, da allora Google ha raggiunto un accordo del valore di 1,2 miliardi di dollari con il governo di un determinato paese per fornirgli servizi di cloud computing e funzionalità di intelligenza artificiale.

Quest’anno Google ha licenziato dozzine di dipendenti perché alcuni di loro protestavano contro i contratti militari. Il CEO Pichai ha detto senza mezzi termini ai dipendenti: "Questo è un business".


Proteste simili da parte dei dipendenti si sono verificate in Amazon nel 2022 e, ancora una volta, la società non ha modificato la sua politica.

doppia scatola nera

I ricercatori avvertono che, poiché enormi quantità di denaro affluiscono nel settore della tecnologia della difesa, molte aziende e tecnologie operano con trasparenza e responsabilità minime.

Quando un prodotto si guasta inaspettatamente, le conseguenze possono essere fatali, ma questi trafficanti di armi di solito non ne sono responsabili.

Inoltre, la tendenza alla segretezza dell’apparato di sicurezza nazionale degli Stati Uniti significa anche che le aziende e i governi non hanno alcun obbligo di rivelare i dettagli di come funzionano questi sistemi.

Quando il governo prende una tecnologia AI segreta e proprietaria e la inserisce nel mondo nascosto della sicurezza nazionale, crea quella che Ashley Deeks, professoressa di diritto dell’Università della Virginia, chiama una “doppia scatola nera”.

In questo caso, è difficile per il pubblico sapere se questi sistemi funzionano correttamente o eticamente. E, in generale, ciò lascia molto spazio agli errori.

"Ho visto un sacco di pubblicità sull'intelligenza artificiale nel mondo degli affari, e la parola 'AI' viene utilizzata in modo improprio ovunque", ha affermato Scharre del think tank Center for American Security "Una volta che scavi più a fondo, lo scoprirai potrebbe non essere così complesso come pubblicizzato ".


Attivisti protestano davanti alla Porta di Brandeburgo a Berlino, in Germania, chiedendo di "fermare i robot assassini"

persone in circuito

Sebbene le aziende e gli eserciti nazionali siano riluttanti a rivelare i dettagli operativi specifici dei loro sistemi, si impegnano in un ampio dibattito sulla responsabilità etica e sulla regolamentazione dei sistemi di intelligenza artificiale.

Ad esempio, diplomatici e trafficanti d’armi generalmente credono che dovrebbe esserci sempre una “partecipazione umana” al processo decisionale, piuttosto che essere completamente controllati dalle macchine.

Tuttavia, c’è poco consenso su come implementare la supervisione umana.

“Tutti possono essere d’accordo sul concetto, ma allo stesso tempo ognuno ha un’idea diversa di cosa significhi in pratica”, ha affermato Rebecca Crootof, professoressa di diritto ed esperta di guerra autonoma presso l’Università di Richmond e prima visiting fellow della DARPA.

"In termini di guida delle decisioni di progettazione tecnica, questo concetto non è così utile."


I manifestanti si riuniscono fuori dalla fabbrica Elbit Systems a Leicester, nel Regno Unito

Inoltre, le complessità della psicologia umana e della responsabilità rendono le discussioni ad alto livello sulle “persone coinvolte” ancora più problematiche.

Un esempio spesso citato dai ricercatori è quello delle auto a guida autonoma, in cui gli esseri umani devono riprendere il controllo del veicolo quando necessario per ottenere la “partecipazione umana”.

Ma se un’auto a guida autonoma commette un errore o induce un essere umano a prendere una decisione sbagliata, è giusto incolpare il conducente?

Per essere più specifici, se un’auto a guida autonoma cede il controllo a un essere umano nei primi secondi di un incidente, chi è responsabile?

Scharre del think tank Center for American Safety ha sottolineato una cosa interessante: a volte mettiamo gli esseri umani nella cabina di pilotaggio in modo da poter trovare qualcuno che si assuma la responsabilità quando qualcosa va storto. Questa è la cosiddetta "zona cuscinetto morale".

Ci sono opinioni diverse su come supervisionare

In una conferenza tenutasi a Vienna alla fine di aprile di quest’anno, organizzazioni internazionali e diplomatici di 143 paesi si sono riuniti per discutere questioni normative sull’uso dell’intelligenza artificiale e delle armi autonome in guerra.

Per molti anni il Consiglio di Sicurezza dell’ONU non è riuscito a raggiungere un trattato globale su questo tema.

Rispetto al divieto totale delle armi autonome, l'appello del ministro degli Esteri austriaco Alexander Schallenberg è molto più mite: "Almeno dovremmo prendere la decisione più ampia e importante: chi vive e chi muore è ancora nelle mani degli esseri umani, non delle macchine. ".


La Croce Rossa Internazionale e Stop Killer Robots chiedono da più di dieci anni il divieto di alcuni tipi di sistemi d’arma autonomi.

Catherine Connolly, manager di Stop Killer Robots, ha dichiarato: "Stiamo vedendo molti soldi investiti in tecnologie come armi autonome e sistemi di puntamento dell'intelligenza artificiale, il che è molto preoccupante".

Oggi la situazione è sempre più urgente.

I sostenitori del controllo degli armamenti riconoscono anche che il tempo per lottare per la regolamentazione sta scadendo.

Mary Wareham, vicedirettrice del dipartimento di crisi, conflitti e armamenti dell'organizzazione, ha dichiarato: "Una volta abbiamo chiesto un divieto preventivo di sistemi d'arma completamente autonomi, e ora non usiamo più la parola 'preventivo' perché siamo così lontani da sistemi d'arma autonomi. armi. Molto vicino."

Alla richiesta di rafforzare la supervisione si sono opposti gli Stati Uniti e altri paesi, nonché i trafficanti di armi.

Il fondatore di Anduril, Luckey, si è vagamente impegnato a mantenere il “coinvolgimento umano” nella tecnologia dell’azienda, ma si è espresso contro la regolamentazione e il divieto delle armi autonome.

Il CEO di Palantir, Alex Karp, ha affermato più volte che abbiamo raggiunto un momento Oppenheimer.


Un drone integrato con l’intelligenza artificiale sta sminando

Gli esperti affermano che questa mancanza di supervisione non è solo un fenomeno esclusivo delle armi autonome, ma un problema comune affrontato dal sistema legale internazionale.

Ma molti temono che, una volta sviluppate e integrate nell’esercito, queste tecnologie persisteranno e diventeranno più difficili da regolamentare.

"Una volta che un'arma viene utilizzata in ambito militare, è più difficile rinunciarvi perché ne sono diventati dipendenti", ha affermato Scharre del think tank Center for American Security. "Questo non è più solo un investimento finanziario."

Se le armi autonome e l’intelligenza artificiale si sviluppassero come altre tecnologie militari, il loro utilizzo probabilmente si estenderebbe anche alle forze dell’ordine nazionali e alle agenzie di pattugliamento delle frontiere, rafforzando ulteriormente la tecnologia.

"Molte volte, la tecnologia utilizzata in guerra finisce in patria", ha detto Connolly.

Riferimenti:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield