notizia

l’intelligenza artificiale accelera il processo di autonomia delle armi

2024-09-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

l’intelligenza artificiale accelera il processo di autonomia delle armi
■pei shuai, shi haiming, huo jianglei
da qualche tempo, spinte dal progresso scientifico e tecnologico e dalle esigenze militari, le potenze militari mondiali stanno sviluppando e implementando attivamente vari progetti di autonomia delle armi per consentire loro di percepire, apprendere e prendere decisioni in modo autonomo grazie al potere dell’intelligenza artificiale.
un aereo da caccia americano x-62a decolla dalla base aeronautica di edwards.
nel maggio di quest’anno, il segretario dell’aeronautica americana frank kendall ha pubblicamente testato un caccia f-16 controllato dall’intelligenza artificiale (x-62a) presso la base aeronautica di edwards, attirando l’attenzione diffusa da tutte le parti. gli analisti ritengono che le armi autonome potenziate dall’intelligenza artificiale non solo cambieranno la forma delle guerre future, ma causeranno anche nuovi impatti sull’attuale situazione di sicurezza internazionale, e il rischio della loro perdita di controllo diventerà un problema che la società umana non può ignorare.
accelerare la ricerca e lo sviluppo di armi da guerra
dal punto di vista dell’esercito statunitense, l’intelligenza artificiale, a differenza delle piattaforme d’arma di prossima generazione e delle munizioni avanzate, ha il potenziale per cambiare quasi tutti gli aspetti del campo di battaglia. un’area importante è l’accelerazione dell’autonomia delle armi. l'esercito americano ha investito molte risorse in quest'area e l'x-62a pilotato da kendall è un risultato fondamentale. durante il volo di circa un'ora, tutte le azioni del caccia sono state completate autonomamente dall'intelligenza artificiale. inoltre, il "cooperative combat aircraft" sviluppato dall'aeronautica americana sarà equipaggiato con il sistema centrale autonomo senza pilota "sky borg" e si formerà insieme ai caccia con equipaggio durante le operazioni per intraprendere attività di sorveglianza, attacco, interferenza elettronica e servizio. come esche missione per massimizzare la sicurezza e le capacità di combattimento della formazione.
per quanto riguarda la marina, nei rapporti "2025 autonomous underwater vehicle requisiti" e "future fleet platform options", gli stati uniti prevedono di realizzare il concetto di flotta distribuita nel 2030 e di equipaggiare 183 veicoli sottomarini senza pilota di medie dimensioni che possono essere trasportati da sottomarini nucleari ci sono 48 sottomarini senza pilota su larga scala, che possono svolgere compiti antisommergibile, ricognizione, sorveglianza e altri per decine di giorni nei porti, nelle acque internazionali e nelle principali vie navigabili.
anche la ricerca russa sull’intelligenza artificiale è iniziata presto. il ministero della difesa russo ha istituito nel 2022 un dipartimento di ricerca sulle armi di intelligenza artificiale per rafforzare l’uso della tecnologia dell’intelligenza artificiale e sviluppare nuove attrezzature speciali. i sistemi multifunzionali senza pilota "depesha" e "baji" sviluppati dal gruppo tecnologico statale russo non solo possono trasportare merci e feriti, ma anche attaccare posizioni nemiche e forze efficaci. in precedenza, è stato riferito che il missile da crociera "lancet"-3 dell'esercito russo utilizza una rete neurale convoluzionale, in grado di analizzare le immagini e i dati video raccolti per ottenere un rilevamento e un attacco precisi.
veicolo da combattimento senza pilota israeliano m-rcv.
anche paesi come germania e israele hanno aumentato gli sforzi di ricerca e sviluppo in campi correlati. con il sostegno della nato, la società tedesca arx robotics sta sviluppando una serie di veicoli terrestri senza pilota. utilizzando l’intelligenza artificiale, questi veicoli possono operare autonomamente sul campo di battaglia e comunicare tra loro e, se necessario, possono anche essere controllati a distanza. gli analisti ritengono che questa mossa significhi che la nato ha avviato il processo di “costruzione di una forza robotica autonoma”. il veicolo da combattimento senza pilota m-rcv dell'esercito israeliano ha un alto livello di intelligenza e può eseguire ricognizioni di frontiera altamente autonome, attacchi di fuoco e trasportare e recuperare droni e altri compiti diversi senza intervento umano.
la prossima rivoluzione militare
le armi autonome alimentate dall’intelligenza artificiale stanno già emergendo nei conflitti regionali. durante il conflitto militare libico del 2020, il drone "kagu"-2 prodotto dalla turchia ha rintracciato e attaccato l'"esercito nazionale libico" in ritirata senza fare affidamento sul suo operatore. questo potrebbe essere il primo caso documentato di un drone che attacca una persona senza il comando umano. nel conflitto tra russia e ucraina, l’esercito ucraino non solo ha ottenuto un gran numero di droni dotati di intelligenza artificiale dal regno unito e dagli stati uniti, ma ha anche svolto attivamente ricerche pertinenti. in questa tornata di conflitto israelo-palestinese è stata applicata anche l’intelligenza artificiale. israele ha utilizzato un sistema di intelligenza artificiale chiamato "lavender" per identificare i militanti di hamas durante la sua offensiva a gaza.
le armi autonome alimentate dall’intelligenza artificiale stanno cambiando la forma della guerra. nel settembre dello scorso anno, l’x-62a ha completato con successo un duello aereo con un caccia f-16 pilotato da un pilota umano. questo è considerato "un momento di trasformazione nella storia dell'aerospaziale" e indica che le operazioni future saranno parzialmente o completamente controllate dall'intelligenza artificiale. il cluster del sistema senza equipaggio, che è composto fondamentalmente da vari tipi di unità da combattimento senza equipaggio come veicoli aerei senza equipaggio, veicoli senza equipaggio, imbarcazioni senza equipaggio e sottomarini senza equipaggio, rappresenterà una percentuale crescente del futuro sistema di forze di combattimento, raggiungendo anche il livello di manned i sistemi di combattimento vanno di pari passo tra loro. con il miglioramento dell’autonomia e dell’intelligence, i cluster di sistemi senza pilota diventeranno sempre più i “protagonisti” della guerra. i ricercatori ritengono che la cooperazione con i sistemi presidiati sia solo la fase iniziale delle operazioni autonome dei sistemi senza pilota e che l’obiettivo finale sia raggiungere operazioni autonome di sistemi completamente senza pilota.
le armi autonome potenziate dall’intelligenza artificiale influiscono sulla stabilità geopolitica. la stabilità geopolitica dipende dal relativo equilibrio del potere militare regionale. tuttavia, l’uso su larga scala di armi autonome senza pilota avrà inevitabilmente un impatto sul modello originale e porterà a una nuova corsa agli armamenti. prendendo come esempio i singoli paesi egemonici, una volta che le armi autonome potenziate dall’intelligenza artificiale saranno utilizzate su larga scala, i loro scrupoli nell’avviare un intervento militare regionale saranno ridotti e la soglia per l’uso della forza esterna sarà abbassata la stabilità delle regioni interessate dovrà affrontare grandi sfide. inoltre, sempre più attori non statali padroneggiano la tecnologia delle armi autonome e la utilizzano per scopi letali, il che avrà un impatto anche sulla situazione regionale.
il rischio di abusi non può essere ignorato
"l'umanità si trova a un bivio e i sistemi d'arma autonomi presto riempiranno i campi di battaglia del mondo. questo è il 'momento oppenheimer' della nostra generazione." alla conferenza internazionale sulle armi autonome di quest'anno a vienna, il capo del ministero degli affari esteri austriaco schallenberg disse. sebbene l’intelligenza artificiale aiuti attacchi precisi, operazioni differenziate e riduca le perdite materiali, a causa del suo intrinseco “meccanismo della scatola nera” e della “illusione della macchina”, la futura guerra senza pilota dovrà affrontare rischi e sfide inevitabili.
rischio di perdita del comando. fare eccessivo affidamento sull’autonomia delle armi può facilmente aumentare il rischio che il sistema di controllo vada fuori controllo. in un test simulato da parte dell'esercito americano, un drone che eseguiva una missione di soppressione della difesa aerea ha scelto di "uccidere" l'operatore che gli aveva impedito di segnare per guadagnare punti nel test. quando gli è stato "detto" che uccidere l'operatore avrebbe comportato una detrazione di punti, ha guadagnato autonomia attaccando la torre di comunicazione per interrompere la comunicazione dell'operatore con se stesso. sui futuri campi di battaglia reali, il rischio che le armi autonome perdano il controllo non può essere completamente eliminato e le conseguenze saranno ancora più difficili da controllare.
rischio di violenza fuori controllo. la combinazione di intelligenza artificiale e armi significa che la difficoltà di uccidere è significativamente ridotta e l’efficienza e l’intensità delle uccisioni sono notevolmente aumentate, il che può facilmente portare all’espansione e all’escalation dei conflitti armati. tuttavia, gli algoritmi di apprendimento automatico su cui si basa l’intelligenza artificiale sono intrinsecamente imprevedibili e ci sono ancora alcune parti inspiegabili dei meccanismi interni. in casi estremi, gli esseri umani potrebbero addirittura perdere completamente il controllo delle armi autonome e il conseguente disastro umanitario sarà incalcolabile. è proprio riconoscendo questo problema che le nazioni unite chiedono a più parti di formulare norme e linee guida comuni sui sistemi d’arma autonomi e di completare i negoziati pertinenti il ​​prima possibile.
rischi di fallimento etico. le armi letali autonome selezionano e attaccano automaticamente gli obiettivi senza l’intervento umano, il che significa cedere il diritto di privare la vita delle persone naturali a robot spietati. alcuni esperti hanno affermato che dopo aver ceduto il fronte del campo di battaglia alle armi autonome, la percezione degli esseri umani della crudeltà della guerra precipiterà, con conseguenti conseguenze di “war gamification”, che porterà all’uso eccessivo della forza. ciò non è solo una “mancanza di responsabilità morale”, ma rappresenta anche una grave sfida al diritto internazionale umanitario e alla pace e alla sicurezza internazionali, ed è un “onere insopportabile” per l’umanità.
le foto in questa edizione sono tutte immagini di dati
(fonte: rete militare cinese - quotidiano dell'esercito popolare di liberazione)
segnalazione/feedback