notizia

forum xiangshan di pechino |. come rendere buone le tecnologie emergenti? la cooperazione internazionale dovrebbe essere rafforzata per sviluppare congiuntamente standard di sicurezza

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

sul campo di battaglia del conflitto russo-ucraino, un drone suicida ucraino sorvolava le posizioni militari russe. la telecamera del drone era puntata sulle trincee e scansionata continuamente. quando è stata rilevata l'attività umana, l'intelligenza artificiale l'ha identificata rapidamente e poi si è tuffata per commettere un attacco suicida.
la telecamera si è rivolta al cielo sopra le posizioni militari ucraine sul campo di battaglia russo-ucraino. un aereo da ricognizione senza pilota russo ha condotto una ricognizione sulle posizioni militari ucraine. dopo aver scoperto carri armati e veicoli blindati, il personale delle retrovie ha rapidamente passato queste informazioni al controllo missile da crociera "lancet". il missile da crociera "lancet" vola nelle vicinanze della posizione in cui si trova l'obiettivo. il missile da crociera è inoltre dotato di un sistema di intelligenza artificiale, che può identificare rapidamente carri armati e veicoli blindati e trasportarli attacchi bloccati sul bersaglio, anche se incontra interferenze. è anche capace di attacchi autonomi.
quanto sopra è il filmato di combattimento di droni e missili da crociera rilasciati dagli eserciti russo e ucraino. le prestazioni accattivanti della tecnologia dell'intelligenza artificiale (ai) nel conflitto russo-ucraino hanno attirato grande attenzione e ne promuoveranno notevolmente l'applicazione. tecnologia in campo militare. con il rapido sviluppo di tecnologie emergenti come l’intelligenza artificiale, come garantire l’applicazione sicura di queste tecnologie è diventato il focus di vari paesi durante questo forum xiangshan di pechino.
il 12 settembre è stata organizzata una sessione speciale per interviste di alto livello presso il forum per discutere della sicurezza dell’intelligenza artificiale. il 13 settembre si è svolto il sesto incontro del gruppo del forum "emerging technologies for good", dedicato agli scambi e alle discussioni su come le tecnologie emergenti come l'intelligenza artificiale e la biologia sintetica possano essere utilizzate a fin di bene.
la tecnologia dell’intelligenza artificiale entra nel campo di battaglia
nel 2021, l'ex segretario di stato americano kissinger ha pubblicato il libro "l'era dell'intelligenza artificiale e il futuro dell'umanità", esponendo le sue opinioni sullo sviluppo e sull'impatto dell'intelligenza artificiale. il libro propone che l’intelligenza artificiale rimodellerà la sicurezza globale e l’ordine mondiale e fornisce idee e avvertimenti sull’ascesa dell’intelligenza artificiale. kissinger ritiene che le armi di intelligenza artificiale abbiano tre caratteristiche che le armi nucleari non hanno: sono concentrate nelle grandi aziende e nel settore privato la tecnologia è più facilmente copiabile e quindi facilmente controllabile dalle organizzazioni non governative e anche i piccoli paesi ne hanno l’opportunità; per padroneggiarlo.
il secondo anno dopo la pubblicazione del libro, scoppiò il conflitto russo-ucraino. con il progredire del conflitto, sempre più armi dotate di tecnologia di intelligenza artificiale furono messe sul campo di battaglia: droni, veicoli da combattimento senza pilota, imbarcazioni senza pilota e missili da crociera. ecc. la tecnologia dell'intelligenza artificiale è coinvolta anche nel riconoscimento delle immagini satellitari, nel processo decisionale assistito, nelle contromisure elettroniche e di rete, ecc.
meng xiangqing, professore alla national defense university, ha sottolineato in un'intervista a the paper (www.thepaper.cn) che la prima guerra mondiale è considerata l'inizio della guerra meccanizzata, mentre la guerra del golfo ha dato inizio all'informazione il sipario si è aperto sulla guerra intelligente anche se l’attuale tecnologia dell’intelligenza artificiale potenzia solo leggermente le armi e le operazioni e non ha un grande impatto sulla guerra, ha già annunciato questa tendenza.
attualmente, nel conflitto russia-ucraina, sul campo di battaglia compaiono sempre più armi alimentate dall’intelligenza artificiale. nel marzo di quest’anno, il ministero della difesa britannico ha annunciato che avrebbe aumentato il numero di droni in assistenza all’ucraina da 4.000 a 10.000, migliaia dei quali sono droni dotati di tecnologia di intelligenza artificiale per supportare le sue operazioni sul campo di battaglia. questi droni trasporteranno sensori e sistemi d’arma avanzati, avranno un elevato grado di autonomia e intelligenza e potranno svolgere una varietà di compiti come ricognizione, attacco e difesa in ambienti complessi.
nel gennaio 2023, un articolo intitolato "in che modo l'algoritmo ha rotto l'equilibrio della guerra russia-ucraina?" il rapporto ha rivelato la storia interna della cooperazione delle aziende high-tech statunitensi con il dipartimento della difesa e le agenzie di intelligence degli stati uniti e il loro profondo coinvolgimento nel conflitto russia-ucraina. il rapporto menziona che il software di intelligenza artificiale fornito dalle aziende high-tech americane è ampiamente utilizzato per interpretare le immagini satellitari e trovare obiettivi preziosi.
secondo quanto riferito, l'esercito ucraino ha fatto ampio uso anche del sistema informativo "meta-constellation" della società americana di software civile palantir. attraverso questo sistema, una varietà di sofisticate applicazioni tecnologiche vengono integrate per formare una “catena di uccisione” che consente all’ucraina e ai suoi alleati di vedere i dati attualmente disponibili in una specifica area di combattimento. il riconoscimento dei target delle immagini satellitari è un problema importante e complesso. l’interpretazione manuale tradizionale deve affrontare molte sfide e la capacità dell’intelligenza artificiale basata sull’apprendimento profondo può svolgere un ruolo importante nell’interpretazione delle immagini satellitari, fornendo una nuova soluzione per il piano di riconoscimento dei target delle immagini satellitari.
la russia utilizza anche armi dotate di intelligenza artificiale sul campo di battaglia del conflitto russo-ucraino. ad esempio, l'intelligenza artificiale del missile da crociera "lancet-3" viene utilizzata per la ricerca e l'identificazione degli obiettivi e può trovare e attaccare in modo indipendente. obiettivi predeterminati. sul campo di battaglia sono apparsi anche veicoli da combattimento senza pilota russi, come il veicolo di sminamento senza pilota mt-1 e il veicolo da combattimento senza pilota "mark".
per adattarsi alle guerre future, nel 2022 il ministero della difesa russo ha istituito un dipartimento di ricerca sulle armi con intelligenza artificiale per rafforzare l’uso della tecnologia dell’intelligenza artificiale e sviluppare nuove attrezzature speciali.
anche un altro conflitto di alto profilo, il conflitto israelo-palestinese, prevede l’utilizzo sul campo di battaglia di molte armi dotate di tecnologia di intelligenza artificiale. secondo i rapporti, quando israele ha attaccato gaza, ha utilizzato un sistema di intelligenza artificiale chiamato "lavender" per identificare i militanti di hamas. in passato, il dipartimento di intelligence israeliano avrebbe lavorato in 10 giorni hanno trovato e approvato 10 target in 10 giorni di lavoro e ora possono trovare e approvare circa 100 target in 10 giorni di lavoro.
inoltre, l’intelligenza artificiale modifica e genera immagini e video, che possono essere utilizzati anche nella guerra dell’informazione in tempo di guerra o nella guerra dell’opinione pubblica. un articolo intitolato “l’intelligenza artificiale generativa gioca un ruolo sorprendente nella guerra di disinformazione tra israele e hamas” sul sito americano “wired” affermava che lo scoppio del conflitto israelo-palestinese ha innescato una “disinformazione” senza precedenti tide”, il “programma guidato da algoritmi”. nebbia di guerra” che mette in difficoltà i social media.
la via da seguire è lo sviluppo congiunto di norme di sicurezza
al momento, il rapido sviluppo di tecnologie emergenti come l’intelligenza artificiale e la biologia sintetica sta liberando un enorme valore applicativo, ma comporta anche rischi e sfide imprevedibili, che sono legati agli interessi di tutta l’umanità diventare una preoccupazione per tutti i paesi.
in un'intervista di alto livello sulla "sicurezza dell'intelligenza artificiale" al forum xiangshan di pechino, il dottor chande, ricercatore presso l'istituto statunitense per le analisi della difesa ed ex vicesegretario alla difesa degli stati uniti, ha affermato che i droni controllati dall'intelligenza artificiale sono stati utilizzati su sul campo di battaglia russo-ucraino, così come a gaza, anche gli eserciti di altri paesi stanno prendendo in considerazione applicazioni legate all’intelligenza artificiale, ma ora si discute anche della sicurezza e della governance dell’intelligenza artificiale, anch’essa un’area che non è stata ancora affrontata. coinvolto.
quando si parla di sicurezza e rischi dell’intelligenza artificiale, questioni come se l’intelligenza artificiale possa prendere decisioni autonome, se sia affidabile e come gestire i rischi che l’intelligenza artificiale può comportare hanno attirato molta attenzione.
l’opacità della “scatola nera” degli algoritmi di intelligenza artificiale comporta rischi per la sicurezza e rende le questioni legate alla fiducia sociale sempre più complesse. a questo proposito, hu ang, illustre professore presso l'istituto di tecnologia di produzione dell'università di tokyo e accademico straniero dell'accademia giapponese di ingegneria, ha affermato che la questione fondamentale è se la "scatola nera" dell'intelligenza artificiale sia affidabile. a suo avviso, il cervello umano è insostituibile: "almeno in un breve periodo di tempo, l'intelligenza artificiale difficilmente potrà sostituire il cervello umano nel processo decisionale".
lampros stégioulas, cattedra unesco in intelligenza artificiale e scienza dei dati per lo sviluppo sociale e professore di scienza dei dati all’università di scienze applicate dell’aia nei paesi bassi, ha sottolineato: “tutti i tecnici umani commettono errori, per non parlare delle macchine?” problema? essere in grado di sostituire il cervello umano nel processo decisionale autonomo è una questione filosofica oltre che pratica”.
reference news network ha riferito nel luglio di quest'anno che il sito web americano fun science ha pubblicato a giugno un articolo "disastrous mistakes made by artificial intelligence" l'articolo elencava esempi "catastrofici" di intelligenza artificiale e ricordava che i rischi dell'intelligenza artificiale non possono essere ignorati.
secondo quanto riferito, un’indagine della bbc ha scoperto che le piattaforme social utilizzano l’intelligenza artificiale per rimuovere video di possibili crimini di guerra, azioni che potrebbero negare alle vittime un legittimo ricorso in futuro. le piattaforme sociali svolgono un ruolo chiave nelle guerre e nei disordini sociali, spesso come mezzo di comunicazione per le persone a rischio. dall'indagine è emerso che, mentre i contenuti grafici di interesse pubblico potevano rimanere sul sito, i video sugli attacchi in ucraina sono stati rapidamente rimossi.
questi esempi "disastrosi" compaiono anche nella vita quotidiana delle persone. google immagini ha dovuto cancellare questa funzione dopo che sono apparse immagini di persone di colore durante la ricerca di gorilla sul suo software ai. altre società, inclusa apple, hanno dovuto affrontare azioni legali per accuse simili.
shi chande ritiene che i problemi di sicurezza legati all’intelligenza artificiale coinvolgano tutti gli aspetti, compresa la difesa nazionale e il sostentamento delle persone. pertanto, ha suggerito che i paesi raggiungano accordi multilaterali per mitigare i rischi per la sicurezza dell’intelligenza artificiale.
secondo dai qionghai, preside della scuola di scienze e tecnologie dell'informazione dell'università di tsinghua e accademico dell'accademia cinese di ingegneria, lo sviluppo dell'intelligenza artificiale entrerà nella corsia di sorpasso nei prossimi tre anni. a causa dell’imprevedibilità dello sviluppo dell’intelligenza artificiale, l’etica e la governance devono essere in primo piano e i rischi per la sicurezza delle applicazioni dell’intelligenza artificiale devono essere ridotti in modo che possano avvantaggiare l’umanità.
secondo gli esperti, è particolarmente importante rafforzare la cooperazione internazionale nel campo dell’intelligenza artificiale, in particolare la cooperazione tra i principali paesi. la formulazione congiunta di standard di sicurezza può consentire all’intelligenza artificiale di apportare maggiori benefici all’umanità.
il 14 maggio di quest’anno si è tenuto a ginevra, in svizzera, il primo incontro del dialogo intergovernativo cina-usa sull’intelligenza artificiale. le due parti hanno presentato le rispettive opinioni e misure di governance sui rischi della tecnologia dell’intelligenza artificiale, nonché le misure adottate per promuovere l’intelligenza artificiale per potenziare lo sviluppo economico e sociale. entrambe le parti hanno riconosciuto che lo sviluppo della tecnologia dell’intelligenza artificiale comporta sia opportunità che rischi e hanno ribadito il loro costante impegno ad attuare l’importante consenso raggiunto dai due capi di stato a san francisco.
secondo shi chande, cina e stati uniti devono garantire che la comunicazione possa continuare. "nel campo delle nuove tecnologie, le due parti stanno gradualmente raggiungendo un certo grado di parità o equilibrio, che potrebbe portare a conversazioni più sincere e approfondite tra le due parti. dobbiamo garantire che continuino a lavorare duramente per mantenere la comunicazione ." disse shizande.
il giornalista del giornale xie ruiqiang
(questo articolo è tratto da the paper. per informazioni più originali, scarica l'app “the paper”)
segnalazione/feedback