Shi Qian e Xiao Chao|Costruire una solida linea di difesa per il sistema di supervisione della sicurezza dell'intelligenza artificiale
2024-08-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
L'immagine mostra il robot Tesla Optimus Prime. Foto del nostro giornalista Yuan Jing
La terza sessione plenaria del 20° Comitato Centrale del Partito Comunista Cinese ha proposto: "Rafforzare la costruzione del sistema di sicurezza della rete e istituire un sistema di supervisione della sicurezza dell'intelligenza artificiale. Si tratta di un importante intervento del Comitato Centrale del Partito per coordinare lo sviluppo". e sicurezza e rispondere attivamente ai rischi per la sicurezza legati all’intelligenza artificiale. Per prevedere e rispondere efficacemente ai rischi derivanti dallo sviluppo della tecnologia dell’intelligenza artificiale, nonché all’impatto reale portato dall’applicazione dell’intelligenza artificiale, e per promuovere efficacemente l’applicazione e lo sviluppo della tecnologia dell’intelligenza artificiale, dobbiamo analizzare in profondità le nuove caratteristiche dei rischi sociali causati dalla tecnologia intelligente e guardare avanti ai rischi sociali Sono necessari previsione, moderazione scientifica e guida corretta per costruire un sistema completo di gestione del rischio sociale di intelligenza artificiale che tenga conto dello sviluppo e della sicurezza e dia slancio al miglioramento. l’efficienza della governance sociale.
Quattro nuove caratteristiche dei rischi sociali nell’era dell’intelligenza artificiale
Attualmente il mondo è entrato in un’era di “società del rischio” con elevata incertezza. La tecnologia dell’intelligenza artificiale sta cambiando la logica operativa e le regole della società moderna. I valori e i comportamenti della società umana vengono sistematicamente ricostruiti e i rischi sociali che ne derivano Presenta principalmente quattro nuove caratteristiche: spread, cascata, derivata e isteresi:
Innanzitutto, l’intelligenza artificiale ha aumentato la velocità e la portata della diffusione delle informazioni sui rischi, e i rischi sociali sono contagiosi. La tecnologia dell'intelligenza artificiale riduce la difficoltà di generazione delle informazioni e aumenta l'ampiezza e la profondità della diffusione delle informazioni. La diffusione delle informazioni amplia la portata dell'impatto degli eventi di rischio, formando una natura altamente contagiosa. Allo stesso tempo, l’intelligenza artificiale può identificare e amplificare le emozioni e i comportamenti degli utenti attraverso l’analisi del sentiment e la previsione del comportamento. Se un tipo di evento di rischio innesca forti reazioni emotive come panico e rabbia, il sistema di intelligenza artificiale può dare priorità alla raccomandazione e alla diffusione di questo tipo di informazioni, aggravando ulteriormente il sentimento pubblico e rendendo le informazioni sul rischio altamente contagiose e contagiose Una supervisione e un controllo efficaci avranno un grande impatto sulla sicurezza sociale e sull’ordine sociale.
In secondo luogo, l’intelligenza artificiale sfuma i confini virtuali e reali dei sistemi sociali e i rischi sociali stanno aumentando a cascata. La tecnologia dell’intelligenza artificiale rende persone e persone, persone e cose, e cose e cose altamente accoppiate. I confini tra il mondo virtuale e il mondo reale diventano sfumati, formando un sistema di rete complesso. Molte attività sociali sono condotte attraverso piattaforme virtuali e integrate in situazioni di vita reale. La fuga di dati nel mondo virtuale può portare al furto di identità nel mondo reale. L’opinione pubblica sui social media può influenzare rapidamente il comportamento sociale e il processo decisionale nel mondo reale . Al contrario, gli incidenti di sicurezza nel mondo reale influenzeranno anche la sicurezza del mondo virtuale attraverso la trasmissione dei dati, e l’interazione tra virtuale e reale causerà un effetto a cascata di rischi sociali. Potenziati dalla tecnologia intelligente, i diversi sistemi sociali sono altamente interconnessi e molti processi decisionali sono automatizzati. Tuttavia, decisioni errate da parte di sistemi automatizzati possono innescare una serie di reazioni a catena, portando alla diffusione a cascata dei rischi.
In terzo luogo, l’intelligenza artificiale ha innescato una serie di rischi secondari e catene di rischio, e i rischi sociali sono derivati. L’applicazione della tecnologia dell’intelligenza artificiale può causare rischi iniziali e, nel processo di risoluzione o mitigazione dei rischi, causerà ulteriormente una serie di rischi secondari, formando una complessa catena di rischi. Gli eventi di rischio possono diffondersi rapidamente tra diversi ambiti ed essere trasmessi a più livelli, formando rischi secondari. Ad esempio, gli attacchi informatici non solo portano alla fuga di informazioni, ma possono anche causare incidenti reali come ingorghi, guasti alle apparecchiature mediche, ecc., influenzando l’Internet delle cose. Errori nei dati o algoritmi non corretti possono dar luogo anche ad una serie di rischi secondari. Prendiamo ad esempio il pregiudizio algoritmico. Il meccanismo decisionale ingiusto da esso causato spesso porta a insoddisfazione e conflitto sociale. Gli eventi di rischio di solito causano cambiamenti nel comportamento e nella psicologia del pubblico, generando ulteriormente nuovi rischi secondari e formando una catena di rischio.
In quarto luogo, l’intelligenza artificiale nasconde l’impatto di alcuni eventi di rischio e i rischi sociali hanno una natura ritardata. La tecnologia dell’intelligenza artificiale si basa su grandi quantità di dati per la formazione e le operazioni e si affida ad algoritmi per il processo decisionale. La fuga o l’abuso di dati potrebbero non avere un impatto evidente immediato. Il processo decisionale e i risultati potrebbero non presentare problemi a breve termine , ma con il passare del tempo l’abuso dei dati potrebbe verificarsi e gli effetti cumulativi delle distorsioni algoritmiche emergeranno nel tempo. Allo stesso tempo, la tecnologia dell’intelligenza artificiale dipende anche fortemente dalle infrastrutture tecniche e dai sistemi di automazione. Questi guasti di sistema o difetti di progettazione potrebbero non essere facili da individuare a breve termine, ma nel tempo il graduale accumulo di problemi può portare a rischi sistemici. . L’applicazione della tecnologia intelligente ha un profondo impatto sul comportamento sociale e sulla psicologia. Ad esempio, l'uso a lungo termine di sistemi di raccomandazione intelligenti può portare a un effetto bozzolo di informazioni, restringendo la visione dell'utente, influenzando così la diversità e l'inclusione della società.
Quattro strategie per raggiungere una “governance orientata all’intelligenza artificiale”
Per rispondere efficacemente ai rischi sociali e alle nuove caratteristiche che possono essere causate dallo sviluppo della tecnologia dell’intelligenza artificiale, il tradizionale modello di governance del rischio deve essere modificato in modo mirato, utilizzando la tecnologia dell’intelligenza artificiale per migliorare l’efficienza dell’identificazione dei rischi e allarme tempestivo e raggiungere l'obiettivo di una "governance basata sull'intelligenza artificiale". Allo stesso tempo, dovremmo prevenire e mettere in guardia efficacemente contro i possibili rischi causati dall'applicazione della tecnologia dell'intelligenza artificiale, realizzare una "governance orientata all'intelligenza artificiale" e costruire una logica di governance bidirezionale in cui "la tecnologia rafforza la governance sociale e la governance previene l'abuso della tecnologia".
Innanzitutto, utilizzare dati multimodali per identificare relazioni interattive complesse e migliorare l’accuratezza dell’identificazione dei rischi e dell’allarme precoce. I dati multimodali si riferiscono a dati ottenuti da diversi campi o prospettive per lo stesso oggetto descrittivo e vengono utilizzati per rappresentare diverse forme di dati o diversi formati della stessa forma. La tecnologia di fusione dei dati multimodale può estrarre e utilizzare completamente le informazioni complementari tra i dati, caratterizzare in modo più completo le caratteristiche degli oggetti, identificare o dedurre relazioni interattive più complesse e ottenere percezione in tempo reale, analisi di correlazione e previsione della situazione di sistemi giganti sociali complessi può migliorare l'accuratezza dell'identificazione del rischio, costruire una valutazione del rischio più flessibile e un quadro di allarme rapido e ottenere una gestione e un controllo del rischio lungimiranti e dinamici. Può anche integrare efficacemente i processi decisionali indipendenti nel processo di avvertenza e risposta al rischio fornire a diverse entità decisionali Fornire metodi e strumenti di base per la collaborazione. Pertanto, è possibile analizzare in modo completo i dati provenienti da diverse modalità come testo, immagini, audio e dati dei sensori integrando diversi dati modali provenienti da diversi campi e applicare tecnologie come l'apprendimento automatico e il deep learning per identificare complesse relazioni interattive tra i dati. . Promuovere la collaborazione multilaterale tra governi, imprese, organizzazioni sociali, istituzioni accademiche, ecc., stabilire un meccanismo di condivisione delle informazioni tra dipartimenti, integrare risorse di dati multimodali, costruire un sistema di allarme rapido in tempo reale e scoprire e allertare tempestivamente il potenziale rischi.
In secondo luogo, sviluppare piani personalizzati di gestione del rischio basati sullo sviluppo e sul livello di applicazione della tecnologia intelligente per prevenire la concentrazione dello stress da rischio. A causa delle differenze nello sviluppo economico e sociale e nei livelli di applicazione della tecnologia dell’intelligenza artificiale tra le diverse regioni, che a loro volta portano a incoerenze nelle capacità di risposta al rischio, la diffusione interregionale e l’evoluzione dei rischi sociali non sono uniformi. È necessario formulare piani personalizzati di gestione del rischio basati sull’effettivo sviluppo regionale, ridurre lo stress locale attraverso la collaborazione multi-agente e multi-regionale ed evitare danni strutturali al sistema sociale. Pertanto, la governance del rischio della tecnologia dell’intelligenza artificiale deve prima valutare il livello di applicazione della tecnologia dell’intelligenza artificiale in diverse regioni, analizzare le capacità di risposta al rischio comprese le risorse di emergenza, le infrastrutture tecniche e le capacità di gestione e identificare i punti di forza e di debolezza della risposta al rischio regionale. Sviluppare strategie personalizzate di gestione del rischio in base alle condizioni specifiche delle diverse regioni. Ad esempio, le aree economicamente sviluppate possono concentrarsi sul rafforzamento della sicurezza tecnica e della protezione dei dati, mentre le aree economicamente sottosviluppate devono migliorare la costruzione delle infrastrutture e la divulgazione della tecnologia. Attraverso il sostegno politico e gli investimenti di capitale, promuoveremo il miglioramento del livello di applicazione della tecnologia intelligente nelle aree tecnologicamente arretrate e ridurremo il divario tecnologico e le capacità di risposta al rischio tra le regioni.
In terzo luogo, dobbiamo bilanciare lo sviluppo tecnologico e la regolamentazione del rischio, ottimizzare il costo totale della gestione del rischio e garantire che la tecnologia dell’intelligenza digitale sia “gestibile” e “flessibile”. La governance del rischio dell’intelligenza artificiale deve tenere conto sia della “sicurezza” che dello “sviluppo”, non solo per evitare perdite economiche e sociali causate dal fallimento della governance, ma anche per prevenire la riduzione dei benefici economici e sociali causati da una governance eccessiva. Il costo della governance del rischio dell’intelligenza artificiale comprende molti fattori di costo come i costi di prevenzione del rischio quando il meccanismo di governance è in vigore e fallisce, i costi del fallimento sociale e i costi della perdita di benefici sociali. L'intensità della supervisione può essere adeguata tempestivamente in base alla maturità della tecnologia e degli scenari applicativi. Nella fase iniziale della tecnologia, viene adottata una supervisione flessibile per incoraggiare l’innovazione; nella fase matura della tecnologia, la supervisione viene rafforzata per garantire sicurezza e standardizzazione. Quando si formulano strategie di governance del rischio, è necessario quantificare i diversi elementi di costo, condurre analisi costi-benefici e selezionare il piano di governance ottimale per controllare efficacemente i rischi ed evitare costi di governance non necessari. Allo stesso tempo, al fine di ridurre efficacemente i costi di gestione del rischio, è possibile fornire sostegno politico e finanziario per incoraggiare le imprese e gli istituti di ricerca scientifica a realizzare innovazioni tecnologiche di sicurezza e, promuovendo al contempo l'innovazione tecnologica di intelligenza artificiale, garantire lo sviluppo simultaneo di misure di sicurezza .
Infine, dobbiamo studiare e valutare in anticipo i rischi sociali che potrebbero derivare dallo sviluppo della tecnologia dell’intelligenza artificiale e formulare adeguatamente sistemi e standard di supervisione del rischio sociale dell’intelligenza artificiale. Il rapido sviluppo e l’iterazione della tecnologia dell’intelligenza artificiale sono spesso più rapidi della formulazione e dell’adeguamento delle politiche e delle leggi, con il risultato di un certo ritardo negli standard politici di governance per l’intelligenza artificiale. Pertanto, è necessario integrare l’applicazione della tecnologia dell’intelligenza artificiale nella governance sociale, formulare sistemi di supervisione della sicurezza e standard di settore pertinenti per i rischi sociali dell’intelligenza artificiale e garantire che le politiche e le leggi possano tenere il passo con lo sviluppo tecnologico promuovendo al tempo stesso la costruzione e lo sviluppo di scenari di applicazione della tecnologia intelligente. Le tendenze di sviluppo della tecnologia dell’intelligenza artificiale dovrebbero essere analizzate regolarmente, dovrebbero essere effettuate valutazioni complete da molteplici dimensioni quali tecnologia, etica, diritto, economia e società, dovrebbe essere istituito un meccanismo di allarme precoce dei rischi legati all’intelligenza artificiale e dovrebbero essere scoperti i potenziali rischi portati dalle tecnologie emergenti e previste in modo tempestivo, e la ricerca e la formulazione dovrebbero essere effettuate Politiche e normative flessibili e lungimiranti. Inoltre, dovremmo partecipare attivamente alla formulazione di standard e regolamenti internazionali, istituire una piattaforma di cooperazione transnazionale, promuovere la cooperazione e gli scambi tra i paesi nella governance dell’intelligenza artificiale e rispondere congiuntamente ai rischi e alle sfide tecnologiche globali.
(Affiliazione dell’autore: School of Economics and Management, Tongji University)
autore:
Testo: Shi Qian Xiao Chao Immagine: Yuan Jing Redattore: Chen Yu Redattore: Yang Yiqi
Si prega di indicare la fonte quando si ristampa questo articolo.