notizia

Dopo aver riempito il cherosene, mettere l'olio da cucina? L’intelligenza artificiale può dire la differenza! Accademici ed esperti sottolineano che la sicurezza dell'intelligenza artificiale deve avere "persone coinvolte"

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Riepilogo:L’intelligenza artificiale e la società umana hanno in realtà un rapporto simbiotico, che comprende relazioni ausiliarie, interazione uomo-computer, rapporti umani nel circuito e relazioni competitive.


Secondo i rapporti, l'autocisterna ha riempito l'autocisterna con cherosene, senza pulire il serbatoio, e poi lo ha riempito con olio da cucina. Un'operazione così "ampia" ha messo in discussione le preoccupazioni del pubblico sulla sicurezza alimentare. L’“AI Eye” basato sull’intelligenza artificiale potrebbe essere in grado di vigilare tempestivamente su tali violazioni.

"Utilizzo di telecamere esistenti e aggiunte di recente alle stazioni di servizio e utilizzo della modalità di analisi video cloud per identificare i comportamenti durante il processo di scarico, rifornimento di carburante, scarico, rifornimento di gas, scarico e aggiunta di liquidi, allarmi, statistiche e analisi di azioni anomale per stabilire una gestione intelligente Piattaforma della stazione di servizio." Il 2, il 12° Internet Security Conference Shanghai AI Summit, tenutosi presso il China-Israel Innovation Park nel distretto di Putuo, ha rivelato che l'implementazione della piattaforma di analisi video intelligente AI sulle risorse cloud di China Telecom e la sua implementazione nel settore energetico aziende, 300 analisi AI dei comportamenti nell'area di scarico del petrolio utilizzando flussi video stradali consentono l'identificazione di autocisterne, l'identificazione di estintori, il rilevamento di prodotti petroliferi e il rilevamento di oleodotti.


Parco dell’innovazione Cina-Israele (Shanghai).

[Le frodi deepfake basate sull'intelligenza artificiale aumentano del 3000%]

In effetti, i grandi modelli di intelligenza artificiale stanno rafforzando la governance sociale in grandi quantità, aiutando a risolvere i problemi di sostentamento delle persone e migliorando il senso di sicurezza delle persone. Wei Wenbo, vice direttore generale del dipartimento di output business di China Telecom Artificial Intelligence Technology Co., Ltd., ha fornito esempi, come la supervisione intelligente della ristorazione per garantire "cucine e stufe luminose", la sicurezza delle strade e dei villaggi per prendersi cura degli anziani e prevenire l'annegamento e un controllo intelligente del deposito dei rifiuti e del parcheggio dei veicoli elettrici Con la standardizzazione, anche andare in bicicletta senza indossare il casco può "distinguere e differenziare chiaramente".

Tuttavia, anche l’intelligenza artificiale stessa presenta inevitabilmente problemi di sicurezza. Dal cambiamento del volto dell'IA al cambiamento della voce dell'IA, il "Rapporto sulla sicurezza dell'intelligenza artificiale 2024" mostra che l'intelligenza artificiale non solo amplifica le minacce alla sicurezza della rete esistenti, ma introduce anche nuove minacce, innescando un aumento esponenziale degli incidenti di sicurezza della rete. Nel 2023, le frodi di contraffazione profonda basate sull’intelligenza artificiale aumenteranno del 3.000% e il numero di e-mail di phishing basate sull’intelligenza artificiale aumenterà del 1.000%.

Liu Quan, accademico straniero dell'Accademia russa di scienze naturali e vice ingegnere capo del CCID Research Institute, ha citato un sondaggio condotto tra i leader del settore IT su modelli di grandi dimensioni come ChatGPT, da cui è emerso che il 71% degli intervistati ritiene che l'intelligenza artificiale generativa migliorerebbe la sicurezza dei dati delle imprese comporterebbe nuovi rischi. Per evitare la fuga di dati sensibili, aziende tecnologiche come Microsoft e Amazon hanno addirittura limitato o vietato ai propri dipendenti l’utilizzo di strumenti di intelligenza artificiale generativa.


Vertice sull'intelligenza artificiale di Shanghai.

["Utilizza stampi per creare stampi" per garantire la sicurezza nella "Battaglia di centinaia di modelli"]

Generazione multimodale, emergenza di modelli di grandi dimensioni. Finora, solo nel mio paese, il numero di modelli di grandi dimensioni che hanno superato la doppia registrazione ha raggiunto i 117. Secondo le statistiche del "Libro bianco di Pechino sull'applicazione innovativa di modelli di grandi dimensioni nell'industria dell'intelligenza artificiale (2023)", a ottobre dello scorso anno, nel mio paese c'erano 254 fornitori di modelli di grandi dimensioni con parametri "oltre un miliardo". Attualmente sono disponibili modelli domestici su larga scala con centinaia di miliardi di parametri e anche il numero di neuroni nel cervello umano è dell’ordine di 100 miliardi. IDC prevede che il mercato cinese dei modelli di grandi dimensioni dell’IA raggiungerà i 21,1 miliardi di dollari entro il 2026.

Quando l’intelligenza artificiale entra in un periodo critico per l’implementazione su larga scala, questi nuovi rischi, che vanno dalle fughe di privacy, alla discriminazione degli algoritmi e alla distorsione dei dati, pongono anche gravi sfide allo sviluppo di alta qualità dell’intelligenza artificiale. He Fan, chief product officer di 360 Digital Intelligence Group, ha affermato che nell'era dei grandi modelli è necessario "usare stampi per modellare" per garantire la sicurezza, il che significa utilizzare i big data di sicurezza accumulati negli ultimi 20 anni e aggiungere conoscenze specialistiche per addestrare grandi modelli di sicurezza di alto livello.

Chen Xiaohang, vicedirettore generale del Dipartimento della rete informatica della filiale di China Telecom Shanghai, ha anche detto al giornalista del Liberation Daily Shangguan News che nella "Battaglia di centinaia di modelli", i modelli di grandi dimensioni sono intrinsecamente "carta bianca" e richiedono una "educazione" costante. e "formazione", quindi dovrebbero controllare la direzione dell'opinione pubblica alla fonte e filtrare le informazioni spazzatura nel processo per evitare che i grandi modelli vengano "indirizzati male".


Conferenza ISC sulla sicurezza Internet.

[Il rapporto competitivo tra uomo e macchina richiede “people in the loop”]

Come tutti sappiamo, la natura “scatola nera” dei modelli di intelligenza artificiale rende i loro processi decisionali difficili da spiegare, il che è particolarmente critico in settori ad alto rischio come la finanza e l’assistenza medica. Sia le autorità di regolamentazione che i clienti del settore devono comprendere le basi per le decisioni sui modelli per garantire la trasparenza e l’equità dei loro modelli di credit scoring. Allo stesso tempo, lo stesso modello di intelligenza artificiale potrebbe presentare vulnerabilità di sicurezza. Ad esempio, gli hacker possono attaccare tramite campioni contraddittori, facendo sì che il modello produca output errati rispetto a input apparentemente normali, causando rischi per la sicurezza.

Agli occhi dell'accademico Liu Quan, le evidenti caratteristiche di "arma a doppio taglio" dell'intelligenza artificiale hanno portato molti benefici e enormi sfide all'umanità. L'intelligenza artificiale e la società umana sono in realtà in una relazione simbiotica, comprese le relazioni ausiliarie, l'interazione uomo-computer. relazioni umane e competitive. È vero che con il rapido sviluppo dall’intelligenza artificiale debole all’intelligenza artificiale forte, il 90% dei posti di lavoro con personale può essere sostituito dall’intelligenza artificiale come “lavori senza personale”. E il 10% delle persone che non vogliono stare a riposo devono avere enormi quantità di dati e forti capacità operative di intelligenza artificiale.

Nel film "The Wandering Earth 2", il robot MOSS esprimeva il concetto di "Human In Loop" e aveva anche l'idea di "distruggere l'umanità". Ciò dimostra ulteriormente che solo l’iterazione dell’intelligenza artificiale guidata dall’uomo può formare un sistema a circuito chiuso uomo-macchina. Includendo le garanzie di sicurezza dell’intelligenza artificiale, le macchine non possono fare a meno dell’intervento umano in qualsiasi momento. Liu Quan ha affermato che, in sostanza, l’intelligenza artificiale non può sostituire il modo in cui pensano gli esseri umani, né può sostituirli completamente. Altrimenti, lo sviluppo dell’intelligenza artificiale potrebbe perdere il suo significato originale.