notizia

Si è tenuto il 12° vertice sulla sicurezza digitale della conferenza sulla sicurezza Internet

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Fonte: Poste e telecomunicazioni popolari

Il 31 luglio si è tenuto a Pechino il 12° vertice sulla sicurezza digitale della Internet Security Conference (ISC.AI 2024). Con il tema "Costruire un grande modello di sicurezza e guidare la rivoluzione dell'industria della sicurezza", il vertice ha invitato l'industria a utilizzare grandi modelli per rimodellare il sistema di sicurezza e proteggere il costante sviluppo dell'economia digitale. La conferenza ha riunito numerosi accademici ed esperti, nonché leader aziendali nazionali ed esteri come 360, Huawei e Microsoft, per condurre un'analisi approfondita delle sfide e delle soluzioni di sicurezza poste dallo sviluppo della tecnologia dell'intelligenza artificiale e di esplorare congiuntamente nuovi percorsi per lo sviluppo della sicurezza digitale guidati da grandi modelli di sicurezza.

I problemi legati alla sicurezza dell’intelligenza artificiale non possono essere ignorati ed è urgente che l’industria e la ricerca lavorino insieme per esplorare nuove soluzioni. L’applicazione diffusa della tecnologia dell’intelligenza artificiale sta promuovendo la trasformazione e il miglioramento di tutti gli ambiti della vita e, allo stesso tempo, imprimendo un forte impulso allo sviluppo del settore della sicurezza. Wu Shizhong, accademico dell’Accademia cinese di ingegneria, ha affermato che i nuovi problemi di sicurezza portati dalla tecnologia dell’intelligenza artificiale sono diventati realtà e che il settore della sicurezza entrerà rapidamente in una nuova era guidata dall’intelligenza artificiale. Tuttavia, si può dire che i grandi modelli di ricerca sulla sicurezza siano appena iniziati. Che si tratti di ricerca sulla sicurezza o di industria della sicurezza, dobbiamo tenere il passo con il progresso tecnologico e l’innovazione applicativa per servire e garantire un buon sviluppo.

"Attualmente esiste un grave squilibrio tra responsabilità e rischi in materia di sicurezza nei sistemi applicativi di intelligenza artificiale." Wu Jiangxing, accademico dell'Accademia cinese di ingegneria e direttore del Centro nazionale di ricerca sull'ingegneria dei sistemi di commutazione digitale (NDSC), ha sottolineato il dilemma affrontato dall'IA. attuale sistema di intelligenza artificiale. Ha proposto che i problemi di sicurezza dei sistemi applicativi di intelligenza artificiale possano essere scoperti o corretti sulla base di un’architettura di sicurezza endogena. I sistemi applicativi di intelligenza artificiale devono contenere strutture di sicurezza endogene con la necessaria diversità e assiomi relativamente corretti, in modo che si possano trovare risultati relativamente credibili in processi inaffidabili. Nell’era intelligente è necessario scegliere il percorso tecnico corretto per realizzare un sistema applicativo di IA più sicuro.

Con il rapido sviluppo della tecnologia dell’intelligenza artificiale, tutti i settori e i prodotti vengono rimodellati e anche il settore della sicurezza si trova ad affrontare una rivoluzione. Zhou Hongyi, fondatore del Gruppo 360 e presidente della Conferenza ISC, ha affermato che l'essenza dell'uso dell'intelligenza artificiale per rimodellare la sicurezza è rendere la sicurezza "guida autonoma". 360 è il primo a lanciare un grande modello di sicurezza, fornendo funzionalità standard per modelli di grandi dimensioni gratuito per gli utenti che acquistano prodotti standard 360, realizzando l'inclusività del modello su larga scala e nuovi cambiamenti di produttività qualitativa nel settore della sicurezza. In qualità di produttore con il duplice vantaggio di funzionalità di sicurezza digitale e tecnologia AI, 360 si basa su una tecnologia sottostante di grandi modelli full-stack, sulla più grande base di conoscenze sulla sicurezza al mondo, sul più grande team asiatico di esperti senior di sicurezza e su una copertura completa multidominio e forti capacità pratiche. Con le sue capacità di scenario di sicurezza, ha creato il primo modello di sicurezza nazionale "Modello di sicurezza a 360 gradi" e lo ha implementato in molti scenari aziendali come terminali, operazioni di sicurezza e servizi di sicurezza. Al momento, la linea completa di prodotti di sicurezza 360 ha funzionalità di sicurezza integrate per modelli di grandi dimensioni e fornisce funzionalità standard di modelli di grandi dimensioni gratuitamente a tutti gli utenti che acquistano prodotti 360 standard.

Poiché l’intelligenza artificiale generativa guida lo sviluppo dell’IA verso una nuova fase, anche la governance dell’IA è diventata una questione importante. Gong Ke, direttore dell'Advanced Computing and Critical Software (Xinchuang) Haihe Laboratory e direttore esecutivo del China New Generation Artificial Intelligence Development Strategy Research Institute, ha sottolineato nel suo discorso che la governance dell'IA dovrebbe seguire i tre principi dello sviluppo benefico, al servizio delle persone e basato sull’etica. Comprendere chiaramente le carenze della tecnologia stessa, nonché i rischi di uso improprio, abuso e uso improprio della tecnologia dell’intelligenza artificiale da parte degli esseri umani. Ha sottolineato che per impedire che l’IA faccia del male, è necessario stabilire standard etici chiari, aumentare la trasparenza, rafforzare la responsabilità, migliorare leggi e regolamenti e creare meccanismi di sicurezza. Inoltre, dobbiamo aderire all’innovazione aperta e sviluppare un ecosistema di intelligenza artificiale sicuro e controllabile basato sulla fiducia e sull’innovazione. (Su Deyue)