notizia

I modelli di grandi dimensioni creano terreno fertile per la contraffazione profonda e l’industria richiede sforzi congiunti interdisciplinari per contrastare la tecnologia della contraffazione

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·Lo sviluppo della tecnologia di identificazione della contraffazione richiede una cooperazione interdisciplinare. L'attuale tecnologia di identificazione della contraffazione si basa principalmente su algoritmi software e in futuro si sposterà verso l'integrazione di software e hardware.


L’ascesa di modelli di grandi dimensioni ha gettato le basi per una profonda contraffazione e l’industria ha richiesto sforzi congiunti interdisciplinari per contrastare la tecnologia della contraffazione.

Nell’era dei modelli di grandi dimensioni, i confini tra il parlato sintetizzato dall’intelligenza artificiale e il parlato reale stanno diventando sempre più sfumati ed è urgente migliorare la tecnologia di riconoscimento della corrispondenza. Il 23 luglio si sono svolte a Shanghai le finali della nona competizione globale sugli algoritmi di intelligenza artificiale della Xinye Technology Cup, con il tema del riconoscimento della falsificazione vocale profonda. I partecipanti sono stati incoraggiati a utilizzare contromisure di deep learning e intelligenza artificiale per sviluppare algoritmi in grado di identificare con precisione false voci.

Deepfake è un metodo che utilizza la tecnologia del deep learning e dell'intelligenza artificiale per generare contenuti falsi altamente realistici. L'ascesa di modelli di grandi dimensioni ha creato il terreno per profonde contraffazioni. Basta inserire una parola e il sistema di intelligenza artificiale produrrà immagini, video e audio, rendendo difficile distinguere il vero dal falso.

Prendendo come esempio le voci false, i modelli di grandi dimensioni possono generare una varietà di voci false. Queste voci false sono più realistiche, antropomorfe e hanno conversazioni fluide, il che comporta maggiori sfide per il riconoscimento delle false voci. "In alcuni scenari di alto valore, spesso si verificano frodi vocali generate dall'intelligenza artificiale. Tuttavia, l'attuale sviluppo della tecnologia di identificazione vocale è in ritardo rispetto alla tecnologia di sintesi vocale", ha affermato Chen Lei, vicepresidente di Xinye Technology e responsabile dei big data e dell'intelligenza artificiale.

Nelle finali, i concorrenti hanno utilizzato diversi modelli di algoritmi e idee di formazione per identificare i falsi discorsi, inclusa la tecnologia di riconoscimento basata su grandi modelli e la tradizionale tecnologia di riconoscimento end-to-end. La tecnologia di riconoscimento end-to-end ha un numero inferiore di parametri e si concentra su problemi più verticali; il modello di grandi dimensioni ha un numero maggiore di parametri, ha requisiti di dati più elevati e ha una forte capacità di generalizzazione del tasso di riconoscimento dei dati vocali falsi generati dal modello grande è stato notevolmente migliorato.

Secondo Lu Qiang, uno scienziato specializzato in algoritmi presso Xinye Technology, il set di dati vocali per la competizione preliminare consiste principalmente in discorsi falsi generati dal tradizionale TTS end-to-end (text-to-speech), che è meno difficile da identificare per la prima volta, il set di dati delle semifinali aggiunge discorsi falsi generati sulla base dell'ultimo modello di grandi dimensioni, trascrive voci false e campioni uniti insieme da lingue reali e false, coprendo più di cinque lingue come inglese, francese, ecc. e spagnolo, e la difficoltà della competizione aumenta. "L'aggiunta di voci false generate da grandi modelle nelle semifinali ha reso la competizione più difficile, il che dimostra anche che la capacità delle ultime grandi modelle di 'mascherare i falsi come veri' è diventata più forte, il che richiede una corrispondente tecnologia di riconoscimento deepfake per tenere il passo."

"Abbiamo deliberatamente aggiunto alcuni nuovi dati di scena al concorso, come l'estrazione di voci false, che sono dati generati dopo più registrazioni di voci reali. Pensiamo che si tratti di voci false, ha detto Lu Qiang, per questo scenario, il concorso utilizza voci reali e suddivisione e miscelazione del discorso falso per costruire dati contraddittori per evitare l'ascolto artificiale del discorso e l'etichettatura per interferire con la competizione. "Finché una fetta è un discorso falso, l'intera fetta è un discorso falso. Questo è più vicino alla scena reale, ma il riconoscimento La sfida è enorme. Se il problema dello strappo e il confronto tra autenticità e falsità potranno essere risolti, avrà valore accademico. "Lv Qiang ha anche affermato che le informazioni multimodali come testo e video aiuteranno nel rilevamento della falsificazione del parlato e i modelli di grandi dimensioni e la multimodalità costituiranno la chiave per individuare un'importante direzione di sviluppo.

La tecnologia della contraffazione e la tecnologia dell'identificazione della contraffazione "corrono" e lo sviluppo delle due è in rapida crescita. Chen Lei ha affermato che la ricerca sui modelli linguistici di grandi dimensioni dovrebbe astrarre e perfezionare i problemi applicativi in ​​problemi accademici, dopo aver risolto i problemi accademici, dovrebbero essere progettati per risolvere le reali esigenze di specifici scenari aziendali. Lo sviluppo della tecnologia anticontraffazione richiede una cooperazione interdisciplinare. L'attuale tecnologia anticontraffazione si basa principalmente su algoritmi software. In futuro, integrerà software e hardware con l'aiuto della raccolta dei suoni di tracciabilità dell'hardware, può prevenire e controllare i falsi rischi vocali a livello hardware.

"Non esiste un punto finale per il rilevamento della contraffazione. Finché il percorso generativo non sarà giunto al termine, il rilevamento della contraffazione continuerà a diminuire." Chen Lei ha affermato che dopo la partita, Xinye Technology renderà i dati open source e li utilizzerà ricerca accademica più ampia per desensibilizzare i materiali dei concorrenti. Allo stesso tempo, assorbe idee modello all’avanguardia in scenari aziendali e costruisce una piattaforma anticontraffazione AIGC. Ritiene che l’intelligenza artificiale generativa debba rispettare le regole di governance. La governance dell’intelligenza artificiale richiede una progettazione di alto livello da parte dei regolatori per standardizzarla e guidarla. Chiede inoltre la co-costruzione ecologica e la co-creazione industriale per prevenire rischi sistemici.