nouvelles

Les grands modèles constituent un terrain propice à la contrefaçon profonde, et l'industrie appelle à des efforts conjoints interdisciplinaires pour lutter contre la technologie de la contrefaçon.

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

·Le développement de la technologie d'identification des contrefaçons nécessite une coopération interdisciplinaire. La technologie actuelle d'identification des contrefaçons est principalement basée sur des algorithmes logiciels et, à l'avenir, elle évoluera vers l'intégration de logiciels et de matériel.


L'essor des grands modèles a jeté les bases d'une contrefaçon profonde, et l'industrie a appelé à des efforts conjoints interdisciplinaires pour lutter contre la technologie de la contrefaçon.

À l’ère des grands modèles, les frontières entre la parole synthétisée par l’intelligence artificielle et la parole réelle deviennent de plus en plus floues, et il est urgent d’améliorer la technologie de reconnaissance correspondante. Le 23 juillet, la finale du 9e concours mondial d'algorithmes d'intelligence artificielle Xinye Technology Cup, sur le thème de la reconnaissance profonde de la falsification de la parole, s'est tenue à Shanghai. Les participants ont été encouragés à utiliser des contre-mesures d'apprentissage profond et d'intelligence artificielle pour développer des algorithmes capables d'identifier avec précision. fausses voix.

Deepfake est une méthode qui utilise la technologie du deep learning et de l’intelligence artificielle pour générer du faux contenu très réaliste. L'essor des grands modèles a ouvert la voie à une contrefaçon profonde. Entrez simplement un mot rapide et le système d'IA produira des images, des vidéos et des audios, ce qui rendra difficile la distinction du vrai du faux.

En prenant les fausses voix comme exemple, les grands modèles peuvent générer une variété de fausses voix. Ces fausses voix sont plus réalistes, anthropomorphes et ont des conversations fluides, ce qui pose de plus grands défis en matière de reconnaissance des fausses voix. "Dans certains scénarios de grande valeur, la fraude vocale générée par l'IA se produit souvent. Cependant, le développement actuel de la technologie d'identification vocale est en retard par rapport à la technologie de synthèse vocale", a déclaré Chen Lei, vice-président de Xinye Technology et responsable du Big Data et de l'IA.

Lors de la finale, les participants ont utilisé différents modèles d'algorithmes et idées de formation pour identifier les faux discours, notamment une technologie de reconnaissance basée sur de grands modèles et une technologie de reconnaissance traditionnelle de bout en bout. La technologie de reconnaissance de bout en bout a un plus petit nombre de paramètres et se concentre sur des problèmes plus verticaux ; le grand modèle a un plus grand nombre de paramètres, a des exigences de données plus élevées et a une forte capacité de généralisation des fausses données vocales générées. par le grand modèle a été considérablement amélioré.

Selon Lu Qiang, spécialiste des algorithmes chez Xinye Technology, l'ensemble de données vocales pour le concours préliminaire consiste principalement en de fausses paroles générées par la TTS (text-to-speech) traditionnelle de bout en bout, qui est moins difficile à identifier. la première fois, l'ensemble de données des demi-finales ajoute de fausses paroles générées sur la base du dernier grand modèle, transcrit de fausses voix et des échantillons assemblés à partir de langues réelles et fausses, couvrant plus de cinq langues telles que l'anglais, le français, et l'espagnol, et la difficulté de la compétition augmente. « L'ajout de fausses voix générées par les grands modèles en demi-finale a rendu la compétition plus difficile, ce qui montre également que la capacité des derniers grands modèles à « déguiser les faux en vrais » est devenue plus forte, ce qui nécessite une technologie de reconnaissance des deepfakes correspondante. à suivre."

"Nous avons délibérément ajouté de nouvelles données de scène au concours, telles que l'extraction de fausses voix, qui sont des données générées après plusieurs enregistrements de voix réelles. Nous pensons qu'il s'agit de fausses voix, a déclaré Lu Qiang, pour ce scénario, le concours utilise des voix réelles et réelles." le découpage et le mélange de faux discours pour construire des données contradictoires afin d'éviter une écoute artificielle de la parole et un étiquetage pour interférer avec la concurrence. « Tant qu'une tranche est un faux discours, alors la tranche entière est un faux discours. C'est plus proche de la scène réelle, mais. la reconnaissance Le défi est énorme. Si le problème de l'arrachage et la confrontation entre l'authenticité et le mensonge peuvent être résolus, cela aura une valeur académique "Lv Qiang a également déclaré que les informations multimodales telles que le texte et la vidéo contribueraient à la détection de la contrefaçon de parole. , et les grands modèles et la multimodalité seront la clé de la détection des contrefaçons vocales dans une direction de développement importante.

La « course » à la technologie de contrefaçon et à la technologie d'identification de contrefaçon, et le développement des deux s'accélère. Chen Lei a déclaré que la recherche sur les grands modèles de parole devrait résumer et affiner les problèmes d'application en problèmes académiques, après avoir résolu les problèmes académiques, ils devraient être conçus pour résoudre les besoins réels de scénarios commerciaux spécifiques. Le développement de la technologie anti-contrefaçon nécessite une coopération interdisciplinaire. La technologie anti-contrefaçon actuelle est principalement basée sur des algorithmes logiciels, elle intégrera à l'avenir des logiciels et du matériel, elle pourra prévenir et contrôler les contrefaçons. risques vocaux au niveau matériel.

"Il n'y a pas de point final pour la détection des contrefaçons. Tant que la route générative n'est pas terminée, la détection des contrefaçons continuera à diminuer." Chen Lei a déclaré qu'après le jeu, Xinye Technology ouvrirait les données sources et les utiliserait pour. recherche universitaire plus large pour désensibiliser le matériel des candidats après l'apprentissage partagé. Dans le même temps, il absorbe des idées de modèles de pointe dans des scénarios commerciaux et construit une plateforme de contrefaçon AIGC. Il estime que l’IA générative doit se conformer aux règles de gouvernance. La gouvernance de l’intelligence artificielle nécessite une conception de haut niveau de la part des régulateurs pour la normaliser et l’orienter. Il appelle également à la co-construction écologique et à la co-création industrielle pour prévenir les risques systémiques.