nouvelles

"AI Undressing" chasse les célébrités féminines d'Internet et produit secrètement des experts de la chaîne industrielle qui recommandent de promouvoir la technologie anti-contrefaçon de photos

2024-08-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

"Il y a quelque temps, quelqu'un a envoyé un message privé disant qu'il avait vu ma photo et m'a demandé si je pouvais répondre au téléphone en privé. J'ai cherché attentivement et j'ai découvert que la soi-disant photo avait été synthétisée par l'IA. Après avoir vécu cela, le blogueur Xiao." K (pseudonyme) a encore des craintes persistantes.

Ces dernières années, la technologie de l'IA est progressivement entrée dans la vie de plus en plus de gens, mais certaines personnes aux idées tordues ont également vu des opportunités commerciales. Une enquête menée par le journaliste de Beijing News Shell Finance a révélé qu'il existe actuellement de nombreux groupes de photos « IA se déshabillant » vendant des célébrités et des actrices d'Internet sur la plate-forme de produits en noir et gris. Selon les praticiens de l'industrie noire et grise, 5 yuans peuvent « enlever les vêtements » et 20 yuans peuvent réaliser « un changement de visage vidéo ». Dans cette chaîne industrielle, il existe également des praticiens qui attirent du trafic grâce à des photos accrocheuses et réalisent ensuite des bénéfices grâce aux services de « groupes d'adhésion ». De plus, il existe des auteurs de vidéos sur des plateformes telles que Bilibili et Xiaohongshu qui attirent l'attention avec des titres tels que « AI Undressing Tutorial ».

À cet égard, Zhao Hu, associé du cabinet d'avocats Zhongwen de Pékin, a déclaré que la vente de photos d'IA se déshabillant ou changeant de visage violerait les dispositions de la loi sur les sanctions de l'administration de la sécurité publique et que les auteurs s'exposeraient à des sanctions administratives de détention ou à des amendes. , et peut également être tenu pénalement responsable. Si les images ne sont pas vendues mais simplement diffusées, si les circonstances sont graves, cela constituera toujours un délit de diffusion de matériel obscène et fera l'objet d'une enquête pour responsabilité pénale correspondante conformément à la loi. La technologie pédagogique est soupçonnée d’aider ou d’encourager les criminels. En outre, les actions de retrait de vêtements et de changement de visage menées par les auteurs impliquent également une violation des informations personnelles des citoyens.

"Il n'y a pas de différence essentielle entre l'utilisation de l'IA pour la contrefaçon profonde et la contrefaçon technique traditionnelle, mais l'efficacité est bien supérieure à celle des méthodes de contrefaçon traditionnelles, et le seuil technique est beaucoup plus bas, ce qui permet aux gens ordinaires d'y parvenir facilement, et les "travaux" " de contrefaçon profonde inondera davantage l'Internet. " Pei Zhiyong, directeur du Centre de recherche sur la sécurité industrielle du groupe Qi'anxin, a déclaré au journaliste de Beijing News Shell Finance que la technologie anti-contrefaçon pour les photos et les vidéos devrait être activement explorée et promue.

Des célébrités Internet multiplateformes se « déshabillent » pour attirer du trafic : 5 yuans de photos personnalisées

Après une simple enquête, Little K a finalement trouvé la source de la fuite de ses photos : quelqu'un a utilisé ses photos « de déshabillage IA » pour attirer du trafic sur des plateformes sociales étrangères et des sites pornographiques, et pour vendre des services de retouche d'images IA.

L’expérience de Little K n’est pas unique. Dès mars de l'année dernière, une photo prise par un blogueur de Xiaohongshu dans le métro a été « déshabillée » par l'intelligence artificielle et diffusée dans un groupe WeChat. Dans la section commentaires de ce blogueur, de nombreuses femmes se sont plaintes d'expériences similaires, faisant preuve d'empathie les unes envers les autres et incapables de cacher leurs sentiments.

Les journalistes de Shell Finance ont cherché des indices et ont trouvé un vendeur engagé dans le « décapage de l'IA ». L'autre partie a dit que si vous fournissez une photo, vous pouvez fournir un service de « retrait de vêtements » pour 5 yuans supplémentaires. Si la photo ne peut pas produire l'effet, veuillez nous contacter pour changer la photo. De plus, vous pouvez également recevoir une « vidéo qui change de visage » pour 20 yuans.

Le vendeur a déclaré : « Il y a eu trop de commandes de « déshabillage » récemment, et je ne peux même pas me donner la peine de faire un échange de visage.

Capture d'écran de l'historique des discussions entre le journaliste de Beijing News Shell Finance et le vendeur de "AI stripping".

L'abus de la technologie « IA de déshabillage » dans la pornographie remonte à un logiciel sorti à l'étranger en 2020. En raison de la controverse, il a été rapidement retiré des étagères par le développeur. Malgré cela, cette technologie est encore utilisée par certains criminels pour gagner de l’argent.

En juin de cette année, la police de Pékin a enquêté sur une affaire dans laquelle un technicien ayant travaillé pour une société Internet affirmait que « l'IA informatique peut enlever des vêtements à un prix avantageux » et « peut être utilisée par les gens autour de vous, les célébrités d'Internet et les célébrités ». ", et j'ai gagné de l'argent supplémentaire en faisant cela. Les photos ne coûtent que 1,50 $. Il a vendu des images similaires à 351 personnes via Internet, pour un total de près de 7 000 images. Finalement, il a été poursuivi par le parquet du district de Haidian de Pékin pour avoir distribué des documents obscènes dans un but lucratif.

Une enquête menée par un journaliste de Shell Finance a révélé que le « déshabillage IA » a désormais formé une chaîne industrielle, comprenant la vente de fausses images IA, des « images P » IA payantes de photos normales et l'enseignement de « techniques » pour se déshabiller.

En outre, les produits noirs et gris ciblent déjà des personnalités bien connues telles que des célébrités féminines de l'Internet et des stars féminines, et le « déshabillage de l'IA » est devenu un mot de passe de trafic.

Les journalistes de Shell Finance ont découvert qu'il y avait près de 15 000 membres dans ce groupe sur une plate-forme de produits en noir et gris appelée « Internet Celebrity XX's Clothes Removal Exchange Group ». Certaines célébrités féminines bien connues d'Internet ont pour la plupart des photos d'elles-mêmes en train d'être déshabillées.

Les journalistes de Shell Finance ont remarqué que ce groupe n'effectuait initialement du « décapage IA » que sur certaines photos de beautés de célébrités sur Internet, et s'est ensuite progressivement étendu aux cercles du divertissement et du sport. La méthode de profit de ce type de « groupe de communication » est également relativement simple. Les praticiens de l'industrie noire et grise lancent d'abord quelques photos dans le groupe pour inciter les membres à acheter le service « groupe d'adhésion ». Les frais d'adhésion sont d'environ 70 yuans.

Bilibili et Xiaohongshu ont toujours des « tutoriels de déshabillage d'IA » Avocat : l'enseignement de la technologie peut constituer un délit accessoire

Le journaliste a découvert qu'après la maturation de la technologie du modèle de génération d'IA, la capacité correspondante de « déshabillage en un clic » a été « développée » par les internautes à partir d'un modèle de génération d'IA open source étranger bien connu et s'est progressivement généralisée. Même si avec l'amélioration des règles réglementaires dans différents pays, le grand modèle a révisé les instructions telles que « se déshabiller ». Cependant, les journalistes de Shell Finance ont effectué des recherches sur Bilibili et Xiaohongshu et ont découvert qu'il existe encore des vidéos de "tutoriel de déshabillage de l'IA". Bien que certaines soient en fait des "changements de vêtements" d'IA, cela signifie également que ce type de technologie est toujours endémique.

Le journaliste a recherché les résultats sur un site Web de vidéos en utilisant des mots-clés associés tels que « AI se déshabille ».

À cet égard, de nombreuses célébrités nationales d’Internet sont plutôt impuissantes. En mai de l'année dernière, une blogueuse populaire comptant plus de 500 000 abonnés a déposé une plainte : « De nombreuses personnes ont vu des photos volées et diffusées sur des réseaux externes pour attirer du trafic et « vendre des vidéos », ainsi que pour mettre des photos et d'autres images pornographiques sur des réseaux sociaux. Les gens avec un œil perspicace peuvent dire en un coup d'œil que ces rumeurs de bas niveau sont fausses. D'habitude, je n'y prête pas attention. Ce n'est que lorsque le nombre de messages privés a soudainement augmenté et que j'ai remarqué que le « rythme » augmentait. que je devais réfuter les rumeurs.

Zhao Hu a déclaré aux journalistes de Shell Finance que la vente de photos d'IA se déshabillant ou changeant de visage viole les dispositions de la loi sur les sanctions de l'administration de la sécurité publique. « La personnalisation » des photos d'IA se déshabillant contre rémunération peut constituer le crime de fabrication et de vente de matériel pornographique à des fins lucratives. Si les images ne sont pas vendues mais seulement diffusées, si les circonstances sont graves, cela constituera toujours le délit de distribution de matériel obscène. L’enseignement de la technologie peut constituer une complicité de crime.

"Faire payer pour aider à" personnaliser "les images de déshabillage d'IA peut constituer le crime de production, de copie, de publication, de vente et de diffusion de documents obscènes à des fins lucratives. Zhao Hu a déclaré que le comportement d'IA enlevant ses vêtements et en changeant de visage implique également une violation de la loi." informations personnelles des citoyens. Une fois que ces informations sont divulguées ou utilisées à mauvais escient, elles constitueront une menace sérieuse pour la vie privée et la sécurité des personnes.

"Il doit être clair que l'utilisation d'outils d'IA pour la contrefaçon est beaucoup plus efficace que les méthodes de contrefaçon traditionnelles, mais le seuil technique est bien plus bas. Comme le dit le proverbe, si vous lancez une rumeur, vous perdrez vos jambes si vous la réfutez." Pei Zhiyong a déclaré à Shell Finance Reporters qu'actuellement, les vidéos et images deepfake de l'IA peuvent être identifiées grâce à des moyens techniques professionnels ou à l'évaluation d'experts, mais le coût est également très élevé : « Avec les progrès continus de la technologie, il est inévitable que l'authenticité de l'IA-. les vidéos générées ou synthétisées ne peuvent pas être authentifiées.

Selon lui, même s’il est irréaliste d’empêcher les gens d’utiliser l’IA pour générer de fausses vidéos ou images, cela ne signifie pas qu’il n’y a rien à faire contre les fausses vidéos ou images. « Le pays dispose de méthodes de gestion très matures des vidéos et images pornographiques en ligne. Même si la technologie ne peut pas être utilisée pour identifier l'authenticité d'une image, elle peut empêcher la diffusion de contenus pornographiques depuis la plateforme, localiser la source de la diffusion de contenus pornographiques. contenu, et procéder à des répressions ".

Pei Zhiyong a déclaré que les plateformes Internet ne peuvent pas poursuivre le trafic de manière unilatérale, mais devraient participer activement à la gouvernance du réseau sous la direction des lois correspondantes et limiter efficacement la portée de la diffusion des informations pertinentes. Les informations majeures non vérifiées devraient être marquées d'une étiquette « non vérifiée » pour être modérée. réduire le risque que le grand public soit induit en erreur.

Pei Zhiyong estime que la technologie anti-contrefaçon pour les photos et les vidéos devrait être activement explorée et promue. « Par exemple, si un téléphone mobile spécifique d'une certaine marque, d'un certain modèle et d'un certain numéro de série est utilisé pour prendre une photo, le fichier photo aura une chaîne de texte invisible à l'œil nu mais reconnaissable par la machine. Code de vérification crypté Que quelqu'un modifie cette photo, qu'il s'agisse d'une modification AI ou d'une modification manuelle, le système de vérification peut reconnaître qu'il ne s'agit pas de l'image originale. Cette méthode n’est pas une technologie nouvelle, mais nécessite une technologie de cryptographie mature.

Sun Yue, fondateur et directeur technique de Beijing Core Shield Times Technology Co., Ltd., a déclaré dans une interview avec un journaliste de Shell Finance que la technologie de contrefaçon profonde est endémique et que les caractéristiques biométriques telles que les voix et les visages ont perdu leur haute confiance d'origine. attributs d'authentification. Si vous souhaitez éviter les dommages causés par la technologie, il est recommandé que les principales plates-formes système renforcent l'authentification de l'identité des systèmes d'application. Des mesures d'authentification fortes sont nécessaires pour résister au risque de falsification d'identité, qui peut être obtenu grâce à l'identité multifactorielle. authentification, sensibilisation aux risques des terminaux, analyse des mégadonnées, etc. La technologie des produits, combinée à la modélisation du comportement des utilisateurs, à l'inférence causale des graphiques de connaissances et à d'autres moyens, peut résister efficacement aux risques d'identité causés par une falsification profonde.

« À l'avenir, pour un développement sain de l'IA, afin de faire face aux risques posés par la technologie de contrefaçon profonde, le gouvernement et les agences de réglementation de l'industrie devraient tout d'abord améliorer activement les lois et réglementations pertinentes. Deuxièmement, accroître la recherche et le développement. de détection de contrefaçon profonde, de filigrane numérique et d'autres technologies. En outre, les départements concernés et les médias d'information devraient également accroître la propagande anti-fraude, améliorer la sensibilisation de la population à la sécurité et travailler ensemble pour protéger la sécurité personnelle et matérielle de la population ; ", a déclaré Sun Yue aux journalistes de Shell Finance.

E-mail de contact du journaliste : [email protected]

Le journaliste de Beijing News Shell Finance, Luo Yidan, le rédacteur en chef Wang Jinyu, relit Yang Li