nouvelles

renforcer la protection des informations pour prévenir le risque de délits de deepfake

2024-09-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

récemment, des nouvelles ont éclaté en corée du sud selon lesquelles « environ 220 000 auteurs ont utilisé la technologie de la contrefaçon profonde pour changer de visage afin de créer du contenu obscène sur des femmes non précisées et de le diffuser largement. cela a provoqué la panique dans la société sud-coréenne et a également révélé les risques sociaux et criminels de cette pratique ». faux. revenant à nouveau aux yeux du public.
à mesure que la recherche et le développement de l'intelligence artificielle (ia) continuent de s'approfondir, la technologie du deepfaking est devenue de plus en plus mature. sa haute fidélité, son inclusivité technique, son faible coût, sa pertinence personnelle et d'autres caractéristiques ont apporté une énorme valeur d'utilisation, de l'ia "numérique" avec le remplacement des images de films et de télévision par des reprises, les perspectives d'application de la technologie deep fake dans certaines industries sont de plus en plus répandues.
cependant, en tant qu'« épée à double tranchant », tout en profitant des dividendes de la technologie deepfake, nous ne pouvons pas ignorer ses énormes risques potentiels qui peuvent rendre les criminels plus efficaces, plus dissimulés et plus nuisibles à la société. au niveau individuel, la technologie deepfake peut permettre à la victime de voler son image à des fins lucratives sans son consentement, ce qui constitue une violation du droit à l'image personnelle. de plus, la technologie deepfake peut également être utilisée par les fraudeurs pour se déguiser. par exemple, au début de cette année, le personnel financier d'une entreprise de hong kong a été escroqué de 200 millions de dollars de hong kong par des dirigeants usurpés. pour les célébrités et les personnalités politiques, la fausse technologie peut causer des dommages destructeurs et sociaux encore plus graves. l'actrice américaine taylor swift a déjà été photoshopée pour créer des photos indécentes et largement diffusées sur les plateformes sociales. cela a non seulement causé de graves dommages à son image personnelle et commerciale, mais a également perturbé l'ordre social et l'ordre public. en outre, la technologie deepfake peut également être utilisée pour falsifier des preuves, affectant la crédibilité des preuves telles que des photos et des vidéos, interférant ainsi avec le jugement des juges et faisant obstacle à la justice.
pour prévenir les risques liés à la technologie deep fake, la première priorité est de renforcer la protection des informations biométriques personnelles. du point de vue de la gouvernance des données, le processus de production de deepfake est principalement divisé en trois maillons : l'obtention de données (principalement des données d'informations biométriques) - le traitement des données - la sortie de données (sortie de faux contenus). l'abus de la technologie deepfake consiste essentiellement à obtenir des informations biométriques d'autrui sans autorisation ni consentement, puis à utiliser ces informations pour usurper l'identité. par conséquent, pour améliorer le mécanisme de protection des informations biométriques personnelles, nous devons contrôler strictement l'entrée et la sortie de fausses informations, afin d'assurer la gouvernance des sources et le contrôle des points finaux.
premièrement, il est nécessaire de renforcer le mécanisme « connaissance-autorisation » lors de la collecte d’informations biométriques. étant donné que les informations biométriques personnelles présentent les caractéristiques d'« unicité » et d'« immuabilité », une fois divulguées et utilisées à mauvais escient, elles causeront un préjudice grave à la personne concernée et auront un impact à long terme. par conséquent, le niveau le plus élevé de protection des informations personnelles devrait être atteint. être appliqué. conformément à la « loi sur la protection des informations personnelles de la république populaire de chine » et aux dispositions légales pertinentes, la notification n'est exemptée que dans des circonstances spécifiques basées sur les besoins de sécurité nationale et de sécurité publique, les enquêtes criminelles et les procédures judiciaires, etc. à l'exception des circonstances ci-dessus, tout sujet doit strictement mettre en œuvre le mécanisme de « connaissance-autorisation » lors de la collecte et de l'utilisation d'informations biométriques personnelles. aucune collecte n'est autorisée sans consentement explicite. d’un autre côté, il convient de préciser que les informations divulguées en ligne par une personne ne signifient pas qu’elle consent au retraitement de ses informations biométriques personnelles. il existe actuellement de nombreux scénarios d'application commerciale des deep fakes. il est nécessaire de dissiper le malentendu des opérateurs concernant le « libre accès à l'information en ligne » et de remplir leurs obligations de notification. de plus, les utilisateurs de l'information doivent s'assurer de l'efficacité de la notification. il doit inclure des informations spécifiques telles que l'objet de l'utilisation, la finalité de la collecte, le comportement du traitement et le flux d'informations, et doit également adopter des méthodes de notification suffisamment visibles, telles que des pop-ups avec des délais obligatoires, etc.
deuxièmement, améliorer le mécanisme de supervision et de traçabilité de la plateforme. les plateformes devraient se concentrer sur les domaines dans lesquels les deep fakes sont largement utilisées, comme la création secondaire d'images réelles, et renforcer la supervision et la traçabilité en combinant un examen technique et un examen manuel, par exemple en vérifiant strictement si les œuvres de deuxième génération ont une autorisation. enregistrements des personnes concernées utilisées, etc. s'il s'avère que des certificats d'autorisation non autorisés ou falsifiés sont utilisés comme informations sur autrui, la plateforme devrait interdire leur diffusion et prendre les mesures restrictives correspondantes, telles que l'interdiction de comptes.
troisièmement, établir un mécanisme de responsabilisation et de sanction plus sérieux grâce à une législation ciblée. concernant la falsification d'informations d'identité, le droit pénal de mon pays stipule actuellement les délits de fraude et d'usurpation d'identité. les éléments du premier crime incluent le fait de prétendre que la cible est un membre du personnel d'un organisme d'état et l'atteinte à la propriété, à l'honneur, au traitement, aux sentiments, etc. ; le second vise les droits à l'identité dans des procédures spécifiques telles que les examens. le délit de violation des informations personnelles des citoyens n'inclut pas « l'utilisation illégale d'informations biométriques ». cela signifie qu'en vertu de la loi actuelle, il est difficile de lutter efficacement contre le chaos tel que les faux porte-parole du point de vue des sanctions pénales en s'appuyant uniquement sur les délits de fraude et d'usurpation d'identité. il sera donc nécessaire d’ajouter de nouveaux délits à l’avenir pour réglementer spécifiquement le comportement consistant à usurper l’identité d’autrui. dans ce domaine, le projet de loi américain stipule que « le transfert, l'utilisation ou le détournement des données d'identification d'autrui seront traités comme une usurpation d'identité », ce qui peut constituer une certaine référence pour notre pays. le droit pénal de mon pays pourrait également ajouter le délit de « vol d'identité » à l'avenir. toute personne utilisant les informations biométriques d'autrui sans le consentement de la personne concernée et dans des circonstances graves (telles que le taux de clics ou le nombre de transferts). 500 fois), sera traité comme un délit d’usurpation d’identité. s’il est également impliqué dans d’autres délits (comme la fraude), il sera traité comme un délit.
la lame tranchante doit être gainée et la bête doit être mise en cage. la technologie du deep fake a de bonnes perspectives d’application, mais la mise en place d’un système complet d’application, de supervision et de sanction est la condition préalable pour qu’elle devienne véritablement un outil pratique pour l’humanité. à cet égard, toutes les parties concernées doivent donner la priorité au système, délimiter ses frontières avec un système juridique solide, limiter son application avec une supervision efficace, guider son développement avec des valeurs et une éthique correctes, atteindre l'objectif de la technologie au service des personnes et garantir que la contrefaçon profonde est une technologie qui est sur la bonne voie pour bénéficier à l'humanité. (les auteurs sont des chercheurs du centre provincial de recherche sur le développement numérique et la gouvernance du zhejiang et des procureurs du parquet populaire du comté de pingyang, province du zhejiang)
rapport/commentaires