noticias

"AI desnudándose" caza celebridades femeninas de Internet y produce en secreto una cadena industrial que los expertos recomiendan promover la tecnología de lucha contra la falsificación de fotografías.

2024-08-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

"Hace algún tiempo, alguien envió un mensaje privado diciendo que vio mi foto y me preguntó si podía contestar el teléfono en privado. Busqué cuidadosamente y descubrí que la llamada foto fue sintetizada por AI. Después de experimentar esto, el blogger Xiao". K (seudónimo) todavía tiene temores persistentes.

En los últimos años, la tecnología de inteligencia artificial ha ido entrando gradualmente en la vida de más personas, pero algunas personas con ideas torcidas también han visto oportunidades comerciales. Una investigación realizada por el reportero de Beijing News Shell Finance encontró que actualmente hay muchos grupos de fotografías de "AI que se desnudan" que venden celebridades y actrices de Internet en la plataforma de productos en negro y gris. Según los profesionales de la industria negra y gris, con 5 yuanes se puede "quitar la ropa" y con 20 yuanes se puede lograr un "cambio de rostro en video". En esta cadena industrial, también hay profesionales que atraen tráfico a través de fotografías llamativas y luego obtienen ganancias a través de servicios de "grupos de membresía". Además, hay autores de vídeos en plataformas como Bilibili y Xiaohongshu que llaman la atención con títulos como "AI Undressing Tutorial".

En este sentido, Zhao Hu, socio del bufete de abogados Zhongwen de Beijing, dijo que vender imágenes de IA desnudándose o cambiando de cara violaría las disposiciones de la Ley de Castigo de la Administración de Seguridad Pública, y los perpetradores enfrentarían sanciones administrativas de detención o multas. , y también puede ser considerado penalmente responsable. Si las imágenes no se venden sino que simplemente se difunden, si las circunstancias son graves, seguirá constituyendo un delito de difusión de materiales obscenos y serán investigados por la responsabilidad penal correspondiente de conformidad con la ley. Se sospecha que la tecnología de enseñanza favorece o incita a cometer delitos. Además, las acciones de quitarse la ropa y cambiarse la cara con IA llevadas a cabo por los perpetradores también implican la infracción de la información personal de los ciudadanos.

"No existe una diferencia esencial entre el uso de IA para la falsificación profunda y la falsificación técnica tradicional, pero la eficiencia es mucho mayor que los métodos de falsificación tradicionales y el umbral técnico es mucho más bajo, lo que facilita que la gente común lo logre y las 'obras'. ' de falsificación profunda inundará aún más Internet." Pei Zhiyong, director del Centro de Investigación de Seguridad Industrial del Grupo Qi'anxin, dijo al reportero de Beijing News Shell Finance que la tecnología contra la falsificación de fotografías y videos debe explorarse y promoverse activamente.

Las celebridades de Internet multiplataforma encuentran "desnudarse" para atraer tráfico: fotos personalizadas de 5 yuanes

Después de una simple investigación, Little K finalmente encontró la fuente de la filtración de sus fotos: alguien usó sus fotos "desnudándose con IA" para atraer tráfico en plataformas sociales extranjeras y sitios web pornográficos, y para vender servicios de edición de imágenes con IA.

La experiencia del pequeño K no es única. Ya en marzo del año pasado, una foto tomada por un blogger de Xiaohongshu en el metro fue "desnudada" por inteligencia artificial y difundida en un grupo de WeChat. En la sección de comentarios de esta blogger, muchas mujeres se quejaron de experiencias similares, empatizando entre ellas y sin poder ocultar sus sentimientos.

Los periodistas de Shell Finance buscaron pistas y encontraron a un vendedor dedicado a la "eliminación de IA". La otra parte dijo que si proporciona alguna foto, puede proporcionar un servicio de "quitación de ropa" por otros 5 yuanes. Si la foto no logra el efecto, contáctenos para cambiarla. Además, también puedes recibir un "video de cambio de cara" por 20 yuanes.

El vendedor dijo: "Ha habido demasiadas órdenes de 'desvestirse' recientemente y ni siquiera puedo molestarme en cambiar la cara".

Captura de pantalla del historial de conversaciones entre el reportero de Beijing News Shell Finance y el vendedor de "desmontaje de IA".

El abuso de la tecnología de "desnudo mediante IA" en la pornografía se remonta a un software lanzado en el extranjero en 2020. Debido a la controversia, el desarrollador lo eliminó rápidamente de los estantes. A pesar de esto, algunos delincuentes todavía utilizan esta tecnología para ganar dinero.

En junio de este año, la policía de Beijing investigó un caso en el que un técnico que alguna vez trabajó para una empresa de Internet afirmó que "la IA informática puede quitarse la ropa a un precio de ganga" y "puede ser utilizada por personas a su alrededor, celebridades de Internet y celebridades". ", y ganó dinero extra al hacerlo. Cada foto Las fotos cuestan solo $ 1,50. Vendió fotografías relacionadas a 351 personas a través de Internet, con un total de casi 7.000 fotografías. Finalmente, fue procesado por la Fiscalía del Distrito Haidian de Beijing por distribuir material obsceno con fines de lucro.

Una investigación realizada por un periodista de Shell Finance descubrió que el "desnudo por IA" ahora ha formado una cadena industrial, que incluye la venta de imágenes falsas por IA, "imágenes P" pagadas por IA de fotos normales y la enseñanza de "técnicas" para lograr desvestirse. .

Además, los productos negros y grises ya se han dirigido a figuras conocidas como celebridades femeninas de Internet y celebridades femeninas, y la "eliminación de IA" se ha convertido en una contraseña de tráfico.

Los reporteros de Shell Finance descubrieron en una plataforma de productos negros y grises llamada "Internet Celebrity XX's Clothing Exchange Group" que el grupo tiene casi 15.000 miembros, incluidos Douyin, Bilibili, Weibo y Xiaohongshu. Algunas celebridades femeninas de Internet conocidas en su mayoría tienen fotografías de. ellos mismos siendo despojados.

Los reporteros de Shell Finance notaron que este grupo inicialmente solo realizaba "extracción de IA" en algunas imágenes de bellezas famosas de Internet, y luego se expandió gradualmente a los círculos del entretenimiento y los deportes. El método de obtención de ganancias de este tipo de "grupo de comunicación" también es relativamente simple: los profesionales de la industria negra y gris primero lanzan algunas fotos al grupo para atraer miembros a comprar el servicio de "grupo de membresía". La tarifa de membresía es de aproximadamente 70 yuanes.

Bilibili y Xiaohongshu todavía tienen "tutoriales sobre cómo desnudarse con IA" Abogado: Enseñar tecnología puede constituir un delito accesorio

El reportero descubrió que después de que la tecnología del modelo de generación de IA maduró, los internautas "desarrollaron" la capacidad correspondiente de "desvestirse con un solo clic" a partir de un conocido modelo extranjero de generación de IA de código abierto, y gradualmente se generalizó. Aunque con la mejora de las normas regulatorias en varios países, el modelo grande ha revisado instrucciones como "desvestirse". Sin embargo, los reporteros de Shell Finance buscaron en Bilibili y Xiaohongshu y descubrieron que todavía hay algunos videos de "tutoriales de desvestirse de IA". Aunque algunos son en realidad "cambiándose de ropa" de IA, también significa que este tipo de tecnología todavía está muy extendida.

El periodista buscó los resultados en un sitio web de vídeos utilizando palabras clave relacionadas, como "AI desnudándose".

En este sentido, muchas celebridades nacionales de Internet están bastante indefensas. En mayo del año pasado, una popular bloguera con más de 500.000 seguidores publicó una denuncia: "Muchas personas han sufrido el robo de fotografías y su colocación en redes externas para atraer tráfico y 'vender vídeos', así como la colocación de fotografías y otras imágenes pornográficas en Las personas con un ojo perspicaz pueden darse cuenta de que estos rumores de bajo nivel son falsos de un vistazo. Por lo general, no les presto atención. Fue solo cuando la cantidad de mensajes privados aumentó repentinamente y el "ritmo" comenzó a aumentar. Tuve que refutar los rumores”.

Zhao Hu dijo a los periodistas de Shell Finance que vender imágenes de IA desnudándose o cambiando de rostro viola las disposiciones de la Ley de Castigo de la Administración de Seguridad Pública. "Personalizar" imágenes de IA desnudándose por una tarifa puede constituir el delito de crear y vender material pornográfico con fines de lucro. Si las imágenes no se venden sino sólo se difunden, si las circunstancias son graves, seguirá constituyendo un delito de distribución de materiales obscenos. La enseñanza de tecnología puede constituir una complicidad o complicidad en un delito.

"Pagar ayuda para 'personalizar' imágenes de IA desnudándose puede constituir el delito de producir, copiar, publicar, vender y difundir materiales obscenos con fines de lucro. Zhao Hu dijo que el comportamiento de la IA quitándose la ropa y cambiando la cara también implica una infracción de la ley". información personal de los ciudadanos. Una vez que esta información se filtre o se utilice indebidamente, representará una grave amenaza a la privacidad y seguridad personal.

"Debe quedar claro que el uso de herramientas de inteligencia artificial para la falsificación es mucho más eficiente que los métodos tradicionales de falsificación, pero el umbral técnico es mucho más bajo. Como dice el refrán, si inicias un rumor, perderás las piernas si lo refutas". Pei Zhiyong dijo a Shell Finance Reporters que, actualmente, los vídeos e imágenes falsos de IA se pueden identificar mediante medios técnicos profesionales o una evaluación de expertos, pero el costo también es muy alto: “Con el avance continuo de la tecnología, es inevitable que la autenticidad de la IA. Los videos generados o sintetizados no pueden autenticarse”.

En su opinión, aunque no es realista impedir que las personas utilicen la IA para generar vídeos o imágenes falsos, eso no significa que no haya nada que hacer con los vídeos o imágenes falsos. “El país tiene métodos de gestión muy maduros para vídeos e imágenes pornográficas en línea. Incluso si la tecnología no puede usarse para identificar la autenticidad de una imagen, puede prevenir la difusión de contenido pornográfico desde la plataforma y localizar la fuente de la difusión. contenido y llevar a cabo medidas represivas".

Pei Zhiyong dijo que las plataformas de Internet no pueden perseguir el tráfico de manera unilateral, sino que deben participar activamente en la gobernanza de la red bajo la guía de las leyes correspondientes y limitar efectivamente el alcance de la difusión de información relevante. La información importante no verificada debe marcarse con etiquetas "no verificadas" a moderadamente. reducir el riesgo de que el público en general sea engañado.

Pei Zhiyong cree que se debe explorar y promover activamente la tecnología antifalsificación de fotografías y vídeos: “Por ejemplo, si se utiliza un teléfono móvil específico de una determinada marca, modelo y número de serie para tomar una fotografía, el archivo de la fotografía tendrá un efecto. una cadena de texto que es invisible a simple vista pero que la máquina puede reconocer. Código de verificación cifrado Ya sea que alguien modifique esta foto, ya sea mediante modificación AI o modificación manual, el sistema de verificación puede reconocer que no es la imagen original. Este método no es una tecnología nueva, pero requiere una tecnología de criptografía madura y una profunda popularización”.

Sun Yue, fundador y director de tecnología de Beijing Core Shield Times Technology Co., Ltd., dijo en una entrevista con un periodista de Shell Finance que la tecnología de falsificación profunda está muy extendida y que las características biométricas como voces y rostros han perdido su alta confianza original. propiedades de autenticación. Si desea evitar el daño causado por la tecnología, se recomienda que las principales plataformas de sistemas fortalezcan la autenticación de identidad de los sistemas de aplicaciones. Es necesario implementar medidas de autenticación sólidas para resistir el riesgo de falsificación de identidad, que se puede lograr mediante la identidad multifactor. autenticación, conciencia del riesgo terminal, análisis de big data, etc. La tecnología del producto, combinada con el modelado del comportamiento del usuario, la inferencia causal del gráfico de conocimiento y otros medios, puede resistir eficazmente los riesgos de identidad causados ​​por la falsificación profunda.

“En el futuro, para un desarrollo saludable de la IA y hacer frente a los riesgos que conlleva la tecnología de falsificación profunda, en primer lugar, el gobierno y las agencias reguladoras de la industria deberían mejorar activamente las leyes y regulaciones pertinentes. En segundo lugar, aumentar la investigación y el desarrollo. de detección profunda de falsificaciones, marcas de agua digitales y otras tecnologías. Además, los departamentos y medios de comunicación pertinentes deben aumentar la propaganda antifraude, mejorar la conciencia de seguridad de la gente y trabajar juntos para proteger la seguridad personal y de propiedad de las personas. ”, dijo Sun Yue a los periodistas de Shell Finance.

Correo electrónico de contacto del reportero: [email protected]

Beijing News Shell Finance reportero Luo Yidan editor Wang Jinyu corrigiendo a Yang Li