mi información de contacto
correo[email protected]
2024-08-31
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
en la obra "ghost in the shell" de finales del siglo pasado, motoko, cuyo cuerpo entero fue transformado en una prótesis, dudaba de si todavía existía. el cuerpo, la memoria y las relaciones con otras personas, cuando estas cosas pueden replicarse, no pueden usarse como argumento a favor de la vida física.
cuando la cantante de ai se hizo popular, stefanie sun también hizo un comentario similar en su respuesta. no eres especial, ya eres predecible y, lamentablemente, también eres personalizable.
podemos agregar que cualquier persona puede ser descrita y generada por ia, incluso si nunca ha hecho algo.
lu xun realmente dijo que cuando vio mangas cortas, inmediatamente pensó en brazos blancos. la imaginación humana es común. no sorprende que cada vez que haya un nuevo avance en la tecnología, una determinada vía vertical se desarrolle cada vez con mayor madurez: la pornografía.
corea del sur, que alguna vez conmocionó al mundo debido a la sala n, ahora está experimentando la versión 2.0.
violencia de la gente corriente contra la gente corriente
en el incidente anterior en la sala n, el perpetrador estableció múltiples salas de chat en el software de mensajería instantánea encriptada telegram y publicó contenido de explotación sexual. este incidente ocurrió principalmente en telegram.
la principal diferencia entre los dos es el medio del crimen: uno es la fotografía secreta y el otro es deepfake.
ya conocemos el deepfake, que utiliza ia para generar vídeos, audios o imágenes aparentemente reales para simular cosas que en realidad no sucedieron.
los deepfakes se utilizan habitualmente en la industria del entretenimiento y en los políticos, pero también están siendo controlados por gente corriente y utilizados para dañar a otras personas corrientes.
los autores de room n 2.0 han extendido sus garras a sus familiares, colegas y compañeros de clase. muchas salas de chat de telegram están organizadas por escuelas o regiones, por lo que los miembros del grupo tienen conocidos en común y temas similares.
▲ salas de chat por campus universitario
además de las mujeres que los rodean, las celebridades femeninas también son el objetivo de su caza. algunas salas de chat incluso se subdividen en tipos de ocupación, incluidos profesores, enfermeras, soldados, etc.
el hankyoreh daily informó que una sala de chat de telegram con 227.000 participantes solo necesitaba fotos de mujeres para generar contenido deepfake en 5 a 7 segundos.
¿cuál es el concepto de 220.000? corea del sur tendrá sólo 230.000 recién nacidos en 2023 y su población total apenas superará los 50 millones.
esta sala de chat tiene un robot que combina fotos femeninas con fotos de desnudos y puede ajustar los senos. después de que el usuario ingresa a la sala de chat, aparecerá un mensaje en la ventana de chat: "ahora envía las fotos femeninas que te gusten".
▲ captura de pantalla de la sala de chat, que explica cómo usar deepfake
el número de participantes es escandaloso, lo que puede estar relacionado con el bajo "umbral de entrada": se pueden encontrar enlaces buscando palabras clave específicas en x (antes twitter).
esta sala de chat también ha establecido un modelo de monetización. las dos primeras fotos son gratuitas, luego hay un cargo de 1 diamante (0,49 usd, aproximadamente 3,47 rmb) por foto. los pagos sólo se pueden realizar con moneda virtual para mantener el anonimato. si invitas a amigos, también puedes obtener algunos créditos gratis.
pero también hay algunas salas de chat que requieren un "certificado de admisión": si quieres unirte al grupo, primero debes enviar 10 fotografías de personas que conoces y pasar la entrevista.
como “materia prima” se pueden utilizar avatares del software de chat kakaotalk y fotos de instagram.
lo que es aún más horroroso es que una gran proporción tanto de las víctimas como de los perpetradores son adolescentes.
los voluntarios crearon un mapa que se actualizaba en tiempo real y mostraba en qué escuelas ocurrían los delitos. incluso en una escuela exclusivamente para niñas habrá víctimas, porque los perpetradores no son necesariamente compañeros de clase.
aún no se ha determinado exactamente cuántas escuelas se han visto afectadas. algunos blogueros afirmaron que esta vez más del 70% de las escuelas participaron.
el 26 de agosto, "korea joongang daily" señaló que incluía al menos unas 300 escuelas en todo el país, incluidas escuelas primarias. el 28 de agosto, el informe del wsj amplió el número a unas 500 escuelas.
un internauta se lamentó en el área de comentarios: "esto es básicamente toda corea del sur ..."
aunque no existe un resultado claro de la investigación de este incidente, los datos anteriores también pueden ilustrar la gravedad de la situación.
según estadísticas del instituto de derechos humanos de la mujer de corea, de enero a agosto de este año, un total de 781 víctimas de deepfake buscaron ayuda, de las cuales 288 eran menores, lo que representa el 36,9%. es probable que la cifra real sea mucho mayor.
además, la agencia de policía nacional de corea del sur afirmó que desde principios de 2023, alrededor del 70% de las aproximadamente 300 personas acusadas de producir y distribuir fotografías falsas de desnudos eran adolescentes.
muchas mujeres coreanas acudieron a weibo para pedir ayuda. no sabían chino y solo podían desplazarse por el contenido, lo que transmitía impotencia y miedo. "sala n 2.0" alguna vez se convirtió en una búsqueda candente en weibo.
algunos internautas se preguntan por qué las mujeres coreanas buscan ayuda en la internet china. de hecho, no sólo las mujeres coreanas hablan otros idiomas, además de corea del sur, los medios de comunicación de singapur, turquía y otros países también informaron sobre este incidente.
creen que si los extranjeros les prestan atención y los critican, los medios informarán más activamente y los departamentos pertinentes investigarán más seriamente, en lugar de hacerse los sordos y mantener las cosas en silencio.
algunas pruebas criminales e incluso la identidad del iniciador fueron investigadas por las propias mujeres coreanas, similar a la sala n en aquel entonces. afortunadamente, el presidente de corea del sur y el líder del partido de oposición han expresado su postura: el presidente yin xiyue de corea del sur propuso:
los deepfakes son un claro delito sexual digital y los erradicaremos de una vez por todas.
los deepfakes pueden verse como una broma, pero son claramente actos criminales que utilizan tecnología al amparo del anonimato, y cualquiera puede convertirse en víctima.
los servidores de telegram están en el extranjero y su director ejecutivo está detenido en parís, lo que dificulta las investigaciones. la comisión de normas de comunicaciones de corea dijo que había enviado una carta solicitando al gobierno francés que cooperara en la investigación de telegram.
después de atraer la atención de la opinión pública, se han restringido los comportamientos relacionados. sin embargo, el hankyoreh daily informó que algunos usuarios sin escrúpulos pasarán una "verificación de identidad" más estricta y continuarán haciendo deepfaking en salas de chat más privadas.
▲captura de pantalla de la sala de chat, los usuarios discuten cómo unirse a una sala de chat más privada
contenido falso, daño real
los deepfakes no son nada nuevo, pero rara vez se reconoce su daño.
algunas mujeres en corea del sur han privado sus cuentas de redes sociales o han eliminado fotos publicadas en línea en un intento de enmendar las cosas.
estaban angustiados y dudosos. por un lado, no saben dónde se han compartido sus fotos y hasta qué punto se han difundido. por otro lado, no entienden por qué se les pide a las víctimas que tengan cuidado al subir fotos en lugar de educar a los perpetradores.
cuando una estudiante pidió en su historia de instagram que "eliminara todas las fotos que subiste", los chicos de la misma escuela podrían decir: "eres demasiado feo para que te utilicen en esas cosas".
▲ los comentarios del perpetrador, diciendo que las mujeres son demasiado altas.
todavía hay voces como esta en internet: "no sé por qué este tipo de delito causa tanto daño". "si unas pocas personas lo cometieran, el daño debería ser muy pequeño".
pero lo que las víctimas experimentan es más que simplemente ver sus rostros falsos. los perpetradores también los insultarán, difundirán su información personal como direcciones, números de teléfono y tarjetas de identificación de estudiantes, difundirán rumores sobre su vida privada y se acercarán a ellos y los acosarán.
lo que es aún más aterrador es encontrar “pornografía de venganza”: los perpetradores amenazan con difundir materiales falsos para chantajear y dañar a las mujeres, causando daños secundarios más graves.
▲un youtuber coreano dijo que las mujeres hacen escándalo, pero él sabe cómo protegerse cubriéndose
el korea herald informó que song, un estudiante de secundaria de 17 años de la provincia de gyeonggi, solía compartir en línea algunas fotos de baile y videos cortos. un día recibió un mensaje anónimo en instagram con tres fotos explícitas: “¿tus amigos y padres entienden este lado de tu vida?”
todas estas fotografías son deepfake, pero son casi indistinguibles de las imágenes reales. la pesadilla no ha terminado y los mensajes que ella responda solo harán que la otra parte se emocione más y le exija más.
▲ capturas de pantalla de mensajes de texto entre song y el perpetrador, modificadas y traducidas al inglés según la solicitud de song.
nadie puede compartir el dolor. algunas víctimas incluso dijeron: "el mundo tal como lo conocía se ha derrumbado".
esto no equivale al precio pagado por el perpetrador.
▲ capturas de pantalla de la sala de chat, algunos comentarios obscenos, como "puedes configurar la pose en la que quieres hacer las fotos, es genial"
el incidente aún no se ha resuelto, pero corea del sur ya condenó a deepfake, uno de los cuales tuvo su primer juicio el 28 de agosto.
desde julio de 2020 hasta abril de este año, park robó fotografías faciales de víctimas femeninas, como exalumnas universitarias, produjo 419 vídeos pornográficos deepfake y difundió 1.735 de ellos. fue sentenciado a 5 años de prisión.
las víctimas comenzaron a correr en julio de 2021 antes de lograr llevar al perpetrador a juicio, y park fue procesada en mayo de este año.
debido a este incidente de deepfake a gran escala, las autoridades surcoreanas pertinentes están considerando aumentar la pena máxima de prisión de 5 a 7 años.
▲ mujeres surcoreanas protestan contra los delitos sexuales
teniendo en cuenta que los delitos juveniles falsos son muy comunes, pero que existen lagunas en la ley, corea del sur está midiendo el castigo máximo para los perpetradores en la etapa de educación obligatoria.
hasta el día de hoy, deepfake sigue siendo un área gris en muchos lugares y los esfuerzos de protección no pueden seguir el ritmo de las amenazas.
por ejemplo, en estados unidos, si la víctima es mayor de edad, cada estado tiene disposiciones legales diferentes, ya sea criminalizándola o interponiendo demandas civiles, pero actualmente no existe ninguna ley federal que prohíba la producción de pornografía deepfake.
▲captura de pantalla de la sala de chat, miembros conversando sobre conocidos comunes
una de las razones por las que la legislación es difícil es que algunas personas creen que incluso si el sujeto de la imagen deepfake se parece a usted, en realidad no es usted, por lo que realmente no se viola su privacidad.
sin embargo, todo el mundo sabe que, aunque la imagen sea falsa, el daño es real.
la ley avanza lentamente y, al mismo tiempo, los perpetradores que nunca se han presentado han "detenido sus actividades" temporalmente y están esperando "un regreso".
es tan fácil hacer el mal que los deepfakes son relevantes para todos
corea del sur no es una excepción.
en septiembre de 2023, en la ciudad española de almendralejo, un grupo de niños subió fotos de sus compañeras de clase a las redes sociales a una herramienta de inteligencia artificial de "desmontaje con un solo clic". hay cinco escuelas secundarias en la ciudad, y en al menos cuatro de ellas han circulado "fotos desnudas" de compañeras de clase.
esta herramienta se puede utilizar a través de aplicaciones móviles o telegram. hay al menos 30 víctimas, principalmente estudiantes mujeres de entre 12 y 14 años.
la mayoría de los iniciadores los conocían y también eran menores de edad. había al menos 10 de ellos, algunos incluso menores de 14 años, y no podían enfrentar cargos penales.
▲una madre pide que más víctimas se presenten
crearon chats grupales en whatsapp y telegram para difundir estas "fotos de desnudos" y amenazaron a las víctimas a través de instagram para extorsionarles "rescate" y fotos de desnudos reales.
una situación similar ocurrió en una escuela secundaria en nueva jersey, estados unidos, donde unas 30 víctimas se tomaron "fotos desnudas" durante las vacaciones de verano.
el director aseguró que todas las imágenes habían sido borradas y no volverían a difundirse. el iniciador fue suspendido de la escuela por unos días y regresado al "lugar del crimen" como si nada.
el deepfake surgió por primera vez en 2017 en reddit, la "versión americana de tieba". la forma principal es sustituir los rostros de celebridades por los protagonistas de vídeos pornográficos o parodiar a figuras políticas.
desde una perspectiva técnica, hay dos caminos principales: uno es el camino codificador-decodificador, que reemplaza una cara con otra comprimiendo y reconstruyendo la imagen, el otro es el camino generador-discriminador (es decir, generative adversarial networks (gan), generar; imágenes realistas a través del entrenamiento adversario.
▲gan
hoy en día, deepfake es un concepto más amplio, ya no se limita al reemplazo del rostro original, lo usamos para referirnos a cualquier acto de falsificación de la realidad a través de medios tecnológicos.
detrás de escena se esconden principios técnicos complejos. delante de los usuarios se encuentran interfaces "listas para usar". los adolescentes también pueden crear información falsa a voluntad. deepfake ha pasado de ser una tecnología a una herramienta casi sin umbral.
las aplicaciones de "desnudarse con un clic" solo requieren una foto, una dirección de correo electrónico y unos pocos dólares para quitar la "ropa" de celebridades, compañeros de clase y extraños en lotes. las imágenes utilizadas para "desnudarse" suelen ser capturas de redes sociales. sin el consentimiento del editor y luego lo difunde también sin su conocimiento.
basado en un modelo de difusión de código abierto entrenado en imágenes masivas, los usuarios pueden generar fotografías falsas y explícitas de celebridades ingresando palabras breves.
▲ el modelo de ia de una actriz de hollywood se ha descargado miles de veces
los proyectos de código abierto de github como deep-live-cam pueden cambiar caras en chats de vídeo con solo una foto.
puede que sea difícil engañar a los jóvenes, pero no lo es necesariamente a los mayores. un ejemplo trágico ya ha ocurrido en la realidad: un hombre de 82 años en estados unidos perdió 690.000 dólares por su fe ciega en la ia. musk que engañó a la gente en el vídeo de la pensión.
▲ transmisión en vivo de ai musk
en julio de 2023, deutsche telekom publicó un anuncio sobre la seguridad de los datos de los niños, en el que pedía a los padres que compartieran lo menos posible la privacidad de los niños en internet.
imágenes, vídeos y audios son todos deepfake. aunque racionalmente entendemos que "ver para creer" es cosa del pasado, nuestra psicología aún no lo ha aceptado del todo y no tenemos la capacidad correspondiente para distinguir entre todos. puede convertirse en víctima.
la tecnología puede ser neutral, pero la información que la gente utiliza para producir no es sólo información, sino también armas utilizadas para humillar, estigmatizar y ganar un sentido de superioridad. cuanto más vulgar y extraño sea el contenido, más fácil será su difusión. esto ha sido así desde la antigüedad.
¿qué puede hacer la gente corriente? al menos podemos decidir cómo usamos la tecnología, y también podemos elegir qué información producir y difundir, prestar atención a las víctimas, burlarnos de los perpetradores y usar nuestro poco poder para promover el progreso de las leyes y los conceptos sociales.
después del intercambio de rostros, ¿por qué la víctima borró las fotos? ¿por qué las víctimas se sienten tan avergonzadas después de ser fotografiadas en secreto? esta parece ser una pregunta que la tecnología no puede responder.