noticias

comente ahora | agregue logotipos distintivos para evitar que el contenido generado por ia se confunda con el contenido real.

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

¿cuántas de las imágenes, textos y vídeos masivos que vemos en línea todos los días son generados y sintetizados por inteligencia artificial? ¿cómo distinguir con precisión artículos de ia, imágenes de ia y videos de ia?
el 14 de septiembre, la administración del ciberespacio de china publicó las "medidas para el etiquetado de contenido sintético generado por inteligencia artificial (borrador para comentarios)". el "borrador para comentarios" pretende estipular que los servicios de síntesis generados proporcionados por los proveedores de servicios incluyan texto, audio, imágenes y vídeos, escenas virtuales, etc., se deben agregar señales de aviso visibles en los lugares apropiados; cuando los proveedores de servicios proporcionen métodos para descargar, copiar y exportar contenido sintético, deben asegurarse de que los archivos contengan señales explícitas que cumplan. los requisitos.
esta disposición es muy realista y necesaria. en los últimos años, la tecnología de síntesis profunda de inteligencia artificial se ha utilizado ampliamente en muchos campos, desde la generación de imágenes, texto y videos hasta preguntas y respuestas en línea, y están surgiendo diversas aplicaciones sin cesar. no hay duda de que las herramientas de ia pueden hacer que nuestra producción de contenidos y difusión de conocimientos sean más eficientes y, a medida que la capacidad de aprendizaje de la ia se vuelva cada vez más fuerte, sus capacidades de “producción” de contenidos superarán incluso a los humanos en el futuro.
pero, por otro lado, el efecto del contenido sintético profundo es más realista y la producción es más eficiente, lo que también hace que el contenido sintético sea difícil de distinguir entre real y falso. cuando es difícil distinguir entre lo verdadero y lo falso, y ver ya no es creer, la tecnología de inteligencia artificial es como un arma de doble filo, que también traerá problemas como la distorsión de la información y la confusión cognitiva a la sociedad.
en noviembre de 2022, la administración del ciberespacio de china emitió el "reglamento sobre la gestión de la síntesis profunda de los servicios de información de internet", que estipula el propósito, el etiquetado, el alcance de uso y las sanciones por el abuso de contenido profundamente sintetizado. este "borrador para comentarios" aclara además que ya sea texto, audio, imágenes o videos, "se deben agregar señales recordatorias llamativas en los lugares apropiados". este es un requisito claro para los proveedores de servicios: siempre que sea generado por una herramienta de inteligencia artificial, ya sea un artículo o una imagen, se debe agregar una identificación destacada.
en realidad, esto es un recordatorio para la audiencia de que la información en línea es mixta. cuando ve artículos "privilegiados", imágenes "candentes" o videos "impactantes", primero debe prestar atención a si son generados por ia y si deben aceptarse. ¿cómo identificarlos? ten más precaución.
vale la pena señalar que a medida que la tecnología se vuelve gradualmente “civil”, los delincuentes pueden utilizar fácilmente la ia para difundir rumores y producir noticias falsas. no hace mucho, algunos medios lanzaron una organización mcn que puede usar ia para generar entre 4000 y 7000 artículos de rumores todos los días. gracias a la bendición de la tecnología de ia, estos artículos parecen muy "reales y razonables" para audiencias que no están familiarizadas con la tecnología de internet. después de ver este tipo de información con “imágenes y verdad”, es fácil creer que es cierta.
según una encuesta de los medios, utilizando una ia nacional, el costo de un artículo de ia es de solo 0,00138 yuanes y se pueden generar 7 artículos por 1 centavo. los delincuentes pueden explotar fácilmente esta "falta de capital y enormes ganancias". imágenes y vídeos falsos como "ataque en el metro", "explosión en xi'an", "explosión en una casa privada en wuxi, chongqing", etc. tuvo un impacto social negativo. la verdad detrás de esto son los rumores sobre la producción en masa de ia.
el registro de inteligencia artificial para generar contenido sintético no es técnicamente difícil de implementar. algunos expertos sugieren que la plataforma se puede conectar completamente al gran sistema modelo de la plataforma de generación de contenido de ia, realizar una identificación y comparación de datos en tiempo real y luego adjuntar una marca de agua digital inamovible o descripciones de texto como "esta imagen/ el vídeo es sintetizado por ia".
este "borrador para comentarios" enfatiza que "ninguna organización o individuo deberá eliminar, manipular, falsificar u ocultar maliciosamente los identificadores de contenido sintético generados estipulados en estas medidas. esto es para recordar a los proveedores de servicios y plataformas de ia que no deben usar ia". herramientas para para lograr el "dividendo del tráfico", adoptamos una actitud de apaciguamiento de hacer la vista gorda y cerrar un ojo. un ciberespacio claro no debe permitir que el contenido de ia se confunda y desdibuje los límites de la realidad; si alguna información se identifica como rumor, la plataforma debe etiquetarla y limpiarla de inmediato;
la capacidad de la inteligencia artificial para generar y sintetizar supera la cognición tradicional y también nos hace darnos cuenta de que muchos artículos en línea parecen muy "científicos" y muchos videos en línea parecen particularmente "reales", pero es posible que no sean necesariamente confiables, así que no lo haga. no te apresures a creerlo. también puedes buscarlo primero. ¿hay un letrero que diga "esta imagen/vídeo está sintetizado por ia" en una posición destacada del contenido?
li qinyu, comentarista jefe de the paper
(este artículo es de the paper. para obtener más información original, descargue la aplicación “the paper”)
informe/comentarios