noticias

la revisión de fotografías de ia causa controversia: mickey mouse fuma, trump besa, bob esponja viste uniforme nazi

2024-09-04

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

zhidixi (cuenta pública: zhidxcom)

compilado |

editor |

según un informe del wall street journal del 2 de septiembre, recientemente han circulado algunas imágenes de ia en broma y políticamente engañosas en la plataforma de redes sociales "mickey sosteniendo un arma", etc., el contenido de la imagen hace que los usuarios se sientan confundidos e incómodos.

estas imágenes de ia son generadas por grandes modelos de ia como grok-2 y gemini. grok-2 fue desarrollado por xai, el unicornio estadounidense de gran modelo de ia fundado por musk, y gemini provino del gigante tecnológico estadounidense google.

recientemente, google ha estado mejorando su mecanismo de revisión del contenido generado por imágenes de ia para tratar de evitar resultados sesgados, ambiguos, incorrectos, racistas y contrarios a los hechos históricos.

en respuesta a problemas similares, openai, un gran unicornio modelo de ia estadounidense, ha prohibido el uso de ia para generar caracteres claramente direccionales para fortalecer la revisión del contenido de la generación de imágenes de ia.

1. el modelo grande de nueva generación grok-2 de xai permite tácitamente hacer bromas a figuras políticas

abre la plataforma de redes sociales besos de kamala harris.

estas imágenes desconcertantes e incómodas se generaron utilizando xai y los nuevos modelos o software de ia generativa de google.

▲en la imagen generada con tecnología de inteligencia artificial, trump "abraza a la princesa" harris, con un retrato claro (fuente: "wall street journal")

el 14 de agosto, xai lanzó el modelo de lenguaje grande de próxima generación grok-2. a los pocos días del lanzamiento del modelo, la plataforma x se vio inundada de imágenes que se decía que habían sido generadas utilizando grok-2. en estas escenas, los "rivales" trump y harris tienen intimidad, mientras que mickey en el mundo de los cuentos de hadas sostiene una pistola y fuma. estas imágenes producidas con tecnología de inteligencia artificial generativa no solo dañan la imagen de figuras políticas, sino que también provocan que personajes con derechos de autor realicen algunas acciones ofensivas. "si disney lo viera, probablemente no se reirían".

el modelo de lenguaje grande grok-2 está impulsado por black forest labs, una startup alemana de generación de imágenes y videos de ia, y actualmente solo está disponible para suscriptores pagos de la plataforma x.

de acuerdo con la política de la plataforma x, los usuarios tienen prohibido compartir contenido que pueda confundir o inducir a error, ser falsificado deliberadamente y, en última instancia, provocar daños personales o a la propiedad. más tarde, el día en que se lanzó grok-2, aunque algunas imágenes ilegales de ia ya no se podían recuperar en la plataforma x, los usuarios aún podían usar grok-2 para generar nuevos trabajos llenos de "mal gusto".

sin embargo, a musk, el verdadero controlador de la plataforma x, no parece importarle este tipo de parodia política. en julio, retuiteó un video falso de harris llamándose a sí misma "la mejor contratación de diversidad".

los expertos en moderación de contenido dijeron que herramientas de inteligencia artificial generativas similares pueden generar información falsa durante el ciclo electoral de ee. uu. e incluso difundirse a la sociedad.

el 19 de agosto, el día antes de la inauguración de la convención nacional demócrata de 2024, trump publicó una imagen que se sospechaba había sido generada por ia. en ese momento, debido a que el actual presidente de los estados unidos, biden, había renunciado a la reelección, después de la votación dentro del partido, harris, el protagonista de esta imagen de ai, había asegurado de antemano la nominación presidencial demócrata.

la imagen muestra la escena de "harris dando un discurso en chicago", con una bandera roja con un patrón de hoz y martillo de fondo, lo que parece implicar que harris es comunista, desencadenando así una controversia política.

2. el modelo grande gemini de google se ha volcado repetidamente y no distingue entre blanco y negro cuando se trata de elementos sensibles.

el chatbot gemini de google, impulsado por su modelo de lenguaje grande homónimo, gemini.

antes de lanzar la nueva versión del chatbot gemini en febrero de este año, google depuró el modelo gemini para que pudiera responder a caracteres más diversos con atributos más ambiguos cuando encontraba instrucciones relacionadas con la generación de caracteres.

por ejemplo, al generar imágenes de médicos, la ia suele generar imágenes de hombres blancos. google espera reducir el "sesgo" de los modelos de generación de imágenes de ia mediante la "diversificación".

pero al cabo de un mes, el modelo géminis cometió un gran error. cuando este modelo generó imágenes "racialmente diversas", no coincidía con la religión, la raza, el género, etc., lo que resultó en múltiples imágenes de personas que no se ajustaban a los hechos históricos. después de recibir críticas de un gran número de internautas, google decidió suspender la función de generación de imágenes del modelo gemini, poniendo un "freno repentino" a los riesgos potenciales de la generación de imágenes por ia.

sissie hsiao, vicepresidenta de google y directora del chatbot gemini, dijo en una entrevista reciente que garantizar que el modelo de ia obedezca las instrucciones del usuario es un principio al que se adhiere google. "este es el géminis del usuario y nosotros servimos al usuario".

sin embargo, algunas de las imágenes generadas con el chatbot gemini aún contradicen hechos históricos. muchos usuarios de la plataforma x tomaron capturas de pantalla cuestionando las capacidades de moderación de contenido del modelo de google.

respecto al modelo gemini que genera contenido ofensivo y con prejuicios raciales, el director ejecutivo de google, sundar pichai, respondió que "esto es inaceptable" y que la empresa "abordará este problema de manera integral".

sin embargo, google ha vuelto a enojar recientemente a los usuarios debido al contenido laxo de las imágenes generadas con tecnología de inteligencia artificial.

a mediados de agosto se lanzaron los teléfonos inteligentes de última generación de google, la serie pixel 9. la serie pixel 9 presenta una herramienta de edición de fotografías con ia llamada "reimagine", para que los usuarios puedan llamar a la ia para modificar el contenido de las fotos ingresando mensajes de texto.

sin embargo, algunos usuarios descubrieron que reimagine les permite agregar algunos elementos ilegales, como "usar" símbolos nazis para bob esponja. este fallo de seguridad de contenidos causó disgusto entre los usuarios.

un portavoz de google dijo que la compañía está "reforzando y mejorando continuamente las protecciones de seguridad existentes para los modelos de ia".

google reveló a finales de agosto de este año que su chatbot de inteligencia artificial gemini relanzará la función de generación de imágenes de personajes. esta función inicialmente solo estará disponible para usuarios ingleses con suscripciones pagas. al mismo tiempo, google ha logrado "progresos significativos" en la generación y revisión de imágenes de ia, pero es "imposible que cada imagen generada por gemini sea precisa".

3. es necesario establecer los límites éticos y legales de las imágenes generadas por ia como puntos de referencia de la industria.

actualmente, el software de generación de imágenes con ia continúa poniendo a prueba el resultado final de las políticas de las plataformas de redes sociales. este fenómeno ha desencadenado debates y reflexiones sobre si las empresas de tecnología deberían controlar y cómo auditar la producción de contenido mediante software de generación de imágenes de ia de última generación.

antes de que la tecnología de ia generativa se abra a los internautas para su creación gratuita, el software de generación de imágenes de ia está equipado con medidas efectivas de protección de seguridad para garantizar que las obras generadas por la ia no violen las regulaciones ni los principios éticos. ésta es la presión que enfrentan las empresas de tecnología al moderar el contenido de ia.

además de los dilemas éticos, los desarrolladores detrás de modelos y software de ia también enfrentan muchas responsabilidades legales potenciales. esto se debe a que los datos de entrenamiento que utilizan cuando entrenan modelos y software de ia implican una infracción de los derechos de propiedad intelectual y otros derechos.

debido a una supuesta infracción, los artistas iniciaron una demanda colectiva contra las nuevas empresas de imágenes de ia stability ai y midjourney en 2023. la demanda colectiva también se dirige a una serie de empresas con modelos de generación de imágenes mediante ia, como deviantart y runway.

además de la demanda colectiva de los artistas, stability ai también se enfrenta a una demanda de la empresa estadounidense de medios visuales getty images. este último acusó a stability ai de violar sus derechos a entrenar modelos. en respuesta, un portavoz de getty images dijo que la compañía ha lanzado su propio modelo de generación de imágenes con ia.

openai lanzó el modelo de generación de imágenes de ia dall-e en 2022. después de recibir una demanda colectiva de artistas el año pasado, openai agregó una nueva opción a la interfaz del modelo dall-e, permitiendo a los creadores marcar la opción de cargar personalmente imágenes que no se utilizarán para entrenar el modelo dall-e de próxima generación.

news corp, la empresa matriz de the wall street journal, firmó un acuerdo de licencia de contenido con openai. gracias a esto, openai puede acceder y recopilar libremente los recursos de medios existentes de news corp dentro de ciertos límites.

"eventualmente lo resolveremos". geoffrey lottenberg, abogado de protección de la propiedad intelectual, dijo que este tipo de disputas legales relacionadas con los derechos de autor de la propiedad intelectual de la ia pueden sentar un precedente para los límites legales de la ia. luego, otras empresas de ia tendrán un estándar de referencia sobre qué imágenes, vídeos y otros datos se pueden utilizar al entrenar sus modelos y robots de chat.

conclusión: google y openai corrigen errores activamente, mientras que xai hace lo contrario.

la capacidad del software de generación de imágenes de ia para generar imágenes de figuras específicas y conocidas es uno de los principales puntos de conflicto en esta ronda de controversia sobre la revisión de contenido de ia.

muchas empresas de tecnología, incluidas google y openai, han prohibido el uso de software de generación de imágenes de ia para crear obras de ia que contengan caracteres específicos y cuyos caracteres sean fácilmente identificables.

debido a la insistencia del fundador de xai, musk, en la libertad de expresión, el modelo grande grok-2 de xai optó por conservar la función de generación de imágenes de personas y roles específicos. sin embargo, la medida provocó que xai fuera criticada por los organismos de control de la industria tecnológica.

la profesora sarah t. roberts de la universidad de california, los ángeles, está comprometida con la investigación sobre moderación de contenidos. ella cree que los usuarios utilizarán tecnología de inteligencia artificial de vanguardia para falsificar videos, sonidos, fotos, etc. para difundir información falsa.

roberts añadió que todos los problemas que existen en las redes sociales tradicionales todavía deben ser abordados por la ia generativa, y es más difícil de detectar. en particular, el contenido visual, como las imágenes generadas con tecnología de inteligencia artificial, a veces resulta más convincente.

pinar yildirim, profesor de la universidad de pensilvania, dijo que las plataformas intentan establecer algunas reglas, como prohibir palabras clave, para evitar el abuso de la tecnología de inteligencia artificial. pero al mismo tiempo, los usuarios también pueden encontrar agujeros de seguridad y eludir estas reglas para obtener el contenido que desean. "los usuarios se volverán más inteligentes y eventualmente podrán explotar las lagunas jurídicas para crear contenido ilegal", dijo yildirim.

fuente: "wall street journal"