noticias

Análisis en profundidad: ¿Se ha logrado la “supervisión voluntaria” prometida por gigantes de la IA como Google y Microsoft?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Hace un año, incluidos Amazon, Microsoft, Google, Meta,IA abiertaSiete empresas de inteligencia artificial, entre ellas Anthropic e Inflection, han alcanzado ocho compromisos voluntarios con la Casa Blanca sobre cómo desarrollar inteligencia artificial de manera segura y confiable.

Estos compromisos incluyen aumentar las pruebas y la transparencia de los sistemas de IA y compartir información sobre peligros y riesgos potenciales.

En el primer aniversario de la firma del Compromiso Voluntario, MIT Technology Review pidió a las empresas de IA que firmaron el compromiso algunos detalles sobre su trabajo hasta el momento. Sus respuestas indican algunos avances prometedores para la industria tecnológica, pero también algunas advertencias importantes.

Estos compromisos voluntarios se contraen eninteligencia artificial generativa La medida se produce cuando el frenesí "puede estar en su punto más espumoso" mientras las empresas se apresuran a lanzar sus propios modelos y hacerlos más grandes y mejores que los de sus rivales. Al mismo tiempo, también estamos empezando a ver debates en torno a cuestiones como los derechos de autor y los deepfakes. Un lobby de figuras tecnológicas influyentes como Geoffrey Hinton también ha expresado su preocupación de que la IA pueda plantear riesgos existenciales para la humanidad. De repente, todo el mundo habla de la urgente necesidad de garantizar la seguridad de la IA y los reguladores de todo el mundo se encuentran bajo presión para tomar medidas.

Hasta hace poco, el desarrollo de la inteligencia artificial ha sido como el "salvaje oeste". Estados Unidos tradicionalmente se ha mostrado reacio a regular a sus gigantes tecnológicos, confiando en cambio en ellos para regularse a sí mismos. Los compromisos voluntarios son un buen ejemplo: se trata de algunas reglas prescriptivas para el campo de la inteligencia artificial en los Estados Unidos, pero siguen siendo voluntarias y no se pueden hacer cumplir. Posteriormente, la Casa Blanca emitió una orden ejecutiva que amplió esos compromisos y se aplicó a otras empresas de tecnología y agencias gubernamentales.

"Un año después, vemos que algunas empresas adoptan algunas buenas prácticas con sus productos, pero no están ni cerca de donde debemos estar en términos de buena gobernanza o protección de los derechos básicos", afirmó Merve. Hickok, presidente y director de investigación. Revisó las respuestas de las empresas a petición de MIT Technology Review. "Muchas de estas empresas continúan promoviendo afirmaciones sin fundamento sobre sus productos, como afirmaciones de que pueden superar la inteligencia y las capacidades humanas", añadió.

Una tendencia que surge de estas respuestas de las empresas de tecnología es que las empresas están tomando más medidas para buscar soluciones técnicas, como la confrontación rojo-azul (donde los humanos exploran las fallas de los modelos de IA) y agregando marcas de agua al contenido generado por IA.

Rishi Bommasani, director del Centro de Modelado Fundamental de la Universidad de Stanford, dijo que no estaba claro qué cambios se habían producido en esos compromisos o si las empresas implementarían las medidas. También revisó las respuestas de MIT Technology Review.

Un año es mucho tiempo en el campo de la inteligencia artificial. Desde que firmó el compromiso voluntario, el fundador de Inflection AI, Mustafa Suleyman, dejó la empresa para unirse a Microsoft y liderar los esfuerzos relacionados con la IA. Inflexión declinó hacer comentarios.

El portavoz de la Casa Blanca, Robyn Patterson, dijo: "Estamos agradecidos por el progreso que las empresas líderes han logrado en el cumplimiento de compromisos voluntarios más allá de los requisitos de la orden ejecutiva. Sin embargo, el presidente continúa pidiendo al Congreso que apruebe una legislación bipartidista sobre inteligencia artificial".

Brandie Nonnecke, directora del Laboratorio de Políticas CITRIS de la Universidad de California, Berkeley, dijo que sin una legislación federal integral, lo único que Estados Unidos puede hacer ahora es exigir a las empresas que cumplan estos compromisos voluntarios.

Pero lo que es importante recordar es que “estas empresas básicamente están estudiando para el examen que les hacen”, dijo Brandie Nonnecke, “por lo que tenemos que observar con atención para ver si realmente se están validando a sí mismas de una manera verdaderamente rigurosa”.

Aquí está nuestra evaluación del progreso que han logrado estas empresas de IA durante el año pasado.

Compromiso 1. Las empresas se comprometen a realizar pruebas de seguridad internas y externas de sus sistemas de IA antes de su lanzamiento. Estas pruebas, que serán realizadas en parte por expertos independientes, protegen contra algunas de las fuentes más importantes de riesgos de la IA, como la bioseguridad y la ciberseguridad, así como sus efectos sociales más amplios.

Compromiso 1: Realice pruebas de seguridad internas y externas de los sistemas de IA antes de lanzarlos. Parte de estas pruebas serán realizadas por expertos independientes y están diseñadas para proteger contra algunas de las fuentes más importantes de riesgos de la IA, como la bioseguridad, la ciberseguridad y los impactos sociales más amplios.

Todas las empresas (excepto Inflection, que optó por no hacer comentarios) dijeron que llevaron a cabo confrontaciones rojo-azul para permitir que los evaluadores internos y externos exploraran las fallas y riesgos de sus modelos. OpenAI dijo que tiene un equipo de preparación separado que prueba modelos de ciberseguridad, amenazas químicas, biológicas, radiológicas y nucleares, así como modelos sofisticados de inteligencia artificial que pueden hacer o convencer a una persona para que haga cosas que podrían causar daño. Anthropic y OpenAI también dijeron que realizarían estas pruebas con expertos externos antes de implementar nuevos modelos.Por ejemplo, para lanzar su último modelo, Claude 3.5, Anthropic realizó pruebas previas a la implementación con expertos del Instituto Británico de Seguridad de Inteligencia Artificial. Anthropic también permitió a la organización de investigación sin fines de lucro METR realizar pruebas previas a la implementación de Claude 3.5.Piloto automático La funcionalidad fue “explorada preliminarmente”. Google dijo que también está llevando a cabo enfrentamientos internos rojo-azules en su modelo Gemini para probar los límites del contenido relacionado con las elecciones, los riesgos sociales y las preocupaciones de seguridad nacional. Microsoft dijo que ha trabajado con evaluadores externos de NewsGuard, una organización que promueve la integridad periodística, para evaluar el riesgo y mitigar el riesgo del uso indebido de deepfakes en la herramienta de conversión de texto a imagen de Microsoft. Meta dijo que además del enfrentamiento rojo-azul, también evaluó su último modelo, el Llama 3, para ver cómo se desempeña en una variedad de áreas de riesgo, incluidas armas, ciberataques y explotación infantil.

“Cuando se trata de pruebas, no basta con informar que una empresa está tomando medidas”, afirmó Rishi Bommasani. Amazon y Anthropic, por ejemplo, dijeron que han unido fuerzas con la organización sin fines de lucro Thorn para abordar los riesgos que representa la inteligencia artificial para la seguridad infantil. Le gustaría saber más detalles sobre cómo las intervenciones que está implementando la empresa realmente reducen estos riesgos.

"Debemos entender claramente que no son sólo las empresas las que están haciendo cosas, sino que esas cosas están teniendo el efecto deseado", dijo Rishi Bommasani.

resultado: muy bien. Avanzar contra el rojo y el azul y probar diversos riesgos es un trabajo importante. Sin embargo, a Merve Hickok le gustaría que los investigadores independientes tuvieran un mayor acceso a los modelos de la empresa.

Compromiso 2. Las empresas se comprometen a compartir información en toda la industria y con los gobiernos, la sociedad civil y el mundo académico sobre la gestión de los riesgos de la IA. Esto incluye las mejores prácticas de seguridad, información sobre los intentos de eludir las medidas de seguridad y colaboración técnica.

Compromiso 2: Compartir información sobre la gestión de riesgos de la IA con la industria y el gobierno, la sociedad civil y el mundo académico. Esto incluye mejores prácticas de seguridad, información sobre intentos de eludir las salvaguardias y cooperación técnica.

Después de firmar el compromiso voluntario, Google, Microsoft, Anthropic y OpenAI formaron el Frontier Model Forum, una organización sin fines de lucro diseñada para promover el debate y la acción sobre la seguridad y la responsabilidad de la inteligencia artificial. Más tarde se unieron Amazon y Meta.

Rishi Bommasani dijo que asociarse con organizaciones sin fines de lucro que las empresas de IA financian ellas mismas puede no ser un compromiso voluntario. En su opinión, el Foro Modelo Frontier podría ser una forma para que estas empresas colaboren entre sí y transmitan mensajes de seguridad, algo que a menudo les cuesta hacer como competidores.

"Incluso si no revelan información al público, uno esperaría que al menos encontraran colectivamente formas de reducir el riesgo", dijo Rishi Bommasani.

Los siete firmantes también son miembros del Consorcio del Instituto de Inteligencia Artificial para la Seguridad (AISIC), establecido por el Instituto Nacional de Estándares y Tecnología (NIST) para desarrollar directrices y estándares para la política de IA y la evaluación del desempeño de la IA. Un gran consorcio de entidades públicas y privadas. actores del sector. Google, Microsoft y OpenAI también tienen representantes en el Grupo Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial.

Muchas empresas también destacaron sus colaboraciones de investigación con el mundo académico. Por ejemplo, Google es parte de MLCommons, donde trabaja con académicos para realizar investigaciones comparativas de seguridad de IA en todas las industrias. Google también dijo que contribuye activamente con herramientas y recursos, como créditos computacionales, a programas como el programa piloto de Recursos de Investigación de Inteligencia Artificial Nacional de la Fundación Nacional de Ciencias, que tiene como objetivo democratizar la investigación de inteligencia artificial en los Estados Unidos.

Muchas empresas también contribuyen a Partnership on AI, otra organización sin fines de lucro cofundada por Amazon, Google, Microsoft, Facebook, DeepMind e IBM, para implementar los modelos subyacentes.

resultado: Aún queda trabajo por hacer. A medida que la industria trabaja en conjunto para hacer que los sistemas de IA sean seguros y confiables, compartir más información es sin duda un paso importante en la dirección correcta. Sin embargo, no está claro cuánto de los esfuerzos anunciados resultarán realmente en un cambio significativo y cuánto será sólo cosmético.

Compromiso 3. Las empresas se comprometen a invertir en ciberseguridad y en salvaguardas contra amenazas internas para proteger los pesos de los modelos patentados y no publicados. Estos pesos de los modelos son la parte más esencial de un sistema de IA, y las empresas coinciden en que es vital que los pesos de los modelos se publiquen solo cuando sea necesario y cuando se consideren los riesgos de seguridad.

Compromiso 3: Invierta en ciberseguridad y medidas de protección contra amenazas internas para proteger los pesos de los modelos propietarios e inéditos. Estos pesos de modelo son la parte más importante de un sistema de IA, y las empresas coinciden en que es fundamental publicar pesos de modelo únicamente de forma intencionada y teniendo en cuenta los riesgos de seguridad.

Muchas empresas han implementado nuevas medidas de ciberseguridad durante el año pasado. Por ejemplo, Microsoft lanzó su "Security Future Initiative" para combatir la creciente escala de los ciberataques. Microsoft dice que los pesos de sus modelos están encriptados para reducir el riesgo potencial de robo de modelos y aplica fuertes controles de autenticación y acceso al implementar modelos altamente personalizados.

Google también lanzó un programa de ciberdefensa con inteligencia artificial. En mayo, OpenAI compartió seis nuevas medidas que estaba desarrollando para complementar sus prácticas de ciberseguridad existentes, como extender las protecciones criptográficas al hardware de IA, y también tiene un programa de subvenciones de ciberseguridad que permite a los investigadores utilizar su modelo para construir defensas de ciberseguridad.

Amazon dijo que también ha tomado medidas específicas contra ataques exclusivos de la IA generativa, como el "envenenamiento de datos" y la "inyección de palabras de sugerencia", que pueden usar sugerencias para guiar a los modelos de lenguaje a ignorar instrucciones previas y protecciones de seguridad.

Días después de firmar el compromiso voluntario, Anthropic publicó detalles sobre sus salvaguardas, que incluyen prácticas comunes de ciberseguridad, como controlar quién tiene acceso a los modelos y sus pesos, así como inspeccionar y controlar las cadenas de suministro de terceros. La empresa también trabaja con evaluadores independientes para evaluar si los controles que diseña satisfacen las necesidades de ciberseguridad.

resultado: muy bien. Todas las empresas dicen que han tomado medidas adicionales para proteger sus modelos, aunque no parece haber mucho consenso sobre las mejores formas de proteger los modelos de IA.

Compromiso 4. Las empresas se comprometen a facilitar a terceros la detección y notificación de vulnerabilidades en sus sistemas de IA. Algunos problemas pueden persistir incluso después de que se lance un sistema de IA y un mecanismo de notificación sólido permite detectarlos y solucionarlos rápidamente.

Compromiso 4: Facilitar a terceros descubrir y reportar vulnerabilidades en sus sistemas de inteligencia artificial. Incluso después de que se lance el sistema de inteligencia artificial, es posible que aún existan algunos problemas, y un poderoso mecanismo de informes puede permitir que los problemas se descubran rápidamente y se solucionen de manera oportuna.

Una de las formas más populares de cumplir esta promesa es implementar un programa de “recompensas por errores”, que recompensa a las personas por descubrir fallas en los sistemas de inteligencia artificial. Entre ellos Google, Microsoft, Meta, Anthropic y OpenAI han lanzado planes de este tipo para sistemas de inteligencia artificial. Amazon y Anthropic también dijeron que han establecido formularios en sus sitios web donde los investigadores de seguridad pueden enviar informes de vulnerabilidad.

Según Brandie Nonnecke, podrían llevar años descubrir cómo hacer un buen trabajo con una auditoría de terceros. "Esto no es sólo un desafío técnico, sino un desafío sociotécnico. Nos llevará años no sólo determinar los estándares técnicos para la inteligencia artificial, sino también determinar los estándares sociotécnicos, lo cual es complejo y difícil. " ella dijo. .

Brandie Nonnecke dijo que le preocupa que las primeras empresas en implementar auditorías de terceros puedan sentar un mal precedente sobre cómo pensar y abordar los riesgos sociotécnicos de la inteligencia artificial. Por ejemplo, una auditoría puede definir, evaluar y abordar ciertos riesgos pero ignorar otros.

resultado: Aún queda trabajo por hacer. Las recompensas por errores son excelentes, pero no son lo suficientemente completas. Las nuevas leyes, como el proyecto de ley de inteligencia artificial de la UE, exigirán que las empresas de tecnología realicen auditorías, y sería mejor si las empresas de tecnología compartieran historias de éxito de dichas auditorías.

Compromiso 5. Las empresas se comprometen a desarrollar mecanismos técnicos sólidos para garantizar que los usuarios sepan cuándo el contenido es generado por IA, como un sistema de marca de agua. Esta acción permite que la creatividad con IA florezca, pero reduce los peligros de fraude y engaño.

Compromiso 5:El desarrollo de potentes mecanismos técnicos para garantizar que los usuarios sepan qué contenido genera la IA, como los “sistemas de marcas de agua”, permite que florezca la creatividad de la IA y al mismo tiempo se reduce el riesgo de fraude y engaño.

Muchas empresas han creado sistemas de marcas de agua para contenido generado por IA. Por ejemplo, Google lanzó SynthID, una herramienta de marcas de agua para imágenes, audio, texto y videos generados por Gemini. Meta ha desarrollado una herramienta de marca de agua de imagen llamada "Stable Signature" y una herramienta de marca de agua de voz llamada "AudioSeal". Amazon ahora agrega una "marca de agua invisible" a las imágenes generadas por su modelo de generación de imágenes Titan. OpenAI utilizó marcas de agua en su modelo de voz personalizado Voice Engine y creó un clasificador de detección de imágenes para las imágenes generadas por DALL-E 3. Anthropic es la única empresa que aún no ha creado una herramienta de marca de agua, porque la marca de agua es principalmente para imágenes y el modelo Claude de la empresa no admite imágenes.

Todas las empresas, excepto Inflection, Anthropic y Meta, también son miembros de Content Provenance and Authenticity Alliance (C2PA), una alianza industrial que discutirá cuestiones relacionadas con cuándo se creó el contenido y si fue creado o editado por inteligencia artificial o humanos. La información está incrustada en los metadatos de la imagen. Microsoft y OpenAl añaden automáticamente los metadatos de origen de C2PA a las imágenes creadas con DALL-E 3 y a los vídeos creados con Sora. Si bien Meta no es miembro de la alianza, anunció que está utilizando el estándar C2PA para identificar imágenes generadas por IA en su plataforma.

"Las seis empresas que firmaron el compromiso voluntario naturalmente gravitan hacia enfoques tecnológicos para abordar los riesgos, y esto es particularmente cierto con los sistemas de marcas de agua", dijo Rishi Bommasani.

"La pregunta es: ¿pueden las 'soluciones tecnológicas' lograr avances significativos y resolver los problemas sociales subyacentes que nos llevan a preguntarnos si el contenido es generado por máquinas?", añadió.

resultado: muy bien. En general, este es un resultado alentador y, si bien el sistema de marcas de agua aún es experimental y poco confiable, aún es bueno ver la investigación que lo rodea y el compromiso con el estándar C2PA. Eso es mejor que nada, especialmente en un año electoral muy ocupado.

Compromiso 6. Las empresas se comprometen a informar públicamente sobre las capacidades, limitaciones y áreas de uso adecuado e inadecuado de sus sistemas de IA. Este informe cubrirá tanto los riesgos de seguridad como los riesgos sociales, como los efectos sobre la imparcialidad y los sesgos.

Compromiso 6: Informar públicamente sobre las capacidades, limitaciones y áreas en las que sus sistemas de IA son adecuados para su uso. El informe cubrirá los riesgos de seguridad y los riesgos sociales, como los impactos sobre la equidad y los prejuicios.

La promesa de la Casa Blanca deja mucho margen de interpretación; por ejemplo, las empresas pueden técnicamente cumplir con esos requisitos de divulgación pública siempre que avancen en esa dirección, mientras que los niveles de transparencia pueden variar ampliamente.

En este caso, la solución más habitual que ofrecen las empresas tecnológicas es la denominada "tarjeta modelo". Si bien cada empresa los llama de manera ligeramente diferente, esencialmente sirven como una especie de descripción de producto para el modelo de IA. Pueden cubrir todo, desde las capacidades y limitaciones de un modelo (incluido cómo medir los puntos de referencia de equidad y explicabilidad) hasta la autenticidad, la solidez, la gobernanza, la privacidad y la seguridad. Anthropic dijo que también probará el modelo para detectar posibles problemas de seguridad que puedan surgir más adelante.

Microsoft ha publicado su Informe anual de transparencia de IA responsable, que proporciona información sobre cómo la empresa crea aplicaciones que utilizan inteligencia artificial generativa, toma decisiones y supervisa la implementación de estas aplicaciones. Microsoft también dijo que deja claro dónde y cómo se utiliza la inteligencia artificial en sus productos.

resultado: Aún queda trabajo por hacer. Merve Hickok dijo que aumentar la transparencia en las estructuras de gobierno y las relaciones financieras entre las empresas sería un área de mejora para todas las empresas, y también le gustaría que las empresas fueran más transparentes sobre las fuentes de datos, los procesos de capacitación modelo, los incidentes de seguridad y el uso de energía.

Compromiso 7. Las empresas se comprometen a priorizar la investigación sobre los riesgos sociales que pueden plantear los sistemas de IA, incluida la prevención de prejuicios y discriminación perjudiciales y la protección de la privacidad. El historial de la IA muestra lo insidiosos y la prevalencia de estos peligros, y las empresas se comprometen a implementar IA que los mitigue.

Compromiso 7: Priorizar la investigación sobre los riesgos sociales que pueden traer los sistemas de inteligencia artificial, incluyendo evitar sesgos dañinos, discriminación y protección de la privacidad. El historial de la IA muestra cuán insidiosos y generalizados son estos peligros, y estas empresas prometen que la IA los mitigará.

Las empresas de tecnología han estado ocupadas realizando investigaciones de seguridad e incorporando los hallazgos en sus productos. Amazon construyó "barandillas" para "Amazon Bedrock" que pueden detectar alucinaciones y también aplicar protecciones de seguridad, privacidad y autenticidad. Anthropic dijo que contrató un equipo de investigación enfocado en estudiar los riesgos sociales y la privacidad, y durante el año pasado introdujo capacidades emergentes para suplantación de identidad, jailbreak, estrategias de reducción de la discriminación y modelos que alteran su propio código o realizan investigaciones de persuasión. OpenAI dice que ha entrenado sus modelos para evitar "contenido de odio" y rechazar contenido de odio o extremista, y ha entrenado a GPT-4V para rechazar muchas solicitudes que requieren respuestas basadas en estereotipos. Google DeepMind también publicó una investigación que evalúa capacidades peligrosas y realizó investigaciones sobre el uso indebido de la IA generativa.

Todas las empresas invierten mucho en investigación en este ámbito. Google, por ejemplo, ha invertido millones de dólares para crear un nuevo Fondo de Seguridad de IA para promover la investigación en este campo a través de foros de modelado de vanguardia. Microsoft dijo que ha comprometido 20 millones de dólares en fondos para estudiar los riesgos sociales a través de recursos nacionales de investigación de inteligencia artificial y lanzó un programa acelerador de investigación de modelos de inteligencia artificial, el programa Accelerating Fundamental Model Research. La compañía también ha contratado a 24 personas enfocadas en investigadores en inteligencia artificial y. sociología.

resultado: muy bien. Es una promesa fácil de lograr, ya que los firmantes son algunos de los laboratorios de investigación de IA corporativos más grandes y ricos del mundo. Si bien una mayor investigación sobre cómo hacer que los sistemas de IA sean seguros es un paso bienvenido, los críticos señalan que centrarse en la investigación de seguridad desvía atención y recursos de la investigación de IA, que se centra en daños más inmediatos, como la discriminación y los prejuicios.

Compromiso 8. Las empresas se comprometen a desarrollar e implementar sistemas avanzados de inteligencia artificial para ayudar a abordar los mayores desafíos de la sociedad. Desde la prevención del cáncer hasta la mitigación del cambio climático y muchos otros, la inteligencia artificial, si se gestiona adecuadamente, puede contribuir enormemente a la prosperidad, la igualdad y la seguridad de todos.

Compromiso 8:Al desarrollar e implementar sistemas avanzados de inteligencia artificial para ayudar a resolver los mayores desafíos de la sociedad, desde la prevención del cáncer hasta la mitigación del cambio climático y muchas otras áreas, si se administra correctamente, la inteligencia artificial puede promover significativamente la prosperidad, la igualdad y la seguridad humanas.

Desde que hicieron esta promesa, las empresas de tecnología han estado resolviendo una variedad de problemas. Por ejemplo, Pfizer utiliza Claude para evaluar tendencias en la investigación del tratamiento del cáncer después de recopilar datos relevantes, mientras que la empresa biofarmacéutica estadounidense Gilead utiliza la IA generativa de Amazon Web Services para realizar evaluaciones de viabilidad de estudios clínicos y analizar conjuntos de datos.

Google DeepMind tiene una sólida trayectoria en el lanzamiento de herramientas de inteligencia artificial que pueden ayudar a los científicos. Por ejemplo, AlphaFold 3 puede predecir la estructura y las interacciones de casi todas las moléculas vivas. AlphaGeometry resuelve problemas geométricos a un nivel comparable al de los mejores estudiantes de secundaria. GraphCast es un modelo de inteligencia artificial capaz de realizar predicciones meteorológicas a medio plazo. Mientras tanto, Microsoft está utilizando imágenes satelitales e inteligencia artificial para mejorar la respuesta a los incendios forestales en Maui, Hawaii, y mapear poblaciones vulnerables a los impactos climáticos, lo que ayuda a los investigadores a descubrir riesgos como la inseguridad alimentaria, la migración forzada y las enfermedades.

Mientras tanto, OpenAI anunció colaboraciones y financiación para varios proyectos de investigación, como uno sobre cómo los educadores y científicos pueden utilizar de forma segura modelos de IA multimodal en entornos de laboratorio. La empresa también financia "hackathons" para ayudar a los investigadores a desarrollar energía limpia en su plataforma.

resultado: muy bien. Algunos de los trabajos en áreas como el uso de inteligencia artificial para facilitar el descubrimiento científico o predecir el clima son realmente emocionantes. Las empresas de IA aún no la utilizan para prevenir el cáncer, lo cual, para empezar, es un listón bastante alto.

En general, hay algunos cambios positivos en la forma en que se construye la IA, como la confrontación rojo-azul, sistemas de marcas de agua y nuevas formas de compartir las mejores prácticas entre industrias. Sin embargo, estas son sólo algunas de las ingeniosas soluciones tecnológicas que se han encontrado para abordar el complicado problema sociotécnico de los peligros de la IA, y queda mucho más trabajo por hacer. Un año después, el compromiso todavía enfatiza demasiado un tipo específico de seguridad de la IA que se centra en "riesgos hipotéticos" como las armas biológicas, sin mencionar la protección del consumidor, los deepfakes, los datos y los derechos de autor y la huella ambiental de la IA, omisiones que hoy parecen. francamente extraño.

Enlace original:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/