noticias

openai y anthropic acuerdan permitir que el gobierno de ee. uu. evalúe la seguridad antes de lanzar un nuevo modelo

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house informó el 30 de agosto que las empresas de inteligencia artificial openai y anthropic acordaron permitir que el gobierno de ee. uu. acceda a nuevos modelos importantes de inteligencia artificial antes de que estas empresas los lancen para ayudar a mejorar su seguridad.


fuente de la imagen pexels

el instituto de seguridad de ia de ee. uu. anunció el jueves que estolas dos empresas han firmado un memorando de entendimiento con el instituto, comprometiéndose a proporcionar acceso antes y después de la publicación del modelo.. el gobierno de estados unidos dijo que la medida les ayudará a evaluar conjuntamente los riesgos de seguridad y mitigar problemas potenciales. la agencia dijo que trabajaría con su homólogo del reino unido para proporcionar comentarios sobre las mejoras de seguridad.

jason kwon, director de estrategia de openai, expresó su apoyo a la cooperación:

“apoyamos firmemente la misión del american ai safety institute y esperamos trabajar juntos para desarrollar mejores prácticas y estándares para la seguridad de los modelos de ia. creemos que el instituto desempeña un papel clave para garantizar el liderazgo de estados unidos en el desarrollo responsable de la ia. esperamos que a través de la cooperación con el instituto podamos proporcionar un marco del que el mundo pueda aprender”.

anthropic también afirmó que es muy importante establecer la capacidad de probar eficazmente modelos de ia. jack clark, cofundador y director de políticas de la empresa, dijo:

"garantizar que la ia sea segura y confiable es crucial para que esta tecnología tenga un impacto positivo. a través de tales pruebas y cooperación, los riesgos que trae consigo la ia se pueden descubrir y reducir mejor, y se puede promover el desarrollo responsable de la ia. estamos comprometidos con estamos orgullosos de ser parte de este importante trabajo y esperamos establecer nuevos estándares para la seguridad y confiabilidad de la ia”.

compartir el acceso a los modelos de inteligencia artificial es un paso importante a medida que los legisladores federales y estatales consideran cómo poner límites a la tecnología sin sofocar la innovación. it house señaló que el miércoles, los legisladores de california aprobaron la ley de innovación en seguridad del modelo de inteligencia artificial frontier (sb 1047), que requiere que las empresas de inteligencia artificial en california tomen medidas de seguridad específicas antes de entrenar modelos básicos avanzados. esto provocó el rechazo de empresas de inteligencia artificial, incluidas openai y anthropic, que advirtieron que podría perjudicar a los desarrolladores de código abierto más pequeños, aunque el proyecto de ley ha sido revisado desde entonces y aún está esperando la aprobación del gobernador de california, gavin newsom.

mientras tanto, la casa blanca ha estado intentando conseguir compromisos voluntarios de las principales empresas sobre medidas de seguridad de la ia. varias empresas líderes en ia han asumido compromisos no vinculantes para invertir en investigación sobre ciberseguridad y discriminación y para trabajar en la creación de marcas de agua en el contenido generado por ia.

elizabeth kelly, directora del instituto nacional para la seguridad de la inteligencia artificial, afirmó en un comunicado que estos nuevos acuerdos son sólo "el comienzo, pero son un hito importante en nuestros esfuerzos para ayudar a gestionar responsablemente el futuro de la inteligencia artificial".