noticias

openai y anthropic acuerdan presentar nuevos modelos al gobierno de ee. uu. para una evaluación de seguridad antes de lanzarlos

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

el jueves 29 de agosto, hora del este, según informes de los medios, los líderes de ia openai y anthropic acordaron permitir que el instituto de investigación de seguridad de ia del gobierno de ee. uu. evalúe las capacidades y los posibles beneficios de los nuevos modelos de ia antes de lanzarlos sobre los riesgos, e investiguen métodos de forma conjunta. para mitigar los posibles riesgos de seguridad y garantizar que estas tecnologías de ia no tengan un impacto negativo en la sociedad.

el instituto estadounidense de seguridad de ia se estableció en 2023 en virtud de una orden ejecutiva sobre ia de la administración biden-harris. la misión del instituto es desarrollar pruebas, evaluaciones y directrices para garantizar que las tecnologías de ia puedan innovar de manera responsable. además, según un acuerdo anunciado el jueves por el instituto nacional de estándares y tecnología (nist) del departamento de comercio de ee. uu., el gobierno de ee. uu. trabajará estrechamente con el instituto de seguridad de ia del reino unido para brindar retroalimentación a estas empresas de ia para ayudarlas a mejorar su medidas de seguridad.

elizabeth kelley, directora del instituto estadounidense de investigación de seguridad de ia, dijo:

"la seguridad es fundamental para impulsar la innovación tecnológica revolucionaria. estos acuerdos son sólo el comienzo, pero son importantes a medida que lideramos el desarrollo futuro de la inteligencia artificial de manera responsable".

jason kwon, director de estrategia de openai, expresó su apoyo a la colaboración:

"apoyamos firmemente la misión del instituto americano de seguridad de la ia y esperamos trabajar juntos para desarrollar mejores prácticas y estándares para la seguridad de los modelos de ia. creemos que el instituto desempeña un papel clave para garantizar el liderazgo de los ee. uu. en el desarrollo responsable del papel de la ia. esperamos que a través de la cooperación con el instituto podamos proporcionar un marco del que el mundo pueda aprender”.

anthropic también afirmó que es importante establecer la capacidad de probar eficazmente modelos de ia. jack clark, cofundador y director de políticas de la empresa, dijo:

"garantizar que la ia sea segura y confiable es crucial para que esta tecnología tenga un impacto positivo. a través de tales pruebas y cooperación, los riesgos que trae consigo la ia se pueden descubrir y reducir mejor, y se puede promover el desarrollo responsable de la ia. estamos comprometidos a ser capaz de estamos orgullosos de ser parte de este importante trabajo y esperamos establecer nuevos estándares para la seguridad y confiabilidad de la ia”.

además, cabe señalar que openai, empresa respaldada por microsoft, está preparando una nueva ronda de financiación, con el objetivo de recaudar al menos mil millones de dólares, lo que valorará la empresa en más de 100 mil millones de dólares. microsoft ha invertido 13.000 millones de dólares en openai desde 2019 y ahora posee una participación del 49% de las ganancias de la empresa.

la noticia sobre la nueva ronda de financiación llegó aproximadamente un mes después de que openai revelara que estaban probando una nueva función llamada searchgpt. esta nueva función combina tecnología de inteligencia artificial y datos de búsqueda en tiempo real. chatgpt no solo responderá preguntas en el futuro, sino que también lo ayudará a encontrar respuestas en línea.