noticias

Altman acusado de ser deshonesto sobre el trabajo de seguridad de OpenAI

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Informe Whip Bull, 3 de agosto, según informes extranjeros, después de que un denunciante alegara ante la Comisión de Bolsa y Valores de EE. UU. (SEC) que el acuerdo de confidencialidad de la empresa de inteligencia artificial OpenAI impedía ilegalmente a los empleados revelar importantes problemas de seguridad a los legisladores, OpenAI se enfrenta a una presión cada vez mayor. Habrá mayor presión para demostrar que no oculta los riesgos de la inteligencia artificial.

En una carta enviada ayer a OpenAI, el senador Chuck Grassley (R-Iowa) solicitó pruebas de que el hecho de que OpenAI ya no requiera firmas podría impedir que sus empleados presenten solicitudes a los reguladores gubernamentales en el Acuerdo para Proteger la Divulgación.

Específicamente, Grassley pidió a OpenAI que proporcionara acuerdos vigentes de empleo, indemnización, no menosprecio y confidencialidad para asegurar al Congreso que los contratos no impiden la divulgación.

Grassley dijo que esto es fundamental para que podamos confiar en los denunciantes que exponen las amenazas emergentes para ayudar a desarrollar políticas efectivas de IA que protejan contra los riesgos existentes de IA que surgen de los avances tecnológicos.

La carta de Grassley decía que aparentemente pidió a OpenAI dos veces estos registros pero no recibió respuesta.

La portavoz de Grassley, Clare Slattery, dijo a The Washington Post que hasta el momento OpenAI no ha respondido a la última solicitud de documentos.

"No es suficiente decir que hiciste una actualización", dijo Grassley en un comunicado proporcionado a Ars. "Los hechos hablan más que las palabras. Altman necesita proporcionar registros y responder a mi solicitud de supervisión para que el Congreso pueda evaluar con precisión si OpenAI está protegiendo adecuadamente a sus empleados y usuarios".

Además de pedirle a OpenAI que actualice su acuerdo de empleados recientemente, Grassley también instó a OpenAI a ser más transparente sobre el número total de solicitudes de empleados que buscan divulgaciones federales desde 2023.

Los senadores querían saber qué información querían los empleados revelar a los funcionarios y si OpenAI realmente aprobó sus solicitudes.

Asimismo, Grassley pidió a OpenAI que confirmara cuántas investigaciones de la SEC ha abierto desde 2023.

En conjunto, los documentos revelarán si los empleados de OpenAI todavía tienen prohibido hacer divulgaciones federales, qué tipos de divulgaciones niega OpenAI y hasta qué punto la SEC monitorea OpenAI para ocultar riesgos de seguridad.

Grassley escribió en la carta: OpenAI debe garantizar que sus empleados puedan proporcionar divulgaciones protegidas sin restricciones ilegales.

Le ha pedido a OpenAI que responda antes del 15 de agosto para que el Congreso pueda llevar a cabo una supervisión objetiva e independiente de los protocolos de seguridad y acuerdos de confidencialidad de OpenAI.

OpenAI no respondió de inmediato a la solicitud de comentarios de Ars.

En .

También confirmó que OpenAI quiere que los empleados actuales y anteriores se sientan cómodos planteando sus inquietudes.

"Esto es fundamental para cualquier empresa, pero especialmente para nosotros, donde es una parte importante de nuestro programa de seguridad", escribió Altman. En mayo, eliminamos una cláusula de no menosprecio para empleados actuales y anteriores, así como una cláusula que otorgaba a OpenAI el derecho de cancelar el capital adquirido (aunque nunca se utilizó). Hemos estado trabajando duro para corregir esto.

En julio, el denunciante dijo a la Comisión de Bolsa y Valores que se debería exigir a OpenAI que proporcione no solo los contratos actuales de los empleados sino todos los contratos que contengan acuerdos de confidencialidad para garantizar que OpenAI no haya encubierto prácticas históricas o actuales de encubrir los riesgos de seguridad de la IA. Quieren que se notifique a todos los empleados actuales y anteriores sobre cualquier contrato que contenga acuerdos de confidencialidad ilegales, y que se multe a OpenAI por cada contrato ilegal.

Sam Altman acusado de desdeñar los problemas de seguridad de la IA

Pero los llamados a una mayor transparencia por parte de OpenAI no se limitan a los legisladores. El día antes de la carta abierta de Grassley, el director ejecutivo de OpenAI, Sam Altman, emitió una declaración sobre La declaración fue engañosa y provocó una protesta pública.

Altman escribió: Como dijimos en julio pasado, nos comprometimos a asignar al menos el 20% de nuestros recursos informáticos a los esfuerzos de seguridad en toda la empresa, lo que generó preocupaciones en la comunidad de que muchos lectores X sesgados pensaban que esto proporciona más contexto.

La nota de la comunidad señala que Altman se refería a un blog de julio que confirmaba explícitamente que OpenAI estaba asignando el 20% de los recursos informáticos a su equipo Super Alignment. Con el equipo ahora disuelto y el científico jefe responsable de Hyper-Alignment dejando la compañía, los comentaristas de X dicen que las afirmaciones de Altman engañaron al público sobre qué recursos informáticos OpenAI realmente asigna a sus esfuerzos de seguridad ahora vagamente definidos.

Algunos comentaristas de X solicitaron más detalles sobre los esfuerzos de seguridad actuales de OpenAI. En una carta del 31 de julio en respuesta a otros cinco senadores sobre cuestiones de seguridad de la IA, OpenAI explicó sus esfuerzos de seguridad con más detalle. La compañía también aclaró la declaración de Altman de que X había señalado que requería "más contexto", y escribió que los recursos informáticos mencionados en el blog de ninguna manera deberían referirse únicamente al equipo de Super Alignment.

OpenAI dijo en una carta a los senadores: Para avanzar aún más en nuestra agenda de investigación de seguridad, en julio pasado nos comprometimos a asignar al menos el 20% de los recursos informáticos a la seguridad de la IA durante un período de varios años. Este compromiso siempre se aplica a los esfuerzos de seguridad en toda la empresa, no solo en un equipo específico.

Esto confunde a algunas personas porque el blog de OpenAI dice claramente que OpenAI dedicará el 20% de los recursos informáticos que hemos adquirido hasta la fecha a resolver el problema de coordinación de superinteligencia durante los próximos cuatro años. En ese momento, OpenAI dijo que su principal apuesta de investigación fundamental era su antiguo equipo súper orquestado, que "necesita recursos informáticos porque hacerlo bien es fundamental para lograr nuestra misión".

Uno

OpenAI aún no ha respondido a la cuenta del meme, pero ha dicho anteriormente que los equipos súper alineados son fundamentales para la seguridad de la IA porque la sociedad necesita avances científicos y tecnológicos para guiar y controlar sistemas de IA que sean más inteligentes que nosotros.

OpenAI detalla iniciativas de seguridad

En la carta de OpenAI a los senadores, el director de estrategia Jason Kwon dijo a los legisladores que OpenAI protege contra el riesgo al trabajar con expertos externos para evaluar y formar equipos de nuestros modelos. Esto incluyó consultas con más de 100 expertos externos que ayudaron a evaluar los riesgos asociados con nuestro último modelo, GPT-4o.

Kwon escribe: Los hallazgos y las mitigaciones de seguridad de las pruebas del equipo rojo están disponibles públicamente en las tarjetas del sistema que acompañan a nuestros modelos, y OpenAI ha publicado un artículo sobre "Medición de los riesgos químicos, biológicos, radiológicos y nucleares (CBRN) asociados con los sistemas de inteligencia artificial". ," Investigación que estima en qué medida diferentes ocupaciones e industrias pueden verse afectadas por los modelos lingüísticos, evalúa el impacto de los modelos lingüísticos a la hora de influir en las operaciones y explica la interpretabilidad de las decisiones de los sistemas de inteligencia artificial.

Para garantizar aún más la seguridad de la IA, Kwon dijo que OpenAI llevará a cabo una implementación iterativa, primero lanzando nuevas características como el modelo de video Sora o el motor de voz a un grupo limitado, y luego lanzándolas al público en general.

Kwon escribió: Esta estrategia nos permite recibir comentarios de personas ajenas a OpenAI, actualizar nuestras barreras de seguridad según sea necesario e informar al público sobre las próximas funciones de IA antes de abrir completamente nuestro modelo.

Para los empleados que desarrollan nuevas características o modelos que todavía temen represalias por plantear preocupaciones de seguridad, Kwon dijo que OpenAI lanzó una línea directa de integridad en marzo. Este canal permite a los empleados informar problemas de forma anónima si no se sienten cómodos planteando problemas a través de otros canales existentes.

Si bien OpenAI dice que los empleados son libres de hablar sobre cualquier inquietud, está claro que si OpenAI considera que cierta información es un riesgo para la seguridad, aún así no se puede compartir.

Kwon escribe: OpenAI sigue haciendo una distinción entre plantear inquietudes y filtrar secretos comerciales de la empresa. Este último (derecho protegido a la divulgación) sigue estando prohibido en virtud de acuerdos de confidencialidad con empleados actuales y anteriores. Creemos que esta prohibición es particularmente importante dado el impacto que nuestra tecnología tiene en la seguridad nacional de Estados Unidos.

Dado que esta excepción permite a OpenAI negar algunas divulgaciones federales, Grassley probablemente quería saber si OpenAI podría haber negado indebidamente divulgaciones basándose en la protección de secretos comerciales.

La carta de Grassley dejaba claro que los senadores estaban preocupados por los riesgos para la seguridad de las empresas.