noticias

OpenAI dice que el controvertido proyecto de ley de IA de California perjudicará la innovación

2024-08-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report, 22 de agosto, según Bloomberg News, OpenAI se opone a un proyecto de ley de California que impone nuevos requisitos de seguridad a las empresas de inteligencia artificial, uniéndose a líderes tecnológicos y políticos que recientemente se han opuesto a esta controvertida legislación.

La startup con sede en San Francisco dijo que el proyecto de ley perjudicaría la innovación en la industria de la inteligencia artificial y argumentó que la cuestión de la regulación debería ser establecida por el gobierno federal, no por los estados.

La carta también planteó preocupaciones de que el proyecto de ley, si se aprueba, podría tener impactos amplios y significativos en la competitividad de Estados Unidos en inteligencia artificial y seguridad nacional.

La SB 1047, propuesta por Wiener, apunta a crear lo que su oficina llama estándares de seguridad de sentido común para las empresas que producen grandes modelos de inteligencia artificial que exceden ciertos umbrales de tamaño y costo.

El proyecto de ley, que fue aprobado por el Senado estatal en mayo, requeriría que las empresas de inteligencia artificial tomaran medidas para evitar que sus modelos causen daños graves, como facilitar el desarrollo de armas biológicas que podrían causar bajas generalizadas o causar más de 500 millones de dólares en daños económicos.

Según el proyecto de ley, las empresas deben garantizar que los sistemas de IA se puedan apagar, tomar precauciones razonables para garantizar que los modelos de IA no causen desastres y divulgar declaraciones de cumplimiento al Fiscal General de California. Si las empresas no cumplen con estos requisitos, pueden ser demandadas y enfrentar sanciones civiles.

El proyecto de ley enfrentó una fuerte oposición de muchas grandes empresas tecnológicas, nuevas empresas y capitalistas de riesgo, quienes dijeron que era una extralimitación de una tecnología aún en su infancia y que podría sofocar la innovación tecnológica en el estado.

Algunos críticos del proyecto de ley temen que pueda expulsar a las empresas de inteligencia artificial de California.

OpenAI expresó las mismas preocupaciones en una carta a la oficina de Weiner.

Jason Kwon, director de estrategia de OpenAI, escribió en la carta: La revolución de la inteligencia artificial acaba de comenzar y la posición única de California como líder mundial en inteligencia artificial está impulsando la vitalidad económica del estado. La SB 1047 amenazaría ese crecimiento, ralentizaría el ritmo de la innovación y provocaría que los ingenieros y empresarios de clase mundial de California abandonen el estado en busca de mayores oportunidades en otros lugares.

Según una persona familiarizada con los planes inmobiliarios de la empresa,OpenAI ha detenido las discusiones sobre la expansión de su oficina de San Francisco debido a preocupaciones sobre el incierto entorno regulatorio en California, dijo la persona, que solicitó el anonimato para discutir conversaciones internas.

Wiener defendió la legislación propuesta en un comunicado y dijo que la carta de OpenAI no criticaba ninguna disposición del proyecto de ley.

También dijo que el argumento de que el talento en IA está abandonando el estado es discutible porque la ley se aplicaría a cualquier empresa que haga negocios en California, independientemente de dónde estén ubicadas sus oficinas.

Un representante de la oficina de Wiener señaló que dos destacados expertos en seguridad nacional apoyaron públicamente el proyecto de ley.

"La SB 1047 es un proyecto de ley muy razonable que exige que los grandes laboratorios de inteligencia artificial hagan lo que han prometido hacer, que es probar sus grandes modelos para detectar riesgos de seguridad catastróficos", dijo Wiener. "La SB 1047 está bien calibrada con respecto a lo que sabemos sobre los riesgos previsibles de la inteligencia artificial y merece su promulgación".

Los críticos argumentaron que el proyecto de ley, que requeriría que las empresas presentaran información detallada sobre sus modelos al estado, obstaculizaría la innovación e impediría que los pequeños desarrolladores de código abierto creen nuevas empresas por temor a ser demandados.

La semana pasada, en un esfuerzo por abordar cierta resistencia, Wiener revisó la legislación propuesta para eliminar la responsabilidad penal de las empresas tecnológicas que no cumplen, agregar protecciones para los pequeños desarrolladores de modelos de código abierto y eliminar la Unidad Modelo Frontier recientemente propuesta.

Anteriormente, los desarrolladores podían estar sujetos a sanciones por perjurio si a sabiendas presentaban información falsa al gobierno sobre sus planes de seguridad. Anthropic, rival de OpenAI, conocido por estar más centrado en la seguridad que sus rivales, ha dicho anteriormente que apoyaría algunas de las enmiendas del proyecto de ley. Pero incluso después de que se introdujeran las enmiendas, el proyecto de ley siguió enfrentando oposición, incluida la de la ex presidenta de la Cámara de Representantes, Nancy Pelosi, quien emitió un comunicado calificando el proyecto de ley como mal informado.

Un grupo de miembros demócratas del Congreso también se pronunció en contra del proyecto de ley.

OpenAI y otras empresas de la industria tecnológica han contratado cabilderos que han estado trabajando en el proyecto de ley, según documentos estatales.

OpenAI dijo en la carta que había estado en contacto con la oficina de Wiener sobre el proyecto de ley durante varios meses pero finalmente no lo apoyó.

"Debemos proteger las ventajas de la IA de Estados Unidos a través de un conjunto de políticas federales, no políticas estatales, que brinden claridad y certeza a los laboratorios y desarrolladores de IA y al mismo tiempo protejan la seguridad pública", dice la carta.

OpenAI cree que las agencias federales como la Oficina de Política Científica y Tecnológica de la Casa Blanca, el Departamento de Comercio y el Consejo de Seguridad Nacional están mejor preparadas para gestionar los riesgos críticos de la IA que las agencias estatales de California.

La compañía dijo que apoya varias propuestas de legislación federal, como la Ley de Innovación del Futuro de la Inteligencia Artificial, que brinda apoyo del Congreso para un nuevo Instituto de Seguridad de la IA de EE. UU.

"Como he dicho repetidamente, estoy de acuerdo en que lo ideal sería que el Congreso se ocupara de este tema", dijo Wiener en un comunicado. "Sin embargo, el Congreso no lo ha hecho y dudamos que lo haga. Según el argumento de OpenAI sobre el Congreso, California nunca aprobará su ley de privacidad de datos y, dada la falta de acción del Congreso, los californianos no obtendrán nada por sus datos".

La SB 1047 estará en la boleta electoral de la Legislatura de California en algún momento de este mes.

Si se aprueba, eventualmente pasaría al escritorio del gobernador de California, Gavin Newsom.Si bien Newsom no ha dicho si vetará el proyecto de ley, sí se ha pronunciado sobre la necesidad de promover la innovación en IA en California y al mismo tiempo reducir los riesgos.