notícias

OpenAI diz que o polêmico projeto de lei de IA da Califórnia prejudicará a inovação

2024-08-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report, 22 de agosto, de acordo com a Bloomberg News, a OpenAI se opõe a um projeto de lei da Califórnia que impõe novos requisitos de segurança às empresas de inteligência artificial, juntando-se a líderes de tecnologia e políticos que recentemente se opuseram a esta controversa legislação de fileiras.

A startup com sede em São Francisco disse que o projeto prejudicaria a inovação na indústria de inteligência artificial e argumentou que a questão da regulamentação deveria ser definida pelo governo federal, não pelos estados.

A carta também levantou preocupações de que o projeto de lei, se aprovado, poderia ter impactos amplos e significativos na competitividade dos EUA em inteligência artificial e segurança nacional.

O SB 1047, proposto por Wiener, visa criar o que o seu gabinete chama de padrões de segurança de bom senso para empresas que produzem grandes modelos de inteligência artificial que excedem determinados limites de tamanho e custo.

O projeto de lei, que foi aprovado no Senado estadual em maio, exigiria que as empresas de IA tomassem medidas para evitar que os seus modelos causassem danos graves, como facilitar o desenvolvimento de armas biológicas que poderiam causar vítimas generalizadas ou causar mais de 500 milhões de dólares em danos económicos.

De acordo com o projeto de lei, as empresas são obrigadas a garantir que os sistemas de IA possam ser encerrados, a tomar os devidos cuidados para garantir que os modelos de IA não causam desastres e a divulgar declarações de conformidade ao Procurador-Geral da Califórnia. Se as empresas não cumprirem esses requisitos, poderão ser processadas e enfrentar sanções civis.

O projeto de lei enfrentou forte oposição de muitas grandes empresas de tecnologia, startups e capitalistas de risco, que consideraram que era um exagero para uma tecnologia ainda em sua infância e que poderia sufocar a inovação tecnológica no estado.

Alguns críticos do projeto temem que ele possa expulsar as empresas de IA da Califórnia.

A OpenAI expressou as mesmas preocupações em uma carta ao escritório de Weiner.

O diretor de estratégia da OpenAI, Jason Kwon, escreveu na carta: A revolução da inteligência artificial apenas começou, e a posição única da Califórnia como líder global em inteligência artificial está impulsionando a vitalidade econômica do estado. O SB 1047 ameaçaria esse crescimento, abrandaria o ritmo da inovação e faria com que os engenheiros e empresários de classe mundial da Califórnia abandonassem o estado em busca de maiores oportunidades noutros locais.

Segundo uma pessoa familiarizada com os planos imobiliários da empresa,A OpenAI interrompeu as discussões sobre a expansão de seu escritório em São Francisco devido a preocupações com o ambiente regulatório incerto na Califórnia, disse a pessoa, solicitando anonimato para discutir conversas internas.

Wiener defendeu a legislação proposta em um comunicado e disse que a carta da OpenAI não criticava nenhuma disposição do projeto.

Ele também disse que o argumento de que os talentos da IA ​​estão deixando o estado é discutível porque a lei se aplicaria a qualquer empresa que fizesse negócios na Califórnia, independentemente de onde seus escritórios estivessem localizados.

Um representante do gabinete de Wiener observou que dois proeminentes especialistas em segurança nacional apoiaram publicamente o projecto de lei.

“O SB 1047 é um projeto de lei muito razoável que exige que grandes laboratórios de inteligência artificial façam o que prometeram fazer, que é testar seus grandes modelos quanto a riscos catastróficos de segurança”, disse Wiener. “O SB 1047 está bem calibrado em relação ao que sabemos sobre os riscos previsíveis da inteligência artificial e merece aprovação.”

Os críticos argumentaram que o projeto de lei, que exigiria que as empresas enviassem informações detalhadas sobre seus modelos ao Estado, prejudicaria a inovação e impediria que pequenos desenvolvedores de código aberto criassem startups por medo de serem processados.

Na semana passada, num esforço para enfrentar alguma resistência, Wiener revisou a legislação proposta para eliminar a responsabilidade criminal para empresas de tecnologia não conformes, adicionar proteções para pequenos desenvolvedores de modelos de código aberto e eliminar a recém-proposta Unidade de Modelo de Fronteira.

Anteriormente, os promotores poderiam estar sujeitos a penas de perjúrio se apresentassem conscientemente informações falsas ao governo sobre os seus planos de segurança. O rival da OpenAI, Antrópico, conhecido por ser mais focado na segurança do que seus rivais, disse anteriormente que apoiaria algumas das emendas do projeto de lei. Mas mesmo depois de as alterações terem sido introduzidas, o projecto de lei continuou a enfrentar oposição, incluindo da ex-presidente da Câmara, Nancy Pelosi, que emitiu uma declaração qualificando o projecto de lei de mal informado.

Um grupo de membros democratas do Congresso também se manifestou contra o projeto.

A OpenAI e outras empresas da indústria de tecnologia contrataram lobistas que estão trabalhando no projeto, de acordo com documentos estaduais.

A OpenAI disse na carta que esteve em contato com o escritório de Wiener sobre o projeto de lei por vários meses, mas acabou não o apoiando.

“Devemos proteger as vantagens da IA ​​​​da América através de um conjunto de políticas federais, não de políticas estaduais, que forneçam clareza e certeza aos laboratórios e desenvolvedores de IA, ao mesmo tempo que protegem a segurança pública”, afirma a carta.

A OpenAI acredita que agências federais como o Escritório de Política Científica e Tecnológica da Casa Branca, o Departamento de Comércio e o Conselho de Segurança Nacional são mais adequadas para gerenciar riscos críticos de IA do que as agências estaduais da Califórnia.

A empresa disse que apoia várias propostas de legislação federal, como a Lei do Futuro da Inovação em Inteligência Artificial, que fornece apoio do Congresso para um novo Instituto dos EUA para Segurança de IA.

“Como já disse repetidamente, concordo que idealmente o Congresso abordaria esta questão”, disse Wiener num comunicado. “No entanto, o Congresso não o fez e duvidamos que o faça. De acordo com o argumento da OpenAI sobre o Congresso, a Califórnia nunca aprovará a sua lei de privacidade de dados e, dada a falta de acção do Congresso, os californianos não receberão nada pelos seus dados”.

O SB 1047 estará em votação no Legislativo da Califórnia ainda este mês.

Se aprovado, eventualmente passaria para a mesa do governador da Califórnia, Gavin Newsom.Embora Newsom não tenha dito se vetará o projeto, ele falou sobre a necessidade de promover a inovação em IA na Califórnia e, ao mesmo tempo, reduzir os riscos.