notícias

O projeto de lei da IA ​​dos EUA está muito enfraquecido! O círculo de IA está explodindo, Li Feifei condenou publicamente, as empresas nacionais de IA estão todas preocupadas com isso

2024-08-16

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


coisas inteligentes
Autor Chen Junda
Editar Panken

Zhidongxi informou em 16 de agosto que agora mesmo, a polêmica “Lei de Inovação de Segurança de Modelo de IA de Fronteira” da Califórnia (mais tarde conhecida como Lei de Segurança de IA da Califórnia) foi anunciada emsignificativamente enfraquecidoMais tarde, foi aprovado na revisão do Comitê de Dotações da Câmara dos Representantes da Califórnia.Regulação das dificuldades jurídicas a nível nacionalEm meio ao dilema, este se tornou um passo importante para os Estados Unidos na regulamentação da IA. No entanto, algumas pessoas na comunidade tecnológica acreditam que isto.Em última análise, prejudicará a posição de liderança da Califórnia e até mesmo dos Estados Unidos no campo da IA.

O maior ajuste no projeto de lei alterado é quenão é mais permitidoO procurador-geral da Califórnia processou empresas de IA por ignorarem questões de segurança antes da ocorrência de um evento catastrófico. O projeto de lei original estipula que, enquanto os auditores descobrirem que as empresas de IA realizam atividades ilegais nas operações diárias, as empresas poderão ser processadas. Isso marca o projeto de leiO foco regulatório muda para os danos reais, também iráReduza a pressão de conformidade sobre as empresas.

A maioria das empresas de tecnologia e startups de IA dos EUA operam na Califórnia.estará sujeito à Lei.Especificamente, este projeto de lei concentra-se principalmente em "Modelos de IA de ponta"Apenas os desenvolvedores cujos custos de poder computacional para modelos de treinamento excedam US$ 100 milhões enfrentarão requisitos regulatórios. Os modelos existentes não estão dentro do escopo da supervisão. No futuroLlama 4 e GPT-5 podem ser seus principais alvos regulatórios.

Para empresas nacionais, se você realizar apenas ajustes finos e outras operações com base em código aberto, há uma grande probabilidade de que não seja incluído no escopo da supervisão. No entanto, o projeto de lei exige que os provedores de serviços em nuvem coletem informações de clientes, endereços IP, métodos de pagamento e outras informações, o que facilita o trabalho de rastreabilidade das autoridades reguladoras. Se os controlos forem ainda mais rigorosos, isto poderá tornar-seRiscos regulatórios enfrentados por algumas empresas chinesas de IA que utilizam poder computacional estrangeiro para treinamento.

As empresas abrangidas pelo âmbito da supervisão deverãotomar medidas proativasPara evitar abuso de modelo, você também precisa termodelo de desligamento de emergênciahabilidade. Além disso, são obrigados a apresentar uma declaração pública descrevendo as suas práticas de segurança. O projeto de lei introduz "Inspeção anual”Sistema, os desenvolvedores são obrigados a contratar auditores independentes para avaliar a conformidade anualmente.

Quando ocorrem atividades ilegais, as empresas podem enfrentarvariando de US$ 10 milhões a US$ 30 milhõesEste valor aumentará à medida que o custo do treinamento do modelo aumentar.

O círculo de IA se dividiu em dois campos e houve um debate acirrado.

Vencedor do Prêmio Turing 2018Jeffrey Hinton(Geoffrey Hinton) eJosué Bengio(Yoshua Bengio) expressou seu apoio e acredita que a Lei de Segurança de IA da Califórnia é uma regulamentação eficaz da tecnologia de IA.Requisitos mínimos”。

Centenas de empresários assinaramIncubadora YCMais de 100 acadêmicos na Califórnia também escreveram cartas de oposição.Instituição de capital de risco a16zCrie um site especificamente para detalhar os seis crimes da Lei, professor da Universidade de StanfordLi FeifeiEspecialmente tuitado para condenar, o ponto principal é que este projeto de lei prejudicará o investimento e o desenvolvimento em IA da Califórnia,Prejudicando significativamente o ecossistema de código aberto, não aborda os riscos substanciais provocados pela IA.

No entanto, o senador do estado da Califórnia, Scott Wiener, autor do projeto de lei de regulamentação de IA da Califórnia, refutou algumas críticas ao projeto, dizendo que a16z e YCdistorcer deliberadamente os fatos, este projeto de lei é uma otimização do quadro jurídico existente, melhora a pertinência da supervisão, não colocará um grande número de desenvolvedores na prisão e não prejudicará a inovação e a IA de código aberto.

Zhixixi compilou uma grande quantidade de informações e resumiu o conteúdo específico e as discussões relacionadas deste projeto de lei nas cinco perguntas e respostas a seguir:

1. Qual é o âmbito de aplicação? A maioria dos modelos existentes não são aplicáveis, e Llama 4 e GPT-5 podem ser incluídos no escopo regulatório

A fim de alcançar uma supervisão eficaz, este projeto de lei planejou originalmente a criação de um "Departamento Modelo de Fronteira (FMD)" para implementar os regulamentos relevantes. Com as revisões de hoje, esta divisão se transforma em uma comissão de nove membros dentro da agência do governo da Califórnia, que inclui representantes da indústria de IA, da comunidade de código aberto e da academia, e é nomeada pelo Governador e Legislativo da Califórnia. O Frontier Models Council ainda definirá limites computacionais para os modelos cobertos, emitirá orientações de segurança e emitirá regulamentos para auditores.

Como um dos centros de desenvolvimento de IA nos Estados Unidos e até no mundo, a Califórnia atraiu um grande número de empresas de IA. Mais de 30 das 50 principais empresas de IA da revista Forbes em 2024 estão operando na Califórnia. De acordo com este projeto de lei, todos eles precisam cumprir as disposições relevantes da Lei de Segurança de IA da Califórnia. No entanto, o âmbito real de aplicação deste projeto de lei será significativamente limitado pelas capacidades do modelo.Talvez apenas os principais intervenientes no grande espaço de modelos sejam regulamentados por este projeto de lei nos próximos anos.


▲ Captura de tela de parte do projeto de lei de regulamentação de IA da Califórnia (fonte: site oficial do Senado da Califórnia)

Este projeto de lei avaliará se um modelo deve ser incluído no escopo regulatório com base no poder computacional e no custo do poder computacional utilizado no treinamento do modelo, ou seja, ser classificado como "Modelo coberto”. Os regulamentos relevantes podem ser resumidos nos dois pontos seguintes:

1. Use antes de 1º de janeiro de 202710^26e mais operações inteiras ou de ponto flutuante (US$ 100 milhões com base no preço médio de mercado do poder de computação) ou uso3*10^25O modelo obtido após o ajuste fino do modelo dentro da faixa com o poder de computação será listado como o modelo dentro da faixa.

2. Após 1º de janeiro de 2027, os padrões acima serão implementados pela CalifórniaRegulador de modelo de última geraçãoFaça uma avaliação. Se o departamento modificar o limite de capacidade computacional, o novo padrão prevalecerá; se o departamento decidir que nenhuma modificação é necessária, o padrão original continuará a ser usado; Além disso, depois de 2026, os 100 milhões de dólares da norma original deverãoAjuste adequadamente para levar em conta a inflação.

Então, quais dos modelos lançados agora serão incluídos nesta gama? Há muitas maneiras de calcular o poder de computação usado no treinamento do modelo OpenAI, uma vez estimado em um artigo:

FLOPS=6º

(onde N é o número de parâmetros e D é o número de tokens)

Usando este método de cálculo e dados do modelo de código aberto, podemos estimar aproximadamente o nível de poder de computação usado atualmente pelos modelos:

Lhama 3 70B

Ele tem 70 bilhões de parâmetros e usa dados de treinamento de tokens de 15T durante o treinamento, portanto, o poder de computação usado é aproximadamente:

6*70B*15T= 6,3*10^24 FALHAS

Lhama 3.1 405B

Ele tem 405 bilhões de parâmetros e usa dados de treinamento de tokens de 15,6T durante o treinamento, portanto, o poder de computação usado é aproximadamente:

6*405B*15.6T=3.79*10^25 FALHAS


▲ Informações relacionadas ao Llama 3.1 405B (Fonte: Hugging Face)

Este método de cálculo é relativamente aproximado e pode diferir muito da situação real, mas ainda tem significado de referência. De acordo com este resultado,O Llama 3.1 405B, o rei dos modelos de código aberto, não será listado atualmente como modelo no escopo do projeto de lei., um modelo só será listado como modelo dentro da faixa se usar 2,6 vezes o poder de computação do Llama 3.1 405B.

Esses dados também podem ser apoiados pela declaração em uma carta aberta em resposta à polêmica sobre o projeto de lei do senador estadual da Califórnia William Wilson, o autor deste projeto. Ele escreveu na carta: “No modelo atualmente divulgado publicamente,.Nenhum modelo atingiu o limite de poder de computação de 10 ^ 26 FLOPs”。

Por muito tempo no futuro, a grande maioria das pequenas e médias empresas de desenvolvimento de modelos e desenvolvedores independentes poderá não precisar se preocupar com a supervisão deste projeto de lei. De acordo com o limite de poder computacional e o limite de capital do projeto de lei, seus principais objetos regulatórios são comoOpenAI, Meta, GoogleEsses grandes jogadores no campo da IA ​​​​eStartups líderes que receberam grandes investimentos.

De acordo com a declaração pública do CEO da OpenAI, Sam Altman, o custo de treinamento do GPT-4 é de aproximadamente US$ 100 milhões. Se o GPT-5 ou outros modelos OpenAI subsequentes forem lançados, eles poderão ser regulamentados por esta lei. O CEO da Meta, Mark Zuckerburg, estimou que o Llama 4 exigirá cerca de 10 vezes o poder de computação do Llama 3.1, o que significaO Llama 4 deve ser um dos poucos modelos de código aberto que será listado como modelo de gama no futuro.

2. Quais são as responsabilidades das empresas? Os desenvolvedores precisam realizar “inspeções anuais”, prevenir abusos de forma proativa e equipá-los com “interruptores de interrupção”

De acordo com as disposições pertinentes desta lei,Desenvolvedor de modelos de gamaPrincipalmente responsável pelas seguintes responsabilidades:

1. Implementaçãogestão, tecnologia e físicaProteção de segurança tripla para evitar modelos dentro do escopo e derivados de modelos dentro do escopo controlados por desenvolvedoresAcesso não autorizado, uso indevido ou modificação pós-treinamento

2、Obtenha a capacidade de desligar totalmente os modelos em tempo hábil.

3. O projeto de lei original estipula que os desenvolvedores de modelos precisam assinar um acordo de segurança independente para garantirModelos e derivados que apresentem o risco de causar danos graves (tais como ataques cibernéticos que causem perdas superiores a 500 milhões de dólares americanos, causem morte ou ferimentos graves, etc.) não serão desenvolvidos.Caso haja alguma informação falsa no contrato, o mesmo será punido sob pena de perjúrio.

projeto de lei alteradoIsto enfraquece enormemente a eficácia jurídica deste acordo. Atualmente, os desenvolvedores de modelos só precisam apresentar declarações públicas descrevendo as suas práticas de segurança.No entanto, esta disposição já não impõe qualquer responsabilidade criminal e as entidades relevantes só serão processadas após a ocorrência de danos catastróficos.

4. Se o modelo e seus derivados abrangidos pelo âmbito puderem causar ou ajudar a causar danos graves, o promotor não os utilizará para fins comerciais ou públicos por conta própria, nem os poderá fornecer a terceiros para utilização comercial ou pública.

5. A partir de 1º de janeiro de 2028, os desenvolvedores de modelos dentro do escopo deverãoContrate 1 auditor terceirizado por ano, para realizar uma avaliação detalhada e objetiva da conformidade do desenvolvedor com os requisitos da Lei, relatar violações e sugestões de revisão.

6、O projeto revisado adiciona proteções para o ajuste fino do modelo de código aberto.O projeto de lei estipula explicitamente que se os desenvolvedores gastarem dinheiro ajustando modelos dentro do escopoMenos de US$ 10 milhões, não será reconhecido como o desenvolvedor do modelo ajustado e a responsabilidade ainda será do desenvolvedor do modelo original.

Além disso, este projeto de lei estipula que serviços em nuvem como Amazon Cloud Services (AWS) e Microsoft AzureObrigações dos provedores de serviços em nuvem. Ao fornecer aos clientes poder computacional suficiente para treinar modelos no escopo, os provedores de serviços em nuvem devem estar preparados para:

1. Obtenha as informações básicas de identidade e finalidades comerciais do cliente, incluindoIdentidade do cliente, endereço IP, método de pagamento e origemetc. As operações de conformidade relevantes devem deixar vestígios e os registos devem ser conservados durante 7 anos.

2. Avalie se o cliente realmente planeja usar o poder computacional para treinar o modelo dentro do escopo.

3、A capacidade de desligar recursos de computação usados ​​pelos usuários ao treinar ou operar modelos.

Os desenvolvedores e provedores de serviços em nuvem de modelos dentro do escopo também devem fornecerLista de preços transparente, unificada e públicae garantir que durante o processo de precificação e acessoSem discriminação ou comportamento anticompetitivo. masEntidades públicas, instituições académicas e investigadores não comerciaisVocê pode desfrutar de direitos de uso gratuitos ou com desconto. Alguns provedores de serviços em nuvem usarão descontos nos preços para atrair ou apoiar empresas específicas de desenvolvimento de IA. Esse comportamento pode se tornar inevitável depois que o projeto de lei entrar oficialmente em vigor.

O projeto de lei estipula que quando os desenvolvedores souberem que ocorreu um incidente de segurança em um modelo,Incidentes relevantes devem ser comunicados às autoridades reguladoras no prazo de 72 horas. Além disso, os desenvolvedores também devem garantir que um modelo ou seus derivados sejam utilizados para fins comerciais ou públicos.Dentro de 30 dias, envie uma declaração de conformidade para este modelo. Além disso, aqueles que relatam má conduta“Denunciantes” serão protegidos por lei, uma empresa ou organização não pode prevenir ou retaliar funcionários que divulguem má conduta.

3. Como punir atos ilícitos? Multas a partir de US$ 10 milhões podem levar ao fechamento ou exclusão do modelo

Se os desenvolvedores de modelos e operadores de clusters de computação não cumprirem os regulamentos acima e causarem grandes danos, o Procurador-Geral e a Comissão do Trabalho da Califórnia terão o poder de processar as entidades relevantes. Se for determinado que ocorreu conduta ilegal, o tribunal poderá impor as seguintes penalidades:

1. Para infrações em 2026 e posteriores, as entidades que violarem a lei pela primeira vez serão multadas em 10% do custo médio do modelo no âmbito de formação do mercado de computação em nuvem. exceder 30% deste custo (com base no cálculo do limite de US$ 100 milhões definido na fatura para modelos dentro do escopo,A multa para a primeira infração é de pelo menos US$ 10 milhões)。

2. O tribunal pode ainda decretar liminar,Incluindo, entre outros, modificar, fechar completamente ou excluir todos os derivativos controlados pelo modelo em escopo e seus desenvolvedores.

No entanto, a penalidade por modificar, fechar e excluir modelos dentro do escopo só se aplica se causaremMorte de outras pessoas, lesões pessoais graves, danos materiais ou ameaça grave à segurança públicasó pode ser usado quando.

4. Quem se opõe ao projeto? a16z e YC assumiram a liderança no lançamento de uma ofensiva publicitária, Li Feifei e Yang Likun twittaram perguntas

Os gigantes da tecnologia do Vale do Silício, um grande número de startups e instituições de investimento expressaram fortes dúvidas e insatisfação com o projeto de lei de segurança de IA da Califórnia.Uma das vozes mais altas é a a16z, uma conhecida empresa de capital de risco do Vale do Silício.A a16z tem um rico portfólio de investimentos na área de IA, incluindo empresas líderes e maduras de IA, como OpenAI e Mistral AI, bem como estrelas em ascensão, como o World Labs recém-criado pelo professor da Universidade de Stanford, Li Feifei. Essas empresas possuem escalas e valores de financiamento maiores,Os modelos que desenvolvem e aperfeiçoam podem ser colocados sob supervisão regulatória.


▲Algumas das objeções de a16z (Fonte: stopsb1047.com)

A a16z tomou a iniciativa de pagar para construir um site e fornecer aos visitantes um modelo de cartas de objeção, que podem ser enviadas diretamente, simplesmente editando no site. a16z também listou neste site os “6 pecados” em sua visão da Lei de Segurança de IA da Califórnia:

1. Este projeto de lei terá um efeito inibidor sobre o investimento e desenvolvimento em IA na Califórnia.

2. O projeto penaliza desenvolvedores/desenvolvedores com base em resultados pouco claros. Testes relevantes ainda não existem.

3. As definições vagas do projeto de lei e as responsabilidades legais estritas trouxeram enormes incertezas e riscos económicos para os criadores de IA e proprietários de empresas.

4. Este projeto de lei pode forçar a investigação em IA à clandestinidade e reduzir inadvertidamente a segurança dos sistemas de IA.

5. Este projeto de lei cria uma desvantagem sistêmica para desenvolvedores de código aberto e startups, que estão no centro da inovação e das pequenas empresas na Califórnia.

6. Este projeto de lei inibe a investigação e inovação em IA nos Estados Unidos e oferece oportunidades para países como a China ultrapassarem os Estados Unidos em IA.

Os fundadores de muitas empresas investidas em a16z também expressaram sua oposição à Lei de Segurança de IA da Califórnia. Li Feifei publicou um artigo no site da revista Fortune explicando detalhadamente os motivos de sua oposição, acreditando que há quatro problemas principais com este projeto de lei:

1. Punir excessivamente os desenvolvedores pode sufocar a inovação.

2. O “kill switch” restringirá o trabalho de desenvolvimento de código aberto e destruirá a comunidade de código aberto.

3. Enfraquecer a investigação em IA no meio académico e no setor público, podendo também impedir que os académicos recebam mais financiamento.

4. Não aborda os danos potenciais causados ​​pelo avanço da IA, como preconceitos ou deepfakes.


▲Li Feifei se opõe ao projeto de lei de segurança de IA da Califórnia (Fonte: Plataforma X)

No entanto, muitos internautas na área de comentários não acreditaram nesta declaração. Eles pediram a Li Feifei que revelasse sua relação de interesse com a16z.


▲ Alguns internautas questionaram a neutralidade de Li Feifei (Fonte: Plataforma X)

Como a incubadora mais conhecida e influente dos Estados Unidos, a YC é o berço de muitas startups de IA.Seu principal local de operação atual é na Califórnia.Das 260 startups do lote de inverno do YC de 2024, mais da metade estão relacionadas à IA. YC também acredita que este projeto de lei pode ter um impacto negativo na indústria e no ecossistema de desenvolvedores:

1、O projeto de lei deveria punir os abusadores de ferramentas, não os desenvolvedores.Muitas vezes é difícil para os desenvolvedores prever as possíveis aplicações dos modelos, e os desenvolvedores podem ir para a prisão devido ao crime de perjúrio.

2. Os limiares regulamentares não conseguem captar totalmente a dinâmica do desenvolvimento tecnológico. As empresas fora da Califórnia poderão desenvolver tecnologia de IA com mais liberdade, o que pode afetar a inovação na Califórnia.

3. “Kill Switch (referindo-se à capacidade dos desenvolvedores de desligar modelos)” pode proibir o desenvolvimento de IA de código aberto e inibir a colaboração e a transparência de código aberto.

4. A expressão do projeto de lei é relativamente vaga.É provável que seja interpretado à vontade pelo juiz.

A declaração da YC recebeu apoio conjunto de centenas de startups. YC também realizou uma série de conferências relacionadas à regulamentação de IA na Califórnia, permitindo que ambos os lados se comunicassem.

Yann LeCun, cientista-chefe da Meta e vencedor do Prêmio Turing de 2018, também se opôs a esse projeto.Cláusulas de Responsabilidade Solidária.Ele teme que as plataformas de código aberto possam ser responsabilizadas se não conseguirem avaliar com precisão os riscos dos modelos abrangidos.


Como o ator mais importante no campo dos modelos de IA de código aberto hoje, a Meta Corporation escreveu em uma carta de oposição que este projeto de lei força os desenvolvedores de código aberto a assumir grandes riscos legais quando o código é aberto, porque os requisitos para garantir a segurança do modelo são irrealistas. . Eles recomendam que os legisladores da Califórnia consultem as leis relevantes de outros países e regiões.Tais como os requisitos de transparência e “testes da equipe vermelha” na Lei de IA da UE. Microsoft, Google e OpenAI também comentaram negativamente o projeto.

A Anthropic, uma startup de IA com uma “estrutura B Corporation” única, é uma das muitas vozes que se opõem a esse projeto. Porém, ao contrário de outras empresas, elas não tentam impedir a aprovação do projeto, mas participam da alteração do projeto. , dando ao Legislativo escreveu uma carta detalhando suas sugestões de melhorias. No geral, a Antthropic acredita queO projeto de lei deveria mudar de “aplicação antes do dano” para “dissuasão baseada em resultados”. Eles também querem que as regulamentações sejam mais rigorosas, concentrem-se na segurança de IA de ponta e evitem a duplicação de requisitos federais.

5. Quem apoia o projeto? Hinton Bengio escreve carta de apoio, senador acusa a16z de espalhar boatos

Embora a Lei de Segurança da IA ​​da Califórnia tenha enfrentado controvérsia assim que foi proposta, muitos estudiosos e membros da indústria apoiam tal regulamentação. Em 7 de agosto, no momento em que esse projeto de lei enfrentava mais uma vez uma onda de críticas, o vencedor do Prêmio Turing e “Padrinho da IA”Jeffrey Hinton(Geoffrey Hinton), conhecido estudioso de IA, vencedor do Prêmio TuringJosué Bengio(Yoshua Bengio), especialista em direito do ciberespaço, professor da Harvard Law SchoolLawrence Lessig(Lawrence Lessig) e autor do popular livro de IA "Inteligência Artificial: Uma Abordagem Moderna" e professor da Universidade da Califórnia, BerkeleyStuart Russel(Stuart Russell) escreveram conjuntamente ao Legislativo da Califórnia para expressar seu “forte apoio” à Lei de Segurança de IA da Califórnia.


▲Quatro estudiosos renomados escreveram uma carta apoiando a Lei de Segurança de IA da Califórnia (Fonte: safesecureai)

Os quatro acadêmicos disseram estar profundamente preocupados com os riscos da IA ​​e que a Lei de Segurança de IA da Califórnia é o requisito mínimo para regular efetivamente a tecnologia, escreveram:

O projeto de lei não possui sistema de licenciamento e não exige que as empresas obtenham permissão de órgãos governamentais antes de treinar ou implantar modelos. Baseia-se na autoavaliação de risco da empresa e não responsabiliza estritamente as empresas, mesmo em caso de desastre.

Em relação aos riscos que enfrentamos,Esta é uma legislação muito flexível. As leis atuais que regem a IA não são tão rigorosas como as que regulam as lanchonetes, e a remoção desta medida fundamental seria umerro histórico——Um ano depois, quando a próxima geração de sistemas de IA mais poderosos for lançada, esse erro se tornará ainda mais óbvio.

Eles também enfatizaram queQuer estes riscos sejam infundados ou reais,, todas as partes relevantes devem assumir a responsabilidade de mitigar os riscos. “Como o grupo de especialistas que melhor conhece estes sistemas”, eles acreditam que estes riscos são possíveis e significativos o suficiente para que seja necessário enfrentá-los.Testes de segurança e precauções de bom senso

Quatro especialistas também citaram o recente escândalo de segurança da Boeing. Eles acreditam que aeronaves, medicamentos e outras tecnologias complexas tornaram-se muito seguras e confiáveis, o que é resultado dos esforços conjuntos da indústria e do governo.Quando os reguladores relaxam as regras e permitem a autorregulação, surgem problemas como o da Boeing, que são extremamente assustadores para o público e para a indústria.

Esta carta de apoio foi apoiada por muitos internautas, mas algumas pessoas acreditam que Hinton e Bengio não estão mais envolvidos no trabalho de linha de frente.Portanto, eles não têm voz ativa em questões relevantes.

Vários ex-funcionários da OpenAI também apoiaram o projeto, incluindo Daniel Kokotajlo, que voluntariamente desistiu de suas opções OpenAI em troca do direito de criticar livremente a empresa. Ele acredita que as alegações dos críticos do projeto de lei de que o progresso da IA ​​irá estagnar provavelmente não acontecerão.


▲ Observações relevantes de Kokotayolo (Fonte: Plataforma X)

Simon Last, o fundador do Notion, um unicórnio de ferramentas de produtividade de IA avaliado em dezenas de bilhões de dólares, estáIndústriaAlguns apoiadores do projeto de lei de segurança de IA da Califórnia. Ele escreveu um artigo no Los Angeles Times, um dos meios de comunicação locais mais influentes da Califórnia, em apoio ao projeto, dizendo que quando as leis de IA em nível federal são difíceis de implementar,Como centro tecnológico nos Estados Unidos e até no mundo, a Califórnia tem responsabilidades importantes. Ele acredita que a supervisão dos modelos não só melhora a sua segurança, mas também facilita as startups de IA que constroem produtos baseados em modelos básicos.Isto reduzirá a carga sobre as pequenas e médias empresas

Além disso, ele também acredita que é errado enfatizar que “a regulamentação deve se concentrar nos usos prejudiciais da IA ​​e no comportamento inadequado dos usuários, e não na tecnologia subjacente”. Como o primeiro foi classificado como ilegal nas leis em todos os níveis, o novo projeto de lei da Califórnia estabelece o propósitoAspectos ausentes da regulamentação anterior: Prevenir danos potenciais.

Depois que YC e a16z lançaram uma campanha publicitária, o senador do estado da Califórnia Wei Shangao, principal autor da Lei de Segurança de IA da Califórnia, emitiu uma longa carta em resposta às reclamações relevantes, dizendo que muitas das declarações feitas por essas duas organizações sobre a Califórnia A Lei de Segurança de IA era imprecisa e algumas afirmações são “distorções provocativas dos fatos”, como o projeto de lei que enviaria para a prisão os desenvolvedores que não estimassem com precisão os riscos do modelo ou proibiriam lançamentos de código aberto.


▲ Resposta de Wei Shangao a YC e a16z (Fonte: safesecureai)

No início de 2023, Wei Shangao começou a entrar em contato com YC, mas disse que ainda não recebeu feedback detalhado de YC sobre como melhorar o projeto de lei. a16z participou tardiamente no processo legislativo e não propôs quaisquer alterações substanciais até agora.

Nesta carta, Wei Shangao respondeu a várias preocupações centrais dos oponentes do projeto:

1、Os desenvolvedores não irão para a prisão por não conseguirem prever os riscos do modelo.Primeiro, os desenvolvedores e acadêmicos de start-ups não precisam se preocupar, pois o projeto de lei não se aplica a eles. Em segundo lugar, a cláusula de perjúrio no projeto de lei só se aplica a desenvolvedores"deliberadamente"Só entra em vigor se for feita uma declaração falsa, e erros de julgamento não intencionais sobre as capacidades de um modelo não desencadearão a cláusula de perjúrio (que foi removida das alterações de hoje).

2、O projeto de lei não cria responsabilidades inteiramente novas.De acordo com a lei existente, tanto os desenvolvedores de modelos como os desenvolvedores individuais podem ser processados ​​se um modelo causar danos, e isso se aplica a modelos de todas as habilidades e todos os indivíduos feridos podem processar. O novo projeto de lei da Califórnia não sóLimita o âmbito da supervisão, e também limita o direito de processar aProcurador-Geral da Califórniaeconselho trabalhistaem ambas as entidades.

3、O projeto de lei não sufocará a inovação na Califórnia.Este projeto de lei se aplica a todas as empresas que fazem negócios na Califórnia. Mesmo que mudem sua sede para fora da Califórnia, elas devem cumprir os regulamentos relevantes (Nota Zhixi: A Califórnia é a quinta maior economia do mundo com base no PIB e possui um ecossistema tecnológico completo. Tecnologia). empresas É difícil dissociar-se da Califórnia). Quando a Califórnia aprovou leis de privacidade de dados e leis de proteção ambiental, muitas pessoas alegaram que isso prejudicaria a inovação, mas o facto é que a Califórnia ainda lidera a inovação.

4、Os interruptores de interrupção e os requisitos de avaliação de segurança não impedirão o desenvolvimento da IA ​​de código aberto.O projeto de lei foi agora revisado e fortaleceu a proteção da IA ​​de código aberto. O requisito de desligamento de emergência do modelo no projeto de lei se aplica apenas a modelos sob o controle do desenvolvedor, excluindo modelos de código aberto não controlados. O projeto de lei também estabelece um novo comitê consultivo para defender e apoiar esforços seguros e confiáveis ​​de desenvolvimento de IA de código aberto.

Wei Shangao também forneceu um “pacote preguiçoso” para as pessoas que estão preocupadas com este projeto de lei, resumindo 6 pontos-chave do projeto (veja a imagem abaixo).
▲ Pontos-chave do projeto de lei (Fonte: safesecureai)

Conclusão: a Califórnia deu um passo importante e o futuro do projeto de lei não está claro

Embora o projeto de lei de segurança de IA da Califórnia seja contestado por um grande número de membros da indústria, os resultados de algumas organizações de pesquisa mostram que os residentes da Califórnia geralmente têm uma atitude positiva em relação a esse projeto.

Quando for oficialmente bem-sucedido, poderá enfrentar contestações judiciais de oponentes determinados, como a16z. Isso colocaria o projeto de lei em espera até que a Suprema Corte dos EUA decida.

Recentemente, o Supremo Tribunal dos EUA derrubou a “Doutrina Chevron” que durou quase 40 anos e apoiou a voz das agências reguladoras. Este princípio exige que os juízes se submetam à interpretação das disposições legais por parte dos reguladores governamentais quando as disposições legais não são claras. A abolição deste princípio reflecte a atitude conservadora geral do actual Supremo Tribunal dos EUA em relação à regulamentação tecnológica.