notícias

openai escapa da morte? o projeto de lei de ia da califórnia acaba de ser aprovado, lecun, li feifei e ng enda estão em êxtase

2024-09-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

editor: departamento editorial hyz

[introdução à nova sabedoria]feliz celebração! agora mesmo, o governador da califórnia anunciou que vetaria o projeto de lei de restrição de ia da califórnia. lecun, li feifei e ng enda correram para contar um ao outro com entusiasmo e comemoraram com a testa e as mãos. bengio e hinton, que apoiam fortemente o projeto de lei, permaneceram em silêncio. openai, google e meta escaparam do desastre.

pesado!

esta manhã, o governador da califórnia, gavin newsom, anunciou oficialmente que vetaria o projeto de lei sb-1047!

para desenvolvedores de todo o mundo, o cancelamento do projeto de lei sb-1047 significa que os modelos de código aberto de grandes fabricantes como meta e google continuarão disponíveis novamente.

pode-se dizer que esta decisão é amplamente esperada. grandes nomes do círculo de ia correram para contar uns aos outros com entusiasmo, e ng enda, lecun e li feifei, que desempenharam um papel importante na oposição, ficaram especialmente felizes.

o que significa o veto do governador da califórnia?

o projeto de lei sb-1047 é realmente o fim disso.

o “notório” sb-1047 estipula que o sb 1047 impedirá que os sistemas de ia causem vítimas em massa ou desencadeiem incidentes de segurança cibernética que custam mais de us$ 500 milhões, responsabilizando os desenvolvedores.

assim que a notícia foi divulgada, causou enorme oposição da academia e da indústria.

você sabe, 32 das 50 maiores empresas genai do mundo estão sediadas na califórnia e desempenham um papel fundamental na definição do futuro da ia.

de acordo com um comunicado de imprensa do escritório da califórnia, gavin assinou 18 projetos de lei da genai no mês passado, mas vetou apenas o sb-1047.

nos últimos 30 dias, o governador assinou uma série de projetos de lei para combater conteúdo deepfake, proteger os direitos de imagem digital dos artistas e muito mais

este projeto de lei tem boas intenções, mas na prática apresenta alguns problemas sérios.

“não creio que esta seja a melhor forma de proteger o público das ameaças reais representadas pela ia”, disse ele.

o sb-1047 não leva em consideração se o sistema de ia é implantado em um ambiente de alto risco, envolve decisões críticas ou utiliza dados confidenciais. em vez disso, o projeto de lei aplica padrões rígidos à função mais básica de implantação de grandes sistemas modelo.

no processo de rejeição do sb-1047, o papel da madrinha da ia, li feifei, não pode ser ignorado.

a professora de stanford, li feifei, disse com alegria que estava profundamente honrada em trabalhar com stanfordhai para preparar o caminho para uma governança responsável de ia na califórnia.

o guru da ia, andrew ng, também agradeceu a li feifei pela sua oposição pública ao sb-1047, dizendo que os seus esforços podem promover políticas de ia mais racionais para proteger a investigação e a inovação.

há poucos dias, quando o projeto de lei sb-1047 estava prestes a ser finalizado, ng e lecun ainda apelavam ansiosamente e lançavam votações, temendo que, uma vez aprovado, a ia de código aberto e todo o ecossistema de ia tivessem um efeito inibidor.

hoje, as empresas de ia em toda a califórnia estão finalmente respirando aliviadas.

carta de veto do governador: não assinada

"devolvo o projeto de lei 1047 do senado sem minha assinatura."

na carta, o governador reconheceu que o sb-1047 exagera a ameaça representada pela implantação de ia.

além disso, ao concentrar-se apenas nos modelos de grande escala mais caros, o projecto de lei dá ao público uma “falsa sensação de segurança”.

ele ressalta que modelos proprietários ainda menores podem ser igualmente perigosos.

em suma, a regulamentação da ia ​​prevista no projeto de lei ocorre às custas de “restringir a inovação que beneficia o interesse público”.

o governador disse que o projeto de lei aplica os padrões mais rígidos às funções mais básicas, o que não é a melhor forma de proteger o público das ameaças da tecnologia de ia.

a melhor solução é um plano que não se baseie na análise de trajetórias empíricas de desenvolvimento de sistemas e capacidades de ia.

o chefe da ia ​​​​odeia isso

este final pode ser descrito como muito satisfatório para a maioria das pessoas, exceto bengio e hinton.

quando se trata do sb-1047, muitos marmanjos odeiam.

a história toda é esta.

no ano passado, o governador da califórnia assinou uma ordem executiva enfatizando que a califórnia deveria ser mais prudente face à genai e tornar a ia mais ética, transparente e confiável.

em fevereiro deste ano, a califórnia elaborou diretamente um projeto de lei denominado "lei de inovação em segurança de modelos grandes de frontier ai sb-1047", que fornece regulamentações mais específicas para o uso seguro e transparente de modelos grandes.

no entanto, contém muitos conteúdos irracionais, que simplesmente sufocam certas empresas pelo nome.

modelos que custam mais de 100 milhões devem ser evitados de causar “danos significativos”

por exemplo, existe um regulamento que estipula que se um grande modelo cujos custos de desenvolvimento e treinamento excedem 100 milhões de dólares americanos e cujas operações de ponto flutuante excedem 10^26 vezes for usado por alguém para fazer coisas ilegais após ser de código aberto, o desenvolvedor do modelo também será severamente punido.

você deve saber que o modelo llama 3 da meta, o modelo gemma do google, etc., todos atendem a essa condição.

esta disposição é obviamente extremamente controversa.

por exemplo, se alguém invadir um sistema de direção autônoma e causar um acidente, a empresa que desenvolveu o sistema também será responsabilizada?

de acordo com o projeto de lei, os desenvolvedores são obrigados a avaliar os derivados de seus modelos e evitar qualquer dano que eles possam causar, inclusive se os clientes ajustarem os modelos, modificarem os modelos (jailbreak) ou combiná-los com outro software.

no entanto, uma vez lançado o software de código aberto, as pessoas podem baixar o modelo diretamente para seus dispositivos pessoais, de modo que os desenvolvedores não têm como saber as operações específicas de outros desenvolvedores ou clientes.

além disso, existem muitas definições vagas no projeto de lei.

por exemplo, “lesões críticas” em modelos de ia são descritas como vítimas massivas, perdas superiores a us$ 500 milhões ou outras lesões “igualmente graves”. mas sob quais condições os desenvolvedores serão responsabilizados? que responsabilidades existem?

o projeto de lei é omisso sobre isso.

além disso, o projeto de lei aplica-se a modelos de ia que gastam mais de 100 milhões de dólares para treinar, ou a desenvolvedores que gastam mais de 10 milhões de dólares para ajustar modelos existentes, o que coloca muitas pequenas empresas de tecnologia no âmbito do ataque.

sb-1047 também tem algumas disposições irracionais. por exemplo, se uma empresa abrir seu modelo para outros países, ela deverá enviar todas as informações do cliente, incluindo o cartão de identificação do cliente, número do cartão de crédito, número da conta, etc.

os desenvolvedores também devem criar procedimentos de teste que abordem os riscos do modelo de ia e contratar auditores terceirizados anualmente para avaliar suas práticas de segurança de ia.

para os produtos de ia construídos com base em modelos, é necessário desenvolver protocolos de segurança correspondentes para evitar abusos, incluindo um botão de “parada de emergência” que desliga todo o modelo de ia.

bill criticado por fechar os olhos aos riscos reais

mais críticos acreditam que este projeto de lei é muito infundado.

não só impedirá a inovação da ia, como também não ajudará a segurança da ia ​​de hoje.

o que é ainda mais irónico é que o projeto de lei utiliza uma chamada “mudança de emergência” para evitar o fim do mundo, mas faz vista grossa aos riscos de segurança existentes, como deepfakes e informações falsas.

embora as alterações posteriores tenham sido redigidas de forma mais vaga, reduzindo o poder do governo da califórnia de responsabilizar os laboratórios de ia.

mas mesmo assim, o sb-1047 terá um impacto considerável em grandes fabricantes como openai, meta e google.

para algumas start-ups, este golpe pode até ser devastador.

agora que a poeira baixou, tanto as grandes empresas quanto as pequenas startups podem respirar aliviados.

gigante de turing se separa

o sb-1047 até fez com que os três grandes de turing "se separassem" por causa disso.

os grandes chefes representados por lecun, li feifei e ng enda se opuseram publicamente e ficaram insatisfeitos muitas vezes.

lecun até copiou a mensagem original que usou quando pediu uma moratória na investigação da ia ​​– por favor suspenda a legislação sobre ia durante seis meses!

os outros dois dos três grandes de turing, yoshua bengio e geoffrey hinton, apoiaram surpreendentemente fortemente a aprovação deste projeto de lei.

eu até sinto que os termos atuais são um pouco vagos.

como pesquisadores seniores de tecnologia e política de inteligência artificial, escrevemos para expressar nosso forte apoio ao projeto de lei 1047 do senado da califórnia.

sb 1047 descreve os requisitos básicos para uma regulamentação eficaz desta tecnologia. não implementa um sistema de licenciamento, não exige que as empresas obtenham permissão de agências governamentais antes de treinar ou implementar modelos, depende das empresas para avaliarem os riscos por si próprias e não responsabiliza estritamente as empresas, mesmo em caso de desastre.

esta é uma legislação relativamente branda relativamente à escala dos riscos que enfrentamos.

desfazer as medidas básicas do projeto de lei seria um erro histórico – um erro que se tornará ainda mais evidente dentro de um ano, à medida que a próxima geração de sistemas de ia mais poderosos for lançada.

mas bengio e hinton obviamente não são mainstream.

em resumo, as posições de vários gigantes da tecnologia e figurões são as seguintes.