notícias

“AI Madrinha” Li Feifei escreveu pessoalmente: O projeto de lei de segurança de IA da Califórnia prejudicará o ecossistema dos EUA |Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

De acordo com as notícias do TMTpost App de 7 de agosto, "Madrinha da IA", acadêmica da Academia Nacional de Engenharia, acadêmica da Academia Nacional de Medicina, acadêmica da Academia Americana de Artes e Ciências, a primeira Professora da Cátedra Sequoia na Universidade de Stanford, Reitor Feifei Li do Stanford Human-Centered Artificial Intelligence Institute (HAI) escreveu um artigo na "Fortune" esta manhã e apontou que a próxima implementação da Lei de Segurança de IA na Califórnia prejudicará os desenvolvedores, a academia e até mesmo todo o mundo. Ecossistema de IA dos EUA, mas não resolverá os danos potenciais da IA.

“Hoje, a IA está mais avançada do que nunca. No entanto, com grande poder vem uma grande responsabilidade. Os decisores políticos, a sociedade civil e os intervenientes da indústria procuram uma abordagem de governação que minimize os danos potenciais e molde uma sociedade de IA segura e centrada no ser humano. alguns desses esforços, mas estou cauteloso com outros; a Lei de Inovação Segura para Modelos de Inteligência Artificial de Fronteira (doravante denominada SB-1047) se enquadra nesta última categoria "A legislação terá consequências indesejadas significativas, não apenas para a Califórnia, mas para. todo o país", disse Li Feifei.

É relatado que em julho deste ano, o Senado da Califórnia aprovou uma versão do projeto de lei SB-1047, que exige que os desenvolvedores provem que seus modelos de IA não serão usados ​​para causar danos. Isso é mais do que os mais de 600 projetos de lei de IA propostos. pelos legisladores estaduais dos EUA este ano. Muitas restrições para chamar a atenção. Esta proposta extremamente prejudicial pode ser transformada em lei pelo Governador da Califórnia, Gavin Newsom, em Agosto deste ano.

De acordo com a definição do projeto de lei, o Llama-3 da Meta é definido como um “modelo de ponta” cujo treinamento custa mais de US$ 100 milhões. A Meta também será severamente penalizada se alguém usar o modelo para fins ilegais. Ao mesmo tempo, a Seção 22603(a)(3)(4) da Lei exige "Isenção de Impostos Limitados" para enviar certificação a agências governamentais e interromper a operação do modelo se houver erros, enquanto a Seção 22603(b) exige desenvolvedores para relatar possíveis incidentes de segurança de IA para qualquer modelo. Se um desenvolvedor não puder controlar totalmente as várias versões derivadas com base em seu modelo, se ocorrer um incidente de segurança, a responsabilidade pertencerá ao primeiro desenvolvedor——Isto equivale a uma responsabilidade solidária

Além disso, a Seção 22604(a)(b) do projeto de lei estipula que quando os usuários usam seus "modelos de ponta" e recursos computacionais, os desenvolvedores precisam enviar todas as informações do cliente, incluindo a identidade do cliente, número do cartão de crédito, número da conta, e identificador de identificação do cliente, identificador de transação, e-mail, número de telefone. Além disso, as informações devem ser enviadas uma vez por ano e o comportamento e as intenções do usuário são avaliados. Todas as informações do usuário terão backup por 7 anos e também serão arquivadas na Administração de Alfândega e Fronteiras.

A localização geográfica da Califórnia nos Estados Unidos é muito especial. É o lar de escolas famosas como Stanford, Caltech e a Universidade do Sul da Califórnia, bem como Google, Apple,IA aberta É também sede de gigantes da tecnologia como Meta e Meta. Portanto, a este respeito, Yann LeCun, vencedor do Prêmio Turing e cientista-chefe de IA da Meta, Li Feifei, Andreessen Horowitz, sócio fundador da instituição de investimento a16z, Departamento de Ciência da Computação e Departamento de Engenharia Elétrica da Universidade de Stanford, professor visitante Andrew Ng e outros expressaram objeções.

Entre eles, Yang Likun alertou que a "cláusula de responsabilidade solidária do projeto de lei exporá as plataformas de IA de código aberto a enormes riscos... Meta não será afetada, mas as startups de IA irão à falência". maliciosamente por outros, o projeto de lei exige que os desenvolvedores de IA assumam responsabilidade civil e até criminal pelos modelos que desenvolvem.

Horowitz acredita que, embora a lei anti-IA da Califórnia seja bem intencionada, pode enfraquecer a indústria tecnológica dos EUA devido à desinformação, precisamente quando o futuro da tecnologia se encontra numa encruzilhada crítica. Os Estados Unidos precisam que os líderes reconheçam que este é um momento crítico para uma ação regulatória inteligente e unificada em matéria de IA.

Andrew Ng publicou um artigo afirmando que o projeto de lei SB-1047 da Califórnia sufocará o desenvolvimento de grandes modelos de código aberto. Ele ainda destacou,São as aplicações de IA que devem ser regulamentadas, não os grandes modelos em si

Li Feifei acredita que as políticas de IA devem encorajar a inovação, estabelecer restrições apropriadas e mitigar o impacto destas restrições. As políticas que não o façam, na melhor das hipóteses, não conseguirão atingir os seus objectivos e, na pior das hipóteses, conduzirão a consequências graves e não intencionais. Se o SB-1047 for aprovado em lei, prejudicará o incipiente ecossistema de IA da América, especialmente aquelas partes que já estão em desvantagem pelos gigantes tecnológicos de hoje: o setor público, a academia e a “pequena tecnologia”. O SB-1047 penalizaria desnecessariamente os desenvolvedores, sufocaria nossa comunidade de código aberto e prejudicaria a pesquisa acadêmica de IA, ao mesmo tempo em que não resolveria os problemas reais para os quais foi projetado.

Li Feifei deu quatro razões:

Primeiro, o SB-1047 puniria indevidamente os desenvolvedores e sufocaria a inovação. Se um modelo de IA for mal utilizado, o SB-1047 responsabilizará as partes responsáveis ​​e os desenvolvedores originais do modelo. É impossível para todo desenvolvedor de IA (especialmente programadores e empreendedores iniciantes) prever todos os usos possíveis de seu modelo. O SB-1047 forçará os desenvolvedores a recuar e ficar na defensiva – exatamente o que estamos tentando evitar.

Em segundo lugar, o SB-1047 restringirá o desenvolvimento de código aberto. O SB-1047 exige que todos os modelos que excedam um determinado limite incluam um “kill switch”, um mecanismo que pode desligar o programa a qualquer momento. Os desenvolvedores ficarão ainda mais relutantes em codificar e colaborar se temerem que os programas que baixam e criam sejam excluídos. Este interruptor devastaria a comunidade de código aberto – a fonte de inúmeras inovações, não apenas em IA, mas em tudo, desde GPS a ressonância magnética, até à própria Internet.

Terceiro, o SB-1047 enfraquecerá a investigação em IA no sector público e no meio académico. O desenvolvimento de código aberto é importante para o setor privado, mas também é crucial para a academia, que não pode avançar sem colaboração e modelos de dados. Tomemos, por exemplo, estudantes de ciência da computação que trabalham em modelos abertos de IA. Se as nossas instituições não tiverem acesso a modelos e dados apropriados, como educaremos a próxima geração de líderes de IA? Um interruptor de interrupção prejudicaria ainda mais os esforços destes estudantes e investigadores, que já estão em desvantagem em termos de dados e computação em comparação com as grandes empresas tecnológicas. O SB-1047 soará o “sinal de morte” para a academia e a IA do setor público, que deveriam duplicar o investimento.

O mais preocupante é que o projeto de lei não aborda os potenciais danos do desenvolvimento da IA, incluindo preconceitos e deepfakes. Em vez disso, o SB-1047 estabelece um limite arbitrário, regulamentando modelos que usam uma certa quantidade de poder de computação ou custam US$ 100 milhões para serem treinados. Longe de proporcionar proteção, esta medida apenas restringirá a inovação em vários domínios, incluindo o académico.

Li Feifei destacou que hoje os modelos de IA na academia estão abaixo desse limite, mas se os Estados Unidos reequilibrarem o investimento em IA dos setores público e privado, a academia será regulamentada pelo SB-1047 e o ecossistema de IA dos EUA piorará como resultado . Portanto, os Estados Unidos devem fazer o oposto.

"Em várias conversas com o presidente Biden ao longo do ano passado, expressei a necessidade de uma 'mentalidade lunar' para promover a educação, a pesquisa e o desenvolvimento da IA ​​em nosso país. No entanto, as restrições do SB-1047 são muito arbitrárias e não atingirão apenas Califórnia O ecossistema de IA também terá efeitos perturbadores na IA em todo o país." Li Feifei destacou que não se opõe à governança da IA. A legislação é fundamental para o desenvolvimento seguro e eficaz da IA. Mas a política de IA deve promover o desenvolvimento de código aberto, propor regras uniformes e razoáveis ​​e construir a confiança dos consumidores. SB-1047 não atende a esses padrões.

Li Feifei enfatizou que propôs cooperação ao senador Scott Wiener, autor do projeto de lei: Formulemos conjuntamente legislação sobre IA e construamos verdadeiramente uma sociedade futura liderada pela tecnologia e centrada nas pessoas.

“Na verdade, o futuro da IA ​​depende disso. A Califórnia — como entidade pioneira e lar do ecossistema de IA mais robusto do nosso país — está no centro do movimento da IA, e os desenvolvimentos na Califórnia impactarão o resto do país. . "Li Feifei disse no final.