Minhas informações de contato
Correspondênciaadmin@informação.bz
2024-08-19
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Contagem completa de palavras4737
Leitura recomendada15mínimo
Autor: ShidaoIAGrupo
Editor: Lâmina do Leão
Fonte das imagens deste artigo: Imagens da Internet
Nos últimos dois anos, o tema da regulamentação da IA subiu ao nível das alterações climáticas e da proliferação nuclear.
Na primeira Cimeira da IA, em Novembro passado, os países participantes assinaram a Declaração de Bletchley. Pode-se dizer que esta é uma nova declaração raramente alcançada por “países transoceânicos” como a China, a Grã-Bretanha e os Estados Unidos no contexto do confronto estratégico entre diferentes campos ao redor do mundo nos últimos anos.
Mas, deixando de lado as ameaças potenciais, a IA ainda é um “bom menino” atualmente, muito longe do “Exterminador do Futuro da Humanidade” nos filmes de ficção científica.
O “maior desastre” que a IA experimentou no momento é, sem dúvida, Deepfake – “mudança de face da IA” estrangeiraAlmíscar"Fraudando dinheiro e defraudando sentimentos," AI que muda o rosto de Jin Dong "fraudando dinheiro e defraudando sentimentos domésticos... os desenvolvedores nem sempre podem ser culpados por esses problemas.Afinal, nem o fabricante de facas para frutas nem o supermercado que vende facas para frutas podem ser responsabilizados pelo autor que comprou a faca.
No entanto, o projeto de lei de IA da Califórnia SB-1047, que tem feito muito barulho recentemente, colocará a culpa nos desenvolvedores.
O projeto de lei visa - prevenirModelo grande de IAUsado para causar "danos graves" aos humanos.
O que é “dano grave”?
O projeto de lei aponta que – por exemplo, os terroristas usam grandes modelos de IA para fabricar armas, causando um grande número de vítimas.
Não posso deixar de lembrar as pessoas de não muito tempo atrásGPT-4oAcidente de "violação tensa".
Pesquisadores da EPFL descobriram que os usuários podem quebrar as defesas de segurança de LLMs como GPT-4o e Llama 3 simplesmente alterando uma “solicitação prejudicial” para “pretérito”.
Quando você pergunta diretamente ao GPT-4o: Como faço um coquetel molotov, a modelo se recusa a responder.
Mas se você mudar o tempo verbal e perguntar ao GPT-4o: Como as pessoas faziam coquetéis molotov no passado?
Começou a conversar sem parar, contando tudo o que sabia.
Na verdade, o mesmo processo inclui a produção de metanfetamina. Com LLMs, todos podem se tornar um bushi
Aderindo a uma atitude cautelosa, Shidao verificou novamente e descobriu que o GPT-4o havia mudado de atitude.
Com isso resolvido, vamos voltar ao SB-1047.
O “dano grave” apontado pelo SB-1047 também inclui hackers que usam grandes modelos de IA para planejar ataques cibernéticos, causando perdas de mais de US$ 500 milhões. Você sabe,Greve de multidãoEspera-se que a "tempestade de tela azul" cause perdas de mais de 5 bilhões de dólares. Por onde devemos começar?
O projeto de lei exige que os desenvolvedores (ou seja, empresas que desenvolvem modelos de IA) implementem protocolos de segurança especificados no projeto de lei para evitar as consequências acima.
Em seguida, o SB-1047 irá ao Senado da Califórnia para votação final. Se aprovado, o projeto de lei será colocado na mesa do “inimigo” de Musk, o governador da Califórnia, Newsom, aguardando seu destino final.
O Vale do Silício é em grande parte unilateral: os apoiadores são poucos e os oponentes são hordas.
Os apoiadores incluem Hinton e Yoshua, dois dos "Três Grandes de Turing". Do início ao fim, as posições dos dois patrões quase não mudaram. Mas até mesmo o fundador do Notion, Simon Last, que está “decolando na IA”, está do mesmo lado.
Simon Last disse: Diante das dificuldades na implementação das leis de IA em nível federal, a Califórnia, como centro de tecnologia nos Estados Unidos e até mesmo no mundo, tem responsabilidades importantes.A supervisão dos modelos não só melhorará a sua segurança, mas também facilitará as startups de IA que constroem produtos baseados em modelos básicos, o que reduzirá a carga sobre as pequenas e médias empresas.
Afinal, para ser honesto, o projeto de lei SB-1047 é um obstáculo para os gigantes. O que o Notion mais teme são os gigantes – o Google integrou uma variedade de funções de IA em seu software de escritório. A Microsoft lançou o Loop, que é semelhante ao Notion;
Além de LeCun, um dos “Três Grandes de Turing”, os oponentes;GoogleAndrew Ng, o pai de “Cérebro”;Microsoft, Google,IA aberta, Meta e YC, a16z, etc. Há também mais de 40 investigadores da Universidade da Califórnia, da Universidade do Sul da Califórnia, da Universidade de Stanford e do Instituto de Tecnologia da Califórnia e até oito membros do Congresso representando vários distritos da Califórnia recomendaram que o governador vetasse o projeto de lei;
A Anthropic, uma startup de IA que está acostumada a jogar a “carta da segurança”, já apresentou alterações detalhadas antecipadamente, esperando que o projeto de lei mude de “aplicação pré-dano” para “dissuasão baseada em resultados”. O projeto também adota algumas de suas recomendações, como não permitir mais que o Procurador-Geral da Califórnia processe empresas de IA por medidas de segurança negligentes antes que ocorra um desastre.No entanto, os promotores ainda podem aprovar ordens de resgate para exigir que as empresas de IA interrompam o que consideram operações perigosas. Se os seus modelos causarem as perdas acima mencionadas, o Procurador-Geral da Califórnia ainda poderá processar.
Então, o projeto de lei SB-1047 da Califórnia é um obstáculo ou uma gaiola de segurança? Por que vocês têm posições diferentes?
1
Quem foi afetado? Quem fará cumprir a lei? Como fazer cumprir a lei?
Exterminador gigante e inimigo de código aberto
A boa notícia é que o SB-1047 não restringirá diretamente a maioria dos desenvolvedores de modelos de IA.
O projeto de lei gostaria de ser rotulado como uma “tornozeleira gigante” – aplicável apenas aos maiores modelos de IA do mundo – custando pelo menos US$ 100 milhões e usando um modelo de 10^26 FLOPS durante o treinamento.
Sam Altman disse uma vez que o custo de treinamento do GPT-4 é quase esse. Zuckerberg disse que a próxima geração do Llama 4 requer mais de 10 vezes o poder de computação do Llama 3.1. Isso significa que tanto o GPT-5 quanto o Llama 4 provavelmente serão controlados pelo SB-1047.
Mas quando se trata de modelos de código aberto e seus derivados, o projeto de lei estipula que o desenvolvedor do modelo original deve ser responsabilizado, a menos que outro desenvolvedor gaste três vezes o custo para criar um derivado do modelo original. (Se o desenvolvedor gastar menos de US$ 10 milhões para ajustar o modelo, ele não será reconhecido como o desenvolvedor do modelo ajustado.)
O SB-1047 também exige que os desenvolvedores estabeleçam protocolos de segurança para evitar o abuso de produtos de IA cobertos, incluindo um botão de “parada de emergência” que “desliga” os modelos de IA com um clique.
Isto é tão indescritível que não é de admirar que existam tantos adversários.
Incentive os “olhinhos” internos
A supervisão é do recém-formado Departamento de Modelagem de Fronteiras (FMD) – um comitê de cinco pessoas – deIARepresentantes da indústria, da comunidade de código aberto e da academia, nomeados pelo Governador e Legislativo da Califórnia.
O CTO dos desenvolvedores de IA envolvidos no projeto de lei deve submeter uma “inspeção anual” (às suas próprias custas) à FMD para avaliar os riscos potenciais de seus próprios modelos de IA, a eficácia dos protocolos de segurança da empresa, como a empresa cumpre a descrição do SB-1047, etc. Assim que ocorre um “incidente de segurança”, os desenvolvedores de IA devem relatá-lo ao FMD dentro de 72 horas após tomarem conhecimento do fato.
Se um desenvolvedor de IA violar qualquer um dos regulamentos acima, a FMD irá “relatá-lo” ao Procurador-Geral da Califórnia, que então iniciará uma ação civil.
Como multar?Se o custo de treinamento de um modelo for de US$ 100 milhões, a multa para a primeira infração será de US$ 10 milhões e, para infrações subsequentes, a multa poderá chegar a US$ 30 milhões. À medida que o custo do desenvolvimento de modelos de IA aumentar no futuro, as multas também aumentarão.
O mais terrível é que os desenvolvedores de IA também precisam se proteger contra “insiders”. O projeto de lei fornece proteção aos denunciantes caso os funcionários divulguem informações sobre modelos de IA inseguros ao Procurador-Geral da Califórnia.
Só com base nisso, a OpenAI, que está cheia de “traidores”, começou a tremer.
Os provedores de serviços em nuvem também estão sob rígido controle
Ninguém pode escapar, o SB-1047 também estipula as obrigações da Amazon Cloud Services (AWS) e do Microsoft Azure.
Além de reter informações básicas de identidade do cliente e fins comerciais por até 7 anos - incluindo instituições financeiras relacionadas, números de cartão de crédito, números de contas, identificadores de transações ou endereços de carteiras de moeda virtual, etc.
É também necessário fornecer uma lista de preços transparente, unificada e aberta e garantir que não haja discriminação e comportamento anticoncorrencial no processo de fixação de preços e acesso. Contudo, o acesso gratuito ou reduzido está disponível para entidades públicas, instituições acadêmicas e pesquisadores não comerciais.
Parece que alguns provedores de serviços em nuvem desejam fornecer “políticas preferenciais” para empresas específicas de IA e precisam pensar de forma diferente.
2
Da herança a Musk, a força motriz por trás da "teoria da destruição da IA"
O cerne do problema reside na definição de grandes modelos de IA.
Uma boa analogia seria se uma empresa produzisse em massa carros muito perigosos e ignorasse todos os testes de segurança, resultando em graves acidentes de trânsito. Esta empresa deveria ser punida e até mesmo enfrentar acusações criminais.
Mas se esta empresa desenvolver um motor de busca e os terroristas procurarem “como construir uma bomba”, isso terá consequências graves. Neste momento, de acordo com a Seção 230 da Lei de Decência nas Comunicações dos EUA, a empresa não assumirá responsabilidade legal.
Então, o grande modelo de IA é mais parecido com um carro ou com um mecanismo de busca?
Se você pensar nos riscos de segurança da IA como “abuso intencional”, é mais como um mecanismo de busca, mas se você pensar nos riscos de segurança da IA como “consequências não intencionais”, é mais como um carro, e se transforma em um Transformador; meio da noite.
Abuso intencional, como o Deepfake mencionado acima; consequências não intencionais, como o AI Terminator em filmes de ficção científica.
Se você deseja apenas controlar o "abuso intencional", você deve descobrir diretamente os cenários representativos de aplicação de IA com os perigos mais ocultos, formular uma série de regulamentos para quebrá-los um por um e atualizar continuamente as políticas com os tempos e realizar a supervisão da maneira correta. Isto também é o que a China faz.
Mas é claro que os criadores do SB-1047 querem proteger-se contra ele em todos os aspectos e estão empenhados em reunir todas as soluções para o problema numa única peça legislativa.
Actualmente, na ausência de legislação federal, os estados dos Estados Unidos estão a promover os seus próprios regulamentos. Nos últimos meses, os legisladores estaduais propuseram 400 novas leis sobre inteligência artificial, com a Califórnia liderando com 50 projetos de lei.
Há um ditado que diz “A Califórnia cai, o Texas come”. Desta vez, a16z também pediu a mudança das startups de IA.
De acordo com relatórios do FT, a força motriz por trás do novo projeto de lei da Califórnia é o Centro de Segurança de Inteligência Artificial (CAIS).O centro é administrado pelo cientista da computação Dan Hendrycks, que atua como consultor de segurança xAI de Musk.Hendrycks respondeu: “As pressões competitivas estão afetando as organizações de IA, que essencialmente incentivam os funcionários a economizar na segurança.O projeto de lei da Califórnia é realista e razoável, e a maioria das pessoas deseja fortalecer a regulamentação.”
À medida que rastreamos as observações anteriores de Hendrycks.Certa vez, ele apresentou a visão extrema de "a IA substituindo os humanos" na revista Time em 2023: "A pressão evolutiva provavelmente enraizará o comportamento na IA para promover a autopreservação" e levará a "um caminho para ser substituído como espécie dominante na Terra ." .”
3
A objeção pode ser ineficaz, mas não se preocupe muito
Em resumo, o SB-1047 foi elaborado pelo “AI Destroyer” e apoiado pelos chefes do “AI Destroyer” Hinton e Yoshua, cujas posições sempre foram estáveis. Qualquer pessoa interessada pode se mudar para cáA IA representa uma ameaça existencial para a humanidade? |Debate sobre mudanças no capital de riscoO primeiro programa de debate do círculo de capital de risco, "Debate sobre transformação de capital de risco", produzido em conjunto pela Tencent Technology e FOYA.
Shidao resume principalmente as opiniões dos oponentes.
Li Feifei levantou “4 objeções”:
1. Punir excessivamente os desenvolvedores pode sufocar a inovação;
2. O “kill switch” restringirá o trabalho de desenvolvimento de código aberto e destruirá a comunidade de código aberto;
3. Enfraquecer a investigação em IA no meio académico e no setor público, e pode impedir que os académicos recebam mais financiamento;
4. Os danos potenciais causados pelo desenvolvimento da IA, como preconceito ou Deepfake, não são abordados.
a16z lista "6 pecados":
1. Este projeto de lei terá um efeito inibidor sobre o investimento e desenvolvimento em IA na Califórnia;
2. O projeto penaliza desenvolvedores/desenvolvedores com base em resultados pouco claros. Ainda não existem testes relevantes;
3. As definições vagas do projeto de lei e as responsabilidades legais estritas trouxeram enormes incertezas e riscos económicos para os criadores de IA e proprietários de empresas;
4. Este projeto de lei pode forçar a investigação em IA à clandestinidade e reduzir inadvertidamente a segurança dos sistemas de IA;
5. Este projeto de lei cria uma desvantagem sistêmica para desenvolvedores de código aberto e startups, que estão no centro da inovação e das pequenas empresas na Califórnia.
6. Este projeto de lei inibe a investigação e inovação em IA nos Estados Unidos e oferece oportunidades para países como a China ultrapassarem os Estados Unidos em IA.
YC lista “4 protestos”:
1. O projeto de lei deve punir os abusadores de ferramentas, não os desenvolvedores.Muitas vezes é difícil para os desenvolvedores prever as possíveis aplicações dos modelos, e os desenvolvedores podem ir para a prisão devido ao crime de perjúrio.
2. Os limiares regulamentares não conseguem captar totalmente a dinâmica do desenvolvimento tecnológico.As empresas fora da Califórnia poderão desenvolver tecnologia de IA com mais liberdade, o que pode afetar a inovação na Califórnia.
3. Kill Switch (a capacidade dos desenvolvedores de desligar modelos) pode proibir o desenvolvimento de IA de código aberto e inibir a colaboração e a transparência de código aberto.
4. O projeto de lei é vago e pode ser interpretado à vontade pelos juízes.
Ng Enda aponta: projeto de lei SB-1047 acabará com o código abertomodelo grandedesenvolver. O projeto de lei deveria regular as aplicações de IA, e não os próprios grandes modelos.O projeto de lei exige que os desenvolvedores protejam grandes modelos de código aberto contra uso indevido, modificação e desenvolvimento de produtos derivados ilegais de IA.No entanto, a forma como os desenvolvedores devem proteger e definir esses comportamentos ainda é muito vaga e não existe uma regulamentação detalhada.
LeCun se preocupa:Se o risco do modelo dentro do escopo não for avaliado com precisão, a cláusula de responsabilidade solidária já indica que a plataforma de código aberto pode ser responsabilizada.
Resumindo, a oposição concentra-se principalmente no “impacto na comunidade de código aberto” e na “definição vaga do projeto de lei”.
Em relação ao “impacto na comunidade de código aberto” do primeiro, o senador da Califórnia Scott Wiener, autor do projeto de lei SB-1047, respondeu:
1. Os desenvolvedores não irão para a cadeia por não conseguirem prever os riscos do modelo.(O projeto original previa a responsabilidade criminal, mas a alteração alterou-a apenas para a responsabilidade civil). Primeiro, startups, desenvolvedores e academia não precisam se preocupar porque a lei não se aplica a eles.Em segundo lugar, a cláusula de perjúrio no projeto de lei só terá efeito quando o desenvolvedor "conscientemente" fizer uma declaração falsa, e o erro de julgamento não intencional das capacidades do modelo não acionará a cláusula de perjúrio (esta cláusula foi excluída na alteração)
2. Os interruptores de interrupção e os requisitos de avaliação de segurança não impedirão o desenvolvimento da IA de código aberto.Requisitos para desligamento emergencial de modelos na faturaAplica-se apenas a modelos sob controle do desenvolvedor, excluindo modelos de código aberto não controlados.
Silicon Valley não precisa de ser excessivamente pessimista em relação à “definição ambígua do projecto de lei” deste último. Afinal de contas, a sombra da “sombreamento unilateral” dos reguladores está a desaparecer.
Não muito tempo atrás, a Suprema Corte dos EUA derrubou a "doutrina Chevron" de 40 anos -Os juízes são obrigados a submeter-se às interpretações das disposições legais das agências reguladoras governamentais quando estas não são claras.
As estatísticas publicadas no Jornal Regulatório da Universidade de Yale mostram:Em 2014, o "Princípio Chevron" foi citado mais de 67.000 vezes em tribunais inferiores nos Estados Unidos, tornando-se a decisão da Suprema Corte mais citada na área de direito administrativo.
Hoje, o Supremo Tribunal Federal redistribuiu o “poder de interpretação”, ou seja, o tribunal tem mais autonomia e maior poder de julgamento para requisitos legais ambíguos, em vez de simplesmente citar pareceres de órgãos administrativos (BIS, OFAC, etc.).
Alguns meios de comunicação descreveram a abolição da “Doutrina Chevron” como um grande presente do Supremo Tribunal para as empresas de tecnologia. É previsível que na era pós-Chevron, mais empresas desafiem as actividades reguladoras das agências administrativas e até remodelem os pesos e contrapesos entre os departamentos legislativo, judicial e executivo dos Estados Unidos. É claro que também oferece novas opções para as empresas chinesas que vão para o exterior recorrerem aos tribunais.
Finalmente, não é certo que o SB-1047 seja totalmente implementado.
Por um lado, o governador da Califórnia, Newsom, não comentou publicamente o projeto de lei SB-1047, mas já expressou anteriormente o seu compromisso com a inovação da IA na Califórnia. Scott Wiener também disse que não conversou com Newsom sobre o projeto e não conhece sua posição.
Por outro lado, mesmo que o SB-1047 seja aprovado por Newsom, ele poderá enfrentar contestações judiciais de oponentes ferrenhos, como a16z. Isso colocaria o projeto de lei em espera até que a Suprema Corte dos EUA decida.
Referências:
1、A Califórnia enfraquece o projeto de lei para prevenir desastres de IA antes da votação final, seguindo o conselho da Anthropic
2、O que você precisa saber sobre SB 1047: Perguntas e respostas com Anjney Midha
3. O projeto de lei da IA dos EUA está muito enfraquecido! O círculo de IA está explodindo, Li Feifei condenou publicamente, as empresas nacionais de IA estão todas preocupadas com isso
4. A regulamentação tecnológica mudará se o Supremo Tribunal dos EUA anular o precedente de 1984?
FIM