notícias

Análise aprofundada: a “supervisão voluntária” prometida por gigantes da IA ​​como Google e Microsoft foi alcançada?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Há um ano, incluindo Amazon, Microsoft, Google, Meta,IA abertaSete empresas de inteligência artificial, incluindo Anthropic e Inflection, alcançaram oito compromissos voluntários com a Casa Branca sobre como desenvolver inteligência artificial de forma segura e confiável.

Estes compromissos incluem o aumento dos testes e da transparência dos sistemas de IA e a partilha de informações sobre potenciais perigos e riscos.

No aniversário de um ano da assinatura do Compromisso Voluntário, a MIT Technology Review pediu às empresas de IA que assinaram o compromisso alguns detalhes sobre seu trabalho até agora. As suas respostas indicam alguns progressos promissores para a indústria tecnológica, mas também algumas advertências significativas.

Estes compromissos voluntários são assumidos eminteligência artificial generativa A medida ocorre num momento em que o frenesim “pode estar no seu auge”, à medida que as empresas correm para lançar os seus próprios modelos e torná-los maiores e melhores do que os dos seus rivais. Ao mesmo tempo, também começamos a ver debates em torno de questões como direitos autorais e deepfakes. Um lobby de figuras influentes da tecnologia, como Geoffrey Hinton, também levantou preocupações de que a IA pudesse representar riscos existenciais para a humanidade. De repente, todos falam sobre a necessidade urgente de garantir a segurança da IA, e os reguladores em todo o mundo estão sob pressão para tomar medidas.

Até recentemente, o desenvolvimento da inteligência artificial era como o “Velho Oeste”. Os Estados Unidos têm sido tradicionalmente relutantes em regulamentar os seus gigantes tecnológicos, confiando, em vez disso, neles para se auto-regularem. Os compromissos voluntários são um bom exemplo: estas são algumas regras prescritivas para o domínio da inteligência artificial nos Estados Unidos, mas ainda são voluntárias e não podem ser aplicadas. Mais tarde, a Casa Branca emitiu uma ordem executiva que expandiu esses compromissos e aplicou-se a outras empresas de tecnologia e agências governamentais.

“Um ano depois, vemos algumas empresas adotarem algumas boas práticas com seus produtos, mas elas não estão nem perto de onde precisamos estar em termos de boa governança ou proteção de direitos básicos, Centro de Inteligência Artificial e Política Digital, disse Merve”. Hickok, presidente e diretor de pesquisa. Ela revisou as respostas das empresas a pedido do MIT Technology Review. “Muitas destas empresas continuam a promover afirmações infundadas sobre os seus produtos, tais como alegações de que podem superar a inteligência e as capacidades humanas”, acrescentou ela.

Uma tendência emergente destas respostas das empresas de tecnologia é que as empresas estão a tomar mais medidas para procurar soluções técnicas, como o confronto vermelho-azul (onde os humanos exploram as falhas nos modelos de IA) e a adição de marcas de água ao conteúdo gerado pela IA.

Rishi Bommasani, diretor do Centro de Modelagem Fundamental da Universidade de Stanford, disse que não está claro quais mudanças ocorreram nesses compromissos ou se as empresas implementariam as medidas. Ele também revisou as respostas do MIT Technology Review.

Um ano é muito tempo no campo da inteligência artificial. Desde a assinatura do compromisso voluntário, o fundador da Inflection AI, Mustafa Suleyman, deixou a empresa para se juntar à Microsoft para liderar os esforços relacionados à IA. A inflexão se recusou a comentar.

A porta-voz da Casa Branca, Robyn Patterson, disse: “Estamos gratos pelo progresso que as empresas líderes fizeram no cumprimento de compromissos voluntários além dos requisitos da ordem executiva. No entanto, o presidente continua a apelar ao Congresso para aprovar legislação bipartidária sobre inteligência artificial”.

Brandie Nonnecke, diretora do CITRIS Policy Lab da Universidade da Califórnia, Berkeley, disse que, sem legislação federal abrangente, tudo o que os Estados Unidos podem fazer agora é exigir que as empresas cumpram estes compromissos voluntários.

Mas o que é importante lembrar é que “essas empresas estão basicamente estudando para o teste que estão sendo aplicados”, disse Brandie Nonnecke, “então temos que olhar com cuidado para ver se elas estão realmente se validando de uma forma verdadeiramente rigorosa”.

Aqui está nossa avaliação do progresso que essas empresas de IA fizeram no ano passado.

Compromisso 1. As empresas se comprometem a fazer testes de segurança internos e externos de seus sistemas de IA antes de seu lançamento. Esses testes, que serão realizados em parte por especialistas independentes, protegem contra algumas das fontes mais significativas de riscos de IA, como biossegurança e cibersegurança, bem como seus efeitos sociais mais amplos.

Compromisso 1: Conduza testes de segurança internos e externos de sistemas de IA antes de liberá-los. Parte destes testes será realizada por peritos independentes e destina-se a proteger contra algumas das fontes mais importantes de riscos de IA, como a biossegurança, a cibersegurança e impactos sociais mais amplos.

Todas as empresas (exceto a Inflection, que optou por não comentar) disseram que conduziram confrontos vermelho-azul para permitir que testadores internos e externos explorassem as falhas e riscos dos seus modelos. A OpenAI disse que tem uma equipe de preparação separada que testa modelos de segurança cibernética, ameaças químicas, biológicas, radiológicas e nucleares, bem como modelos sofisticados de inteligência artificial que podem fazer ou convencer uma pessoa a fazer coisas que podem causar danos. A Anthropic e a OpenAI também disseram que realizariam esses testes com especialistas externos antes de lançar novos modelos.Por exemplo, para lançar seu modelo mais recente, Claude 3.5, a Anthropic conduziu testes de pré-implantação com especialistas do Instituto de Segurança de Inteligência Artificial do Reino Unido também permitiu que a organização de pesquisa sem fins lucrativos METR conduzisse testes de pré-implantação do Claude 3.5.Piloto automático A funcionalidade foi “explorada preliminarmente”. O Google disse que também está conduzindo confrontos internos vermelho-azul em seu modelo Gemini para testar os limites do conteúdo relacionado às eleições, riscos sociais e preocupações com a segurança nacional. A Microsoft disse que trabalhou com avaliadores terceirizados da NewsGuard, uma organização que promove a integridade jornalística, para avaliar o risco e mitigar o risco de uso indevido de deepfakes na ferramenta de conversão de texto em imagem da Microsoft. Meta disse que, além do confronto vermelho-azul, também avaliou seu modelo mais recente, o Llama 3, para ver seu desempenho em diversas áreas de risco, incluindo armas, ataques cibernéticos e exploração infantil.

“Quando se trata de testes, não basta apenas informar que uma empresa está agindo”, disse Rishi Bommasani. Amazon e Anthropic, por exemplo, disseram que uniram forças com a organização sem fins lucrativos Thorn para enfrentar os riscos que a inteligência artificial representa para a segurança infantil. Ele gostaria de saber mais detalhes sobre como as intervenções que a empresa está implementando realmente reduzem esses riscos.

“Devemos compreender claramente que não são apenas as empresas que estão a fazer coisas, mas que essas coisas estão a ter o efeito desejado”, disse Rishi Bommasani.

resultado: muito bom. Avançando o vermelho e o azul e testando vários riscos é um trabalho importante. No entanto, Merve Hickok gostaria que investigadores independentes tivessem acesso mais amplo aos modelos da empresa.

Compromisso 2. As empresas se comprometem a compartilhar informações em toda a indústria e com governos, sociedade civil e academia sobre o gerenciamento de riscos de IA. Isso inclui melhores práticas de segurança, informações sobre tentativas de contornar salvaguardas e colaboração técnica.

Compromisso 2: Partilhar informações sobre a gestão dos riscos da IA ​​com a indústria e o governo, a sociedade civil e o meio académico. Isto inclui melhores práticas de segurança, informações sobre tentativas de contornar as salvaguardas e cooperação técnica.

Depois de assinar o compromisso voluntário, Google, Microsoft, Anthropic e OpenAI formaram o Frontier Model Forum, uma organização sem fins lucrativos para promover discussões e ações sobre segurança e responsabilidade em inteligência artificial. Mais tarde, Amazon e Meta aderiram.

Rishi Bommasani disse que a parceria com organizações sem fins lucrativos que as empresas de IA financiam pode não ter o espírito de um compromisso voluntário. Na sua opinião, o Frontier Model Forum poderia ser uma forma de estas empresas colaborarem entre si e transmitirem mensagens de segurança, algo que muitas vezes têm dificuldade em fazer como concorrentes.

“Mesmo que eles não divulguem informações ao público, seria de esperar que pelo menos descobrissem coletivamente maneiras de reduzir o risco”, disse Rishi Bommasani.

Todos os sete signatários também são membros do Consórcio do Instituto de Inteligência Artificial para Segurança (AISIC), estabelecido pelo Instituto Nacional de Padrões e Tecnologia (NIST) para desenvolver diretrizes e padrões para políticas de IA e avaliação de desempenho de IA. players do setor. Google, Microsoft e OpenAI também têm representantes no Grupo Consultivo de Alto Nível das Nações Unidas sobre Inteligência Artificial.

Muitas empresas também destacaram suas colaborações de pesquisa com o meio acadêmico. Por exemplo, o Google faz parte do MLCommons, onde trabalha com acadêmicos para conduzir pesquisas de benchmark de segurança de IA em vários setores. O Google também disse que contribui ativamente com ferramentas e recursos, como créditos computacionais, para programas como o programa piloto de recursos de pesquisa de inteligência artificial nacional da National Science Foundation, que visa democratizar a pesquisa de IA nos Estados Unidos.

Muitas empresas também contribuem para a Partnership on AI, outra organização sem fins lucrativos co-fundada pela Amazon, Google, Microsoft, Facebook, DeepMind e IBM, para implementar os modelos subjacentes.

resultado: Mais trabalho ainda precisa ser feito. À medida que a indústria trabalha em conjunto para tornar os sistemas de IA seguros e fiáveis, a partilha de mais informações é, sem dúvida, um passo importante na direção certa. No entanto, não está claro quanto dos esforços anunciados irão realmente resultar em mudanças significativas e quanto deles serão apenas cosméticos.

Compromisso 3. As empresas se comprometem a investir em segurança cibernética e salvaguardas contra ameaças internas para proteger pesos de modelos proprietários e não lançados. Esses pesos de modelos são a parte mais essencial de um sistema de IA, e as empresas concordam que é vital que os pesos de modelos sejam lançados somente quando pretendido e quando os riscos de segurança forem considerados.

Compromisso 3: Invista em medidas de segurança cibernética e de proteção contra ameaças internas para proteger pesos de modelos proprietários e não lançados. Esses pesos de modelo são a parte mais importante de um sistema de IA, e as empresas concordam que é fundamental liberar pesos de modelo apenas intencionalmente e com os riscos de segurança em mente.

Muitas empresas implementaram novas medidas de segurança cibernética no ano passado. Por exemplo, a Microsoft lançou a sua “Security Future Initiative” para combater a crescente escala dos ataques cibernéticos. A Microsoft afirma que os pesos de seus modelos são criptografados para reduzir o risco potencial de roubo de modelos e aplica autenticação forte e controles de acesso ao implantar modelos altamente personalizados.

O Google também lançou um programa de defesa cibernética com inteligência artificial. Em maio, a OpenAI partilhou seis novas medidas que estava a desenvolver para complementar as suas práticas de cibersegurança existentes, como a extensão das proteções criptográficas ao hardware de IA, e também tem um programa de subvenções de cibersegurança que permite aos investigadores utilizar o seu modelo para construir defesas de cibersegurança.

A Amazon disse que também tomou medidas específicas contra ataques exclusivos à IA generativa, como “envenenamento de dados” e “injeção de palavras de dica”, que podem usar dicas para orientar modelos de linguagem a ignorar instruções anteriores e proteções de segurança.

Dias depois de assinar o compromisso voluntário, a Anthropic divulgou detalhes sobre suas salvaguardas, que incluem práticas comuns de segurança cibernética, como controlar quem tem acesso a modelos e pesos de modelos, bem como inspecionar e controlar cadeias de abastecimento de terceiros. A empresa também trabalha com avaliadores independentes para avaliar se os controles que projeta atendem às necessidades de segurança cibernética.

resultado: muito bom. Todas as empresas afirmam que tomaram medidas adicionais para proteger os seus modelos, embora não pareça haver muito consenso sobre as melhores formas de proteger os modelos de IA.

Compromisso 4. As empresas se comprometem a facilitar a descoberta e o relato de vulnerabilidades por terceiros em seus sistemas de IA. Alguns problemas podem persistir mesmo depois que um sistema de IA é lançado e um mecanismo de relato robusto permite que eles sejam encontrados e corrigidos rapidamente.

Compromisso 4: Facilitar que terceiros descubram e relatem vulnerabilidades em seus sistemas de inteligência artificial. Mesmo após o lançamento do sistema de inteligência artificial, alguns problemas ainda podem existir, e um poderoso mecanismo de relatório pode permitir que os problemas sejam rapidamente descobertos e corrigidos em tempo hábil.

Uma das formas mais populares de cumprir esta promessa é implementar um programa de “recompensa por bugs”, que recompensa indivíduos por descobrirem falhas em sistemas de IA. Incluindo Google, Microsoft, Meta, Anthropic e OpenAI lançaram tais planos para sistemas de inteligência artificial. Amazon e Anthropic também disseram que estabeleceram formulários em seus sites onde pesquisadores de segurança podem enviar relatórios de vulnerabilidade.

De acordo com Brandie Nonnecke, pode levar anos para descobrir como fazer um bom trabalho com uma auditoria terceirizada. "Este não é apenas um desafio técnico, mas um desafio sociotécnico. Levaremos anos não apenas para descobrir os padrões técnicos para a inteligência artificial, mas também para descobrir os padrões sociotécnicos, que são complexos e difíceis, " ela disse. .

Brandie Nonnecke disse temer que as primeiras empresas a implementar auditorias de terceiros possam estabelecer um mau precedente sobre como pensar e abordar os riscos sociotécnicos da inteligência artificial. Por exemplo, uma auditoria pode definir, avaliar e abordar determinados riscos, mas ignorar outros.

resultado: Mais trabalho ainda precisa ser feito. As recompensas de bugs são ótimas, mas não são abrangentes o suficiente. Novas leis, como a Lei da Inteligência Artificial da UE, exigirão que as empresas tecnológicas realizem auditorias, e seria melhor se as empresas tecnológicas partilhassem histórias de sucesso de tais auditorias.

Compromisso 5. As empresas se comprometem a desenvolver mecanismos técnicos robustos para garantir que os usuários saibam quando o conteúdo é gerado por IA, como um sistema de marca d'água. Essa ação permite que a criatividade com IA floresça, mas reduz os perigos de fraude e engano.

Compromisso 5:O desenvolvimento de mecanismos técnicos poderosos para garantir que os utilizadores saibam que conteúdo é gerado pela IA, tais como “sistemas de marcas de água”, permite que a criatividade da IA ​​floresça, ao mesmo tempo que reduz o risco de fraude e engano.

Muitas empresas criaram sistemas de marca d'água para conteúdo gerado por IA. Por exemplo, o Google lançou o SynthID, uma ferramenta de marca d'água para imagens, áudio, texto e vídeos gerados pelo Gemini. A Meta desenvolveu uma ferramenta de marca d'água de imagem chamada "Stable Signature" e uma ferramenta de marca d'água de voz chamada "AudioSeal". A Amazon agora adiciona uma “marca d'água invisível” às imagens geradas por seu modelo de geração de imagens Titan. OpenAI usou marcas d'água em seu modelo de fala personalizado Voice Engine e construiu um classificador de detecção de imagem para imagens geradas pelo DALL-E 3. A Anthropic é a única empresa que ainda não construiu uma ferramenta de marca d'água, porque a marca d'água é principalmente para imagens, e o modelo Claude da empresa não oferece suporte a imagens.

Todas as empresas, exceto Inflection, Anthropic e Meta, também são membros da Content Provenance and Authenticity Alliance (C2PA), uma aliança da indústria que discutirá questões relacionadas a quando o conteúdo foi criado e se ele foi criado ou editado por inteligência artificial ou por humanos. está incorporado nos metadados da imagem. A Microsoft e o OpenAl anexam automaticamente os metadados de origem do C2PA às imagens criadas com o DALL-E 3 e aos vídeos criados com o Sora. Embora a Meta não seja membro da aliança, ela anunciou que está usando o padrão C2PA para identificar imagens geradas por IA em sua plataforma.

“As seis empresas que assinaram o compromisso voluntário gravitam naturalmente em torno de abordagens tecnológicas para lidar com riscos, e isto é particularmente verdadeiro com sistemas de marca d'água”, disse Rishi Bommasani.

“A questão é: podem as ‘soluções técnicas’ fazer progressos significativos e resolver os problemas sociais subjacentes que nos levam a questionar se o conteúdo é gerado por máquinas?”

resultado: muito bom. No geral, este é um resultado encorajador e, embora o sistema de marca d'água ainda seja experimental e não confiável, ainda é bom ver a pesquisa que o cerca e o compromisso com o padrão C2PA. Isso é melhor do que nada, especialmente num ano eleitoral agitado.

Compromisso 6. As empresas se comprometem a relatar publicamente as capacidades, limitações e áreas de uso apropriado e inapropriado de seus sistemas de IA. Este relatório cobrirá tanto os riscos de segurança quanto os riscos sociais, como os efeitos sobre a justiça e o preconceito.

Compromisso 6: Reportar publicamente sobre as capacidades, limitações e áreas em que os seus sistemas de IA são adequados para utilização. O relatório cobrirá riscos de segurança e riscos sociais, tais como impactos na justiça e preconceitos.

O compromisso da Casa Branca deixa muito espaço para interpretação; por exemplo, as empresas podem tecnicamente cumprir esses requisitos de divulgação pública, desde que avancem nessa direção, embora os níveis de transparência possam variar amplamente.

Aqui, a solução mais comum oferecida pelas empresas de tecnologia é o chamado “cartão modelo”. Embora cada empresa os chame de maneira um pouco diferente, eles servem essencialmente como uma espécie de descrição do produto para o modelo de IA. Podem abranger tudo, desde as capacidades e limitações de um modelo (incluindo como medir parâmetros de justiça e explicabilidade) até à autenticidade, robustez, governação, privacidade e segurança. A Antthropic disse que também testará o modelo para possíveis problemas de segurança que possam surgir posteriormente.

A Microsoft lançou seu Relatório Anual de Transparência de IA Responsável, que fornece informações sobre como a empresa cria aplicativos que usam inteligência artificial generativa, toma decisões e supervisiona a implantação desses aplicativos. A Microsoft também disse que deixa claro onde e como a inteligência artificial é usada em seus produtos.

resultado: Mais trabalho ainda precisa ser feito. Merve Hickok disse que aumentar a transparência nas estruturas de governação e nas relações financeiras entre empresas seria uma área a melhorar para todas as empresas, e ela também gostaria que as empresas fossem mais transparentes sobre fontes de dados, processos de formação de modelos, incidentes de segurança e utilização de energia.

Compromisso 7. As empresas se comprometem a priorizar a pesquisa sobre os riscos sociais que os sistemas de IA podem representar, incluindo evitar preconceitos e discriminação prejudiciais e proteger a privacidade. O histórico da IA ​​mostra a insidiosidade e a prevalência desses perigos, e as empresas se comprometem a implementar IA que os mitigue.

Compromisso 7: Priorizar a investigação sobre os riscos sociais que os sistemas de inteligência artificial podem trazer, incluindo evitar preconceitos prejudiciais, discriminação e proteção da privacidade. O historial da IA ​​mostra quão insidiosos e generalizados são estes perigos, e estas empresas estão a prometer que a IA irá mitigá-los.

As empresas de tecnologia têm estado ocupadas conduzindo pesquisas de segurança e incorporando as descobertas em seus produtos. A Amazon construiu “proteções” para o “Amazon Bedrock” que podem detectar alucinações e também aplicar proteções de segurança, privacidade e autenticidade. A Anthropic disse que contratou uma equipe de pesquisa focada no estudo de riscos sociais e privacidade e, no ano passado, introduziu recursos emergentes para falsificação, jailbreak, estratégias de redução de discriminação e modelos que alteram seu próprio código ou realizam pesquisas de persuasão. A OpenAI afirma que treinou seus modelos para evitar “conteúdo de ódio” e rejeitar conteúdo de ódio ou extremista, e treinou o GPT-4V para rejeitar muitas solicitações que exigem respostas baseadas em estereótipos. O Google DeepMind também publicou pesquisas avaliando capacidades perigosas e conduziu pesquisas sobre o uso indevido de IA generativa.

Todas as empresas investem fortemente em pesquisas nesta área. O Google, por exemplo, investiu milhões de dólares para criar um novo Fundo de Segurança de IA para promover pesquisas na área por meio de fóruns de modelagem de ponta. A Microsoft disse que comprometeu US$ 20 milhões em financiamento para estudar riscos sociais por meio do National Artificial Intelligence Research Resource e lançou um programa acelerador de pesquisa de modelos de IA, o programa Accelerating Fundamental Model Research. A empresa também contratou 24 pessoas focadas em pesquisadores em inteligência artificial e. sociologia.

resultado: muito bom. É uma promessa fácil de alcançar, já que os signatários são alguns dos maiores e mais ricos laboratórios corporativos de pesquisa em IA do mundo. Embora mais investigação sobre como tornar os sistemas de IA seguros seja um passo bem-vindo, os críticos salientam que o foco na investigação em segurança desvia a atenção e os recursos da investigação em IA, que se concentra em danos mais imediatos, como a discriminação e o preconceito.

Compromisso 8. As empresas se comprometem a desenvolver e implementar sistemas avançados de IA para ajudar a lidar com os maiores desafios da sociedade. Da prevenção do câncer à mitigação das mudanças climáticas e muito mais, a IA — se gerenciada adequadamente — pode contribuir enormemente para a prosperidade, igualdade e segurança de todos.

Compromisso 8:Desenvolvendo e implantando sistemas avançados de inteligência artificial para ajudar a resolver os maiores desafios da sociedade, desde a prevenção do cancro à mitigação das alterações climáticas e muitas outras áreas, se gerida corretamente, a inteligência artificial pode promover significativamente a prosperidade, a igualdade e a segurança humanas.

Desde que fizeram esta promessa, as empresas de tecnologia têm resolvido uma série de problemas. Por exemplo, a Pfizer utiliza Claude para avaliar tendências na investigação do tratamento do cancro após a recolha de dados relevantes, enquanto a empresa biofarmacêutica norte-americana Gilead utiliza a IA generativa da Amazon Web Services para realizar avaliações de viabilidade de estudos clínicos e analisar conjuntos de dados.

O Google DeepMind tem um forte histórico de lançamento de ferramentas de inteligência artificial que ajudam os cientistas. Por exemplo, o AlphaFold 3 pode prever a estrutura e as interações de quase todas as moléculas vivas. AlphaGeometry resolve problemas geométricos em um nível comparável ao dos melhores alunos do ensino médio. GraphCast é um modelo de inteligência artificial capaz de prever o tempo a médio prazo. Entretanto, a Microsoft está a utilizar imagens de satélite e inteligência artificial para melhorar a resposta aos incêndios florestais em Maui, no Havai, e mapear populações vulneráveis ​​aos impactos climáticos, o que ajuda os investigadores a descobrir riscos como a insegurança alimentar, a migração forçada e as doenças.

Entretanto, a OpenAI anunciou colaborações e financiamento para vários projetos de investigação, como um sobre como educadores e cientistas podem utilizar com segurança modelos de IA multimodais em ambientes laboratoriais. A empresa também está financiando “hackathons” para ajudar pesquisadores a desenvolver energia limpa em sua plataforma.

resultado: muito bom. Alguns dos trabalhos em áreas como a utilização da inteligência artificial para facilitar a descoberta científica ou prever o tempo são verdadeiramente emocionantes. As empresas de IA ainda não estão usando IA para prevenir o câncer, o que é um padrão bastante alto para começar.

No geral, há algumas mudanças positivas na forma como a IA é construída, como o confronto vermelho-azul, sistemas de marcas d’água e novas formas de compartilhar as melhores práticas entre os setores. No entanto, estas são apenas algumas das soluções tecnológicas engenhosas encontradas para resolver o complicado problema sociotécnico dos perigos da IA, e há muito mais trabalho a ser feito. Um ano depois, o compromisso ainda enfatiza excessivamente um tipo específico de segurança da IA ​​que se concentra em “riscos hipotéticos”, como as armas biológicas, sem fazer qualquer menção à proteção do consumidor, aos deepfakes, aos dados e aos direitos de autor e à pegada ambiental da IA, omissões que hoje parecem. francamente bizarro.

Links originais:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/