notícias

Os Estados Unidos lançam o "Projeto Manhattan 2.0", a IA entrará no seu momento Oppenheimer? 6 bilhões foram jogados em drones, 800 deles já foram

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Novo Relatório de Sabedoria

Editor: Enéias com tanto sono

[Introdução à Nova Sabedoria] O Projeto Manhattan 2.0 está chegando? Até agora, os militares dos EUA têm mais de 800 projetos ativos de IA e solicitaram 1,8 mil milhões de dólares em financiamento para IA apenas em 24 anos. Nos próximos cinco anos, os Estados Unidos também atribuirão 6 mil milhões de dólares à investigação e desenvolvimento de caças colaborativos não tripulados. Agora, a IA parece ter entrado no seu momento Oppenheimer.

A inteligência artificial entrou no seu momento Oppenheimer.

Agora, as armas de IA são constantemente utilizadas para fins militares e as indústrias relacionadas estão em expansão.

A corrida armamentista multibilionária em IA atraiu gigantes do Vale do Silício e países de todo o mundo.

Os conflitos crescentes em todo o mundo são ao mesmo tempo aceleradores e campos de testes para a guerra da IA. Os militares de vários países têm grande interesse na IA e actualmente existe uma falta de supervisão neste domínio.


Os militares dos EUA já têm mais de 800 projetos de IA ativos. Só em 2024, solicitaram 1,8 mil milhões de dólares em financiamento no orçamento para IA.

A IA que se enraíza nas forças armadas e nos governos de todo o mundo provavelmente mudará fundamentalmente a sociedade, mudará a tecnologia e mudará a guerra.

A publicidade de drones se torna realidade

Um grupo de soldados está sob o fogo de foguetes durante um combate urbano de curta distância.

Um deles fez uma ligação pelo rádio e logo uma frota de pequenos drones autônomos equipados com explosivos chegou.

Esses drones suicidas voam para dentro dos edifícios e começam a procurar inimigos. Assim que encontram um alvo, eles detonam sob comando.

A imagem acima é de um anúncio da empresa de armas Elbit para promover como os drones de IA podem “maximizar a letalidade e o ritmo de combate”.


Agora, a tecnologia desenvolvida pela Elbit entrou cada vez mais no mundo real.

“Com o tempo, poderemos ver os humanos cederem mais julgamento às máquinas”, disse Paul Scharre, vice-presidente executivo e diretor de pesquisa do think tank Center for a New American Security.

“Se olharmos para trás, daqui a 15 ou 20 anos, perceberemos que ultrapassamos um limiar muito importante.”


Em 2023, um drone integrado com IA detecta dispositivos explosivos

Os Estados Unidos gastam US$ 1 bilhão no "Projeto Replicador"

Embora o desenvolvimento da IA ​​só tenha registado um aumento no investimento nos últimos anos, o desenvolvimento de sistemas de armas autónomos na guerra pode ser rastreado há décadas.

É claro que estes desenvolvimentos raramente aparecem em discussões públicas, mas são objecto de estudo por um pequeno número de académicos e estrategistas militares.

Mas agora, a atenção do público à IA está a aumentar. Se as armas são verdadeiramente “autônomas” também se tornou um tema muito debatido.

Segundo especialistas e pesquisadores, podemos entender a “autonomia” como um espectro e não como um simples conceito binário.

Mas geralmente concordam que as máquinas são agora capazes de tomar mais decisões sem intervenção humana do que nunca.


E o dinheiro está a ser investido em empresas e agências governamentais, prometendo que a IA pode tornar a guerra mais inteligente, mais barata e mais rápida.

O Pentágono planeia gastar mil milhões de dólares no seu “Programa Replicador” até 2025. O objetivo deste programa é desenvolver um grande número de drones de combate não tripulados e usar IA para caçar ameaças.

Nos próximos cinco anos, a Força Aérea dos EUA planeja alocar aproximadamente US$ 6 bilhões para pesquisa e desenvolvimento de caças colaborativos não tripulados para construir uma frota de 1.000 caças de IA que possam voar de forma autônoma.

Nos últimos anos, o Departamento de Defesa dos EUA também arrecadou centenas de milhões de dólares para financiar um programa secreto de inteligência artificial chamado Project Maven, que se concentra em tecnologias como reconhecimento automático de alvos e vigilância.


Soldados britânicos usam IA durante exercícios

Empresas de tecnologia assinam grandes contratos

Ao mesmo tempo, a crescente procura de IA e autonomia nas forças armadas ajudou as empresas tecnológicas e os traficantes de armas a ganharem encomendas enormes.

A Anduril, uma empresa que desenvolve drones de ataque autónomos, aviões de combate não tripulados e veículos subaquáticos, está a levantar uma nova ronda de capital de risco com uma avaliação esperada de 12,5 mil milhões de dólares.


O fundador da Anduril, Palmer Luckey, é um bilionário de 31 anos que este ano assinou um contrato com o Pentágono para construir um programa de caças não tripulados.

O bilionário do Vale do Silício, Peter Thiel, também fundou a Palantir, uma empresa de tecnologia e vigilância. Já participou de projetos de IA, como o “primeiro veículo definido por inteligência artificial” do Exército dos EUA.


Em maio, o Pentágono anunciou que havia concedido à Palantir um contrato de US$ 480 milhões para tecnologia de IA que ajuda a identificar alvos inimigos.

Atualmente, a tecnologia da Palantir tem sido utilizada em diversas operações militares.


Palantir envolvido no “primeiro veículo definido por IA” do Exército dos EUA

Anduril e Palantir, em homenagem à Espada Sagrada e à Pedra Filosofal em “O Senhor dos Anéis”, respectivamente, são apenas uma pequena parte da corrida do ouro da guerra internacional de IA.


Helsing levantou quase US$ 500 milhões em financiamento para seu software de defesa de IA e foi avaliado em US$ 5,4 bilhões este mês.

Enquanto isso, a Elbit Systems divulgou em um documento financeiro em março que havia assinado um contrato de munição de US$ 760 milhões em 2023. E, no ano passado, a receita atingiu US$ 6 bilhões.


Helsing levanta quase US$ 500 milhões para seu software de defesa de IA, avaliado em US$ 5,4 bilhões este mês

As grandes empresas tecnológicas também estão mais receptivas à indústria de defesa e à utilização da IA ​​do que nos últimos anos.

Em 2018, os funcionários do Google protestaram contra o envolvimento da empresa no Projeto Maven dos militares, argumentando que violava responsabilidades éticas e morais. Naquela época, sob pressão, o Google rompeu a cooperação com o projeto.

No entanto, desde então, o Google chegou a um acordo no valor de 1,2 mil milhões de dólares com o governo de um determinado país para lhe fornecer serviços de computação em nuvem e capacidades de IA.

Este ano, o Google demitiu dezenas de funcionários enquanto alguns protestavam contra contratos militares. O CEO Pichai disse sem rodeios aos funcionários: “Isto é um negócio”.


Protestos semelhantes de funcionários ocorreram na Amazon em 2022 e, novamente, a empresa não mudou sua política.

caixa preta dupla

Os investigadores alertam que, à medida que enormes quantidades de dinheiro fluem para o sector da tecnologia de defesa, muitas empresas e tecnologias operam com transparência e responsabilização mínimas.

Quando um produto falha inesperadamente, os resultados podem ser fatais, mas estes traficantes de armas geralmente não são responsáveis ​​por isso.

Além disso, a tendência para o sigilo do aparelho de segurança nacional dos EUA também significa que as empresas e os governos não têm qualquer obrigação de divulgar os detalhes de como estes sistemas funcionam.

Quando o governo pega tecnologia de IA secreta e proprietária e a coloca no mundo oculto da segurança nacional, cria o que Ashley Deeks, professora de direito da Universidade da Virgínia, chama de “caixa preta dupla”.

Neste caso, é difícil para o público saber se estes sistemas estão a funcionar de forma correta ou ética. E, de modo geral, isso deixa muito espaço para erros.

“Tenho visto muito entusiasmo em torno da IA ​​no mundo dos negócios, e a palavra ‘IA’ está sendo mal utilizada em todos os lugares”, disse Scharre, do think tank Center for American Security. pode não ser tão complexo quanto anunciado ".


Ativistas protestam em frente ao Portão de Brandemburgo, em Berlim, Alemanha, exigindo “parar os robôs assassinos”

pessoas no circuito

Embora as empresas e as forças armadas nacionais estejam relutantes em divulgar os detalhes operacionais específicos dos seus sistemas, envolvem-se em muito debate sobre a responsabilidade ética e a regulamentação dos sistemas de IA.

Por exemplo, diplomatas e traficantes de armas geralmente acreditam que deveria haver sempre “participação humana” no processo de tomada de decisão, em vez de ser completamente controlado por máquinas.

No entanto, há pouco consenso sobre como implementar a supervisão humana.

“Todos podem concordar com o conceito, mas ao mesmo tempo todos têm uma ideia diferente do que isso significa na prática”, disse Rebecca Crootof, professora de direito e especialista em guerra autônoma da Universidade de Richmond e primeira pesquisadora visitante da DARPA.

"Em termos de realmente orientar as decisões técnicas de design, este conceito não é tão útil."


Manifestantes se reúnem em frente à fábrica da Elbit Systems em Leicester, Reino Unido

Além disso, as complexidades da psicologia humana e da responsabilização tornam as discussões de alto nível sobre “pessoas informadas” ainda mais problemáticas.

Um exemplo frequentemente citado pelos pesquisadores são os carros autônomos, onde os humanos devem retomar o controle do veículo quando necessário para alcançar a “participação humana”.

Mas se um carro que dirige sozinho comete um erro ou faz com que um ser humano tome uma decisão errada, é justo culpar o motorista?

Para ser mais específico, se um carro que dirige sozinho entrega o controle a um ser humano nos primeiros segundos de um acidente, quem é o responsável?

Scharre, do think tank Center for American Safety, apontou uma coisa interessante: às vezes colocamos humanos na cabine para que possamos encontrar alguém para assumir a responsabilidade quando algo dá errado. Esta é a chamada “zona tampão moral”.

Existem diferentes opiniões sobre como supervisionar

Numa conferência em Viena, no final de Abril deste ano, organizações internacionais e diplomatas de 143 países reuniram-se para discutir questões regulamentares para a utilização de inteligência artificial e armas autónomas na guerra.

Durante muitos anos, o Conselho de Segurança da ONU não conseguiu chegar a nenhum tratado abrangente sobre esta questão.

Comparado com uma proibição total de armas autónomas, o apelo do ministro dos Negócios Estrangeiros austríaco, Alexander Schallenberg, é muito mais brando - "Pelo menos deveríamos tomar a decisão mais importante e de maior alcance - quem vive e quem morre ainda está nas mãos de humanos, não de máquinas. " .


A Cruz Vermelha Internacional e a Stop Killer Robots têm apelado à proibição de certos tipos de sistemas de armas autónomos há mais de dez anos.

Catherine Connolly, gerente da Stop Killer Robots, disse: “Estamos vendo muito dinheiro sendo investido em tecnologias como armas autônomas e sistemas de mira de IA, o que é muito preocupante”.

Hoje, a situação é cada vez mais urgente.

Os defensores do controlo de armas também reconhecem que o tempo está a esgotar-se para lutar pela regulamentação.

Mary Wareham, vice-diretora do departamento de crise, conflito e armamento da organização, disse: "Certa vez, pedimos uma proibição preventiva de sistemas de armas totalmente autônomos, e agora não usamos mais a palavra 'preventivo' porque estamos muito longe de sistemas de armas autônomos. armas. Muito perto."

O apelo ao reforço da supervisão tem sido contestado pelos Estados Unidos e por outros países, bem como pelos traficantes de armas.

O fundador da Anduril, Luckey, prometeu vagamente manter o “envolvimento humano” na tecnologia da empresa, mas se manifestou contra a regulamentação e a proibição de armas autônomas.

O CEO da Palantir, Alex Karp, mencionou muitas vezes que chegamos a um momento Oppenheimer.


Um drone integrado com IA está limpando minas

Os especialistas afirmam que esta falta de supervisão não é apenas um fenómeno exclusivo das armas autónomas, mas um problema comum enfrentado pelo sistema jurídico internacional.

Mas muitos temem que, uma vez desenvolvidas e integradas nas forças armadas, estas tecnologias persistam e se tornem mais difíceis de regular.

“Depois que uma arma é usada nas forças armadas, é mais difícil abandoná-la porque eles se tornam dependentes dela”, disse Scharre, do think tank Center for American Security. "Isso não é mais apenas um investimento financeiro."

Se as armas autónomas e a IA se desenvolverem como outras tecnologias militares, a sua utilização provavelmente também se estenderá às agências nacionais de aplicação da lei e de patrulha de fronteiras, consolidando ainda mais a tecnologia.

“Muitas vezes, a tecnologia usada na guerra acaba voltando para casa”, disse Connolly.

Referências:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield