소식

미국이 "맨해튼 프로젝트 2.0"을 시작합니다. AI가 오펜하이머 순간에 들어갈까요? 60억 개가 드론에 던져졌고, 그중 800개는 이미 발생했습니다.

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


새로운 지혜 보고서

편집자: Aeneas 너무 졸려

[새로운 지혜 소개] 맨해튼 프로젝트 2.0이 나오나요? 현재 미군은 800개 이상의 AI 프로젝트를 진행하고 있으며 지난 24년 동안에만 AI 자금 18억 달러를 신청했다. 또한 향후 5년 동안 미국은 무인 협력 전투기의 연구 개발에 60억 달러를 할당할 예정입니다. 이제 AI는 오펜하이머 시대에 진입한 것 같습니다.

인공 지능이 오펜하이머 시대에 들어섰습니다.

이제 AI 무기는 군사적 목적으로 지속적으로 활용되고 있으며, 관련 산업도 호황을 누리고 있다.

수십억 달러 규모의 AI 군비 경쟁은 실리콘 밸리의 거대 기업과 전 세계 국가를 끌어 모았습니다.

전 세계적으로 증가하는 갈등은 AI 전쟁의 가속기이자 시험장입니다. 다양한 국가의 군대가 AI에 큰 관심을 갖고 있으며 현재 이 분야에 대한 감독이 부족합니다.


미군은 이미 800개 이상의 활성 AI 프로젝트를 보유하고 있으며 2024년에만 AI 예산에 18억 달러 상당의 자금을 지원했습니다.

전 세계 군대와 정부에 뿌리내린 AI는 사회를 근본적으로 바꾸고, 기술을 바꾸고, 전쟁을 변화시킬 가능성이 높습니다.

드론 광고가 현실로 다가온다

한 무리의 군인들이 근거리 시가전 중에 로켓 공격을 받고 있습니다.

그들 중 한 명이 무선으로 전화를 걸었고, 곧 폭발물을 장착한 소형 자율 드론 함대가 날아왔습니다.

이 자살 드론은 건물 안으로 날아가 적을 검색하기 시작하고 일단 목표물을 찾으면 명령에 따라 폭발합니다.

위 이미지는 AI 드론이 "치명성과 전투 리듬을 극대화"할 수 있는 방법을 홍보하기 위해 무기 회사인 Elbit이 광고한 것입니다.


이제 엘빗이 개발한 기술은 점차 현실 세계로 진출하고 있습니다.

신미국안보센터(Centre for a New American Security) 싱크탱크의 수석 부사장이자 연구 이사인 폴 샤레(Paul Scharre)는 “시간이 지나면 인간이 기계에 더 많은 판단을 내리는 것을 보게 될 것”이라고 말했습니다.

"15년, 20년 후에 되돌아보면 우리는 매우 중요한 문턱을 넘었다는 것을 깨닫게 될 것입니다."


2023년에는 AI 탑재 드론이 폭발물 탐지한다

미국은 "복제기 프로젝트"에 10억 달러를 지출합니다.

AI 개발은 최근 몇 년 동안 투자가 급증했지만 전쟁에서 자율 무기 시스템의 개발은 수십 년 전으로 거슬러 올라갑니다.

물론 이러한 발전은 공개 토론에서 거의 나타나지 않지만 소수의 학자와 군사 전략가의 연구 주제입니다.

하지만 이제 AI에 대한 대중의 관심이 높아지고 있습니다. 무기가 정말로 "자율적"인지 여부도 뜨거운 논쟁거리가 되었습니다.

전문가와 연구자에 따르면, 우리는 '자율성'을 단순한 이진 개념이 아닌 스펙트럼으로 이해할 수 있습니다.

그러나 그들은 일반적으로 기계가 이전보다 인간의 입력 없이도 더 많은 결정을 내릴 수 있다는 데 동의합니다.


그리고 AI가 전쟁을 더 스마트하고 저렴하며 빠르게 만들 수 있다고 약속하면서 기업과 정부 기관에 돈이 쏟아지고 있습니다.

미 국방부는 2025년까지 '복제 프로그램'에 10억 달러를 지출할 계획이다. 이 프로그램의 목표는 무인 전투 드론을 대거 개발하고 AI를 활용해 위협을 사냥하는 것이다.

미 공군은 향후 5년 동안 자율적으로 비행할 수 있는 AI 전투기 1,000대를 구축하기 위해 무인 협력 전투기의 연구 개발에 약 60억 달러를 할당할 계획입니다.

최근 몇 년 동안 미국 국방부는 자동 표적 인식 및 감시와 같은 기술에 초점을 맞춘 Project Maven이라는 비밀 인공 지능 프로그램에 자금을 지원하기 위해 수억 달러를 모금했습니다.


영국군, 훈련 중 AI 사용

기술 회사는 대규모 계약을 체결합니다.

동시에 군대에서 AI와 자율성에 대한 수요가 증가하면서 기술 회사와 무기 판매상이 대규모 주문을 획득하는 데 도움이 되었습니다.

자율 공격 드론, 무인 전투 항공기 및 수중 차량을 개발하는 회사인 Anduril은 예상 가치가 125억 달러로 새로운 벤처 캐피탈을 모집하고 있습니다.


Anduril의 설립자인 Palmer Luckey는 31세의 억만장자이며 올해 무인 전투기 프로그램을 구축하기 위해 국방부와 계약을 체결했습니다.

실리콘밸리의 억만장자 피터 틸(Peter Thiel)도 기술 및 감시 회사인 Palantir를 설립했습니다. 이미 미 육군의 '최초의 인공지능 정의 차량' 등 AI 프로젝트에 참여한 바 있다.


지난 5월, 미 국방부는 적 표적을 식별하는 데 도움이 되는 AI 기술에 대해 Palantir에게 4억 8천만 달러 규모의 계약을 체결했다고 발표했습니다.

현재 Palantir의 기술은 여러 군사 작전에 사용되었습니다.


Palantir, 미 육군의 '최초의 AI 정의 차량'에 참여

각각 '반지의 제왕'에 등장하는 성검과 철학자의 돌에서 이름을 딴 안두릴과 팔란티르는 국제 AI 전쟁 골드러시의 극히 일부일 뿐입니다.


Helsing은 AI 방어 소프트웨어에 대한 자금을 거의 5억 달러 모금했으며 이번 달 가치는 54억 달러로 평가되었습니다.

한편 Elbit Systems는 지난 3월 재무 서류에서 2023년에 7억 6천만 달러 규모의 탄약 계약을 체결했다고 공개했습니다. 그리고 지난해 매출은 60억 달러에 달했다.


Helsing은 이번 달에 54억 달러 가치의 AI 방어 소프트웨어를 위해 약 5억 달러를 모금했습니다.

또한, 거대 기술 기업들은 지난 몇 년간보다 방위 산업과 AI 활용에 대해 더 잘 수용하고 있습니다.

2018년 구글 직원들은 회사의 군 프로젝트 메이븐(Project Maven) 참여에 대해 항의하며 윤리적, 도덕적 책임을 위반했다고 주장했습니다. 당시 Google은 압력을 받아 프로젝트와의 협력을 중단했습니다.

하지만 이후 구글은 클라우드 컴퓨팅 서비스와 AI 기능을 제공하기 위해 특정 국가 정부와 12억 달러 규모의 계약을 체결했습니다.

올해 구글은 일부 직원이 군사 계약에 항의하자 수십 명의 직원을 해고했습니다. 피차이 CEO는 직원들에게 "이것은 사업이다"라고 직설적으로 말했다.


2022년 아마존에서도 비슷한 직원 항의가 일어났고, 회사는 정책을 바꾸지 않았습니다.

이중 블랙박스

연구원들은 막대한 자금이 국방 기술 분야로 유입됨에 따라 많은 기업과 기술이 최소한의 투명성과 책임하에 운영되고 있다고 경고합니다.

제품이 예기치 않게 고장나면 그 결과는 치명적일 수 있지만 일반적으로 이러한 무기 판매상은 이에 대해 책임을 지지 않습니다.

더욱이, 미국 국가 안보 기관의 비밀 편향은 기업과 정부가 이러한 시스템의 작동 방식에 대한 세부 사항을 공개할 의무가 없음을 의미합니다.

정부가 비밀 독점 AI 기술을 국가 안보의 숨겨진 세계에 배치하면 버지니아 대학 법학 교수 Ashley Deeks가 말하는 "이중 블랙 박스"가 생성됩니다.

이 경우 대중은 이러한 시스템이 올바르게 운영되고 있는지, 윤리적으로 운영되고 있는지 알기 어렵습니다. 그리고 일반적으로 말하면 오류의 여지가 많이 남습니다.

미국 안보 센터 싱크탱크의 샤르(Scharre)는 "비즈니스 세계에서 AI에 대한 과대광고를 많이 봐왔고 'AI'라는 단어가 어디에서나 오용되고 있다"고 말했습니다. 광고만큼 복잡하지 않을 수도 있습니다."


독일 베를린 브란덴부르크 문 앞에서 활동가들이 '킬러 로봇을 멈춰라'를 요구하며 시위를 벌이고 있다.

회로에 있는 사람들

기업과 국가 군대는 시스템의 구체적인 운영 세부 사항을 공개하는 것을 꺼려하지만 AI 시스템의 윤리적 책임과 규제에 대해서는 많은 논쟁을 벌이고 있습니다.

예를 들어, 외교관과 무기 거래자들은 일반적으로 의사 결정 과정에 기계에 의해 완전히 통제되기보다는 항상 "인간 참여"가 있어야 한다고 믿습니다.

그러나 인간 감독을 구현하는 방법에 대해서는 합의가 거의 없습니다.

리치몬드 대학의 법학 교수이자 자율전 전문가이자 DARPA의 첫 번째 방문 학자인 레베카 크로토프(Rebecca Crootof)는 "모든 사람이 개념에 동의할 수 있지만 동시에 그것이 실제로 의미하는 바에 대해서는 서로 다른 생각을 가지고 있습니다"라고 말했습니다.

"실제로 기술 설계 결정을 안내하는 측면에서 이 개념은 그다지 유용하지 않습니다."


영국 레스터의 엘빗 시스템즈 공장 밖에 모인 시위대

게다가, 인간 심리학과 책임의 복잡성으로 인해 "루프에 있는 사람들"에 대한 높은 수준의 논의가 더욱 까다로워집니다.

연구자들이 자주 인용하는 한 가지 예는 자율 주행 자동차입니다. 자율 주행 자동차에서는 "인간 참여"를 달성하기 위해 필요할 때 인간이 차량 제어권을 되찾아야 합니다.

하지만 자율주행차가 실수를 하거나, 인간이 잘못된 결정을 내리게 한다면, 운전자를 비난하는 것이 정당할까요?

좀 더 구체적으로 말하면, 자율주행차가 사고 발생 후 몇 초 만에 인간에게 통제권을 넘겨준다면, 누구의 책임일까요?

미국 안전 싱크탱크의 샤레(Scharre)는 흥미로운 점을 지적했습니다. 우리는 때때로 무언가 잘못되었을 때 책임을 질 사람을 찾을 수 있도록 인간을 조종석에 배치합니다. 이것이 소위 "도덕적 완충 지대"입니다.

감독하는 방법에 대해서는 의견이 다양하다.

올해 4월 말 비엔나에서 열린 회의에서는 143개국 국제기구와 외교관들이 한자리에 모여 전쟁에서 인공지능과 자율무기 사용에 대한 규제 문제를 논의했다.

수년 동안 유엔 안전보장이사회는 이 문제에 관한 어떠한 포괄적인 조약도 체결하지 못했습니다.

자율무기 전면 금지에 비해 알렉산더 샬렌베르크 오스트리아 외무장관은 "적어도 우리는 가장 광범위하고 중요한 결정을 내려야 한다. 누가 살고 누가 죽느냐는 여전히 기계가 아닌 인간의 손에 달려 있다"고 말했다. " .


국제 적십자(International Red Cross)와 킬러 로봇 중지(Stop Killer Robots)는 10년 넘게 특정 유형의 자율 무기 시스템에 대한 금지를 요구해 왔습니다.

Stop Killer Robots의 관리자인 Catherine Connolly는 "자율 무기, AI 타겟팅 시스템과 같은 기술에 많은 돈이 투자되는 것을 보고 있어 매우 걱정스럽습니다."라고 말했습니다.

오늘날 상황은 점점 더 긴급해지고 있습니다.

무기 통제 옹호자들은 또한 규제를 위해 싸울 시간이 얼마 남지 않았다는 점을 인정합니다.

조직의 위기, 갈등 및 군비 부서 부국장인 메리 웨어햄(Mary Wareham)은 "우리는 한때 완전 자율 무기 시스템에 대한 예방적 금지를 요구했지만 이제는 자율적 무기 시스템과는 거리가 멀기 때문에 더 이상 '예방'이라는 단어를 사용하지 않습니다"라고 말했습니다. 무기가 아주 가깝습니다."

감시 강화 요구에는 미국을 비롯한 여러 나라와 무기거래상들이 반대하고 있다.

Anduril 창립자 Luckey는 회사 기술에 "인간의 참여"를 유지하겠다고 막연하게 약속했지만 자율 무기에 대한 규제 및 금지에는 반대한다고 밝혔습니다.

Palantir CEO Alex Karp는 우리가 Oppenheimer의 순간에 도달했다고 여러 번 언급했습니다.


AI가 탑재된 드론이 지뢰를 제거하고 있다

전문가들은 이러한 감독 부족이 자율무기만의 현상이 아니라 국제법이 직면한 공통적인 문제라고 말한다.

그러나 많은 사람들은 이러한 기술이 개발되어 군대에 통합되면 지속되고 규제가 더욱 어려워질 것이라고 우려합니다.

미국 안보 센터 싱크탱크의 샤르(Scharre)는 "일단 군대에서 무기가 사용되면 무기에 의존하게 되므로 포기하기가 더 어렵다"고 말했습니다. "이것은 더 이상 단순한 금융 투자가 아닙니다."

자율무기와 AI가 다른 군사 기술처럼 발전한다면 국내 법 집행 기관과 국경 순찰 기관에도 그 활용이 흘러들어 기술이 더욱 확고해질 가능성이 크다.

코놀리는 “전쟁에 사용된 기술이 결국 본국으로 돌아가는 경우가 많다”고 말했다.

참고자료:

https://www.theguardian.com/technology/article/2024/7월/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield