ニュース

米国が「マンハッタン プロジェクト 2.0」を開始、AI はオッペンハイマーの瞬間を迎えるでしょうか? 60億機がドローンに投げ込まれ、そのうち800機がすでにドローンに投げ込まれている

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


新しい知恵のレポート

編集者: アエネアスはとても眠いです

【新しい知恵の紹介】マンハッタンプロジェクト2.0は来るのか?現在、米軍は 800 以上の AI プロジェクトを推進しており、24 年間だけで AI に 18 億ドルの資金を申請しています。米国は今後5年間で無人協働戦闘機の研究開発にも60億ドルを割り当てる。現在、AI はオッペンハイマーの瞬間を迎えているようです。

人工知能はオッペンハイマーの瞬間を迎えています。

現在、AI兵器は軍事利用が相次ぎ、関連産業が活況を呈している。

AI における数十億ドル規模の軍拡競争は、シリコンバレーの巨大企業や世界中の国々を魅了しています。

世界中で激化する紛争は、AI戦争の促進剤であると同時に実験場でもあります。各国の軍はAIに大きな関心を持っているが、現状ではこの分野の監督が不足している。


米軍はすでに 800 以上の AI プロジェクトを推進しており、2024 年だけでも AI 予算に 18 億ドル相当の資金を申請しています。

AI が世界中の軍隊や政府に根付くと、社会、テクノロジー、そして戦争が根本的に変化する可能性があります。

ドローン広告が実現

近距離市街戦で兵士のグループがロケット弾の攻撃にさらされている。

そのうちの1人が無線で電話をかけると、すぐに爆発物を搭載した小型自律ドローンの艦隊が飛来した。

これらの自爆ドローンは建物に飛び込み、敵を見つけるとスキャンを開始し、命令に従って爆発します。

上の画像は、AIドローンがどのようにして「致死性と戦闘リズムを最大化する」ことができるかを宣伝する兵器会社エルビットによる広告からのものである。


現在、Elbit が開発したテクノロジーはますます現実世界に浸透しています。

「時間が経つにつれて、人間が機械に判断を委ねるようになるかもしれない」とシンクタンク、新アメリカ安全保障センターのエグゼクティブ・バイス・プレジデント兼研究ディレクターのポール・シャール氏は語る。

「15年か20年後に振り返ってみると、私たちは非常に重要な閾値を越えたことに気づくでしょう。」


2023 年、AI 統合ドローンが爆発物を検知

米国は「レプリケーター計画」に10億ドルを費やす

AI 開発への投資が急増したのはここ数年ですが、戦争における自律型兵器システムの開発は数十年前に遡ることができます。

もちろん、これらの展開が公の議論に現れることはめったにありませんが、少数の学者や軍事戦略家によって研究の対象となっています。

しかし今、AIに対する世間の注目が高まっています。兵器が本当に「自律型」であるかどうかも、激しく議論されているテーマとなっている。

専門家や研究者によると、私たちは「自律性」を単純な二元概念ではなく、スペクトルとして理解できるそうです。

しかし、彼らは概して、機械が人間の入力なしでこれまで以上に多くの決定を下せるようになったという点で同意している。


そして、AIが戦争をより賢く、より安く、より迅速に行えると約束して、企業や政府機関に資金が注ぎ込まれている。

国防総省は2025年までに「レプリケーター計画」に10億ドルを投じる計画だ。このプログラムの目標は、多数の無人戦闘ドローンを開発し、AIを使用して脅威を探索することです。

米空軍は今後5年間で約60億ドルを無人協調戦闘機の研究開発に割り当て、自律飛行可能なAI戦闘機1000機を構築する計画だ。

近年、米国国防総省も、自動目標認識や監視などの技術に焦点を当てたプロジェクト・メイブンと呼ばれる秘密人工知能プログラムに資金を提供するために数億ドルを調達した。


英国兵士が訓練中に AI を使用

テクノロジー企業が巨額の契約を締結

同時に、軍事における AI と自律性への需要の高まりにより、テクノロジー企業や武器商人が巨額の受注を獲得することができました。

自律攻撃用無人機、無人戦闘機、水中車両を開発する企業アンドゥリルは、予想評価額125億ドルのベンチャーキャピタルを新たに調達している。


アンドゥリルの創設者パーマー・ラッキー氏は31歳の億万長者で、今年、無人戦闘機プログラムを構築する契約を国防総省と結んだ。

シリコンバレーの億万長者ピーター・ティールも、テクノロジーと監視の会社パランティアを設立した。同社はすでに、米陸軍の「初の人工知能定義車両」などの AI プロジェクトに参加している。


5月、国防総省は敵目標の識別に役立つAI技術に関してパランティアと4億8000万ドルの契約を結んだと発表した。

現在、Palantir のテクノロジーはいくつかの軍事作戦で使用されています。


Palantir、米陸軍の「初のAI定義車両」に関与

アンドゥリルとパランティアは、それぞれ「ロード・オブ・ザ・リング」の聖剣と賢者の石にちなんで名づけられたが、国際的なAI戦争のゴールドラッシュのほんの一部にすぎない。


Helsing は AI 防御ソフトウェアのために 5 億ドル近くの資金を調達しており、今月の評価​​額は 54 億ドルと評価されました。

一方、エルビット・システムズは3月の財務書類で、2023年に7億6000万ドルの弾薬契約を結んだことを明らかにした。そして、昨年の収益は60億ドルに達しました。


Helsing が AI 防御ソフトウェアのために 5 億ドル近くを調達、今月の価値は 54 億ドルに相当

大手テクノロジー企業も、過去数年に比べて防衛産業とそのAIの利用をより受け入れやすくなっている。

2018年、グーグルの従業員は軍のプロジェクト・メイブンへの同社の関与が倫理的・道徳的責任に違反していると主張して抗議した。当時、圧力を受けて、Google はプロジェクトとの協力を打ち切りました。

しかしその後、GoogleはクラウドコンピューティングサービスとAI機能を提供することで、ある国の政府と12億ドル相当の合意に達した。

今年、一部の従業員が軍事契約に抗議したため、グーグルは数十人の従業員を解雇した。ピチャイCEOは従業員に「これはビジネスだ」と率直に語った。


アマゾンでも同様の従業員の抗議活動が2022年に起きたが、やはり同社は方針を変更しなかった。

ダブルブラックボックス

研究者らは、防衛技術分野に巨額の資金が流入する中、多くの企業や技術が最低限の透明性と説明責任を持って運営されていると警告している。

製品が予期せず失敗すると、その結果は致命的になる可能性がありますが、これらの武器商人は通常、これに対して責任を負いません。

さらに、米国の国家安全保障機構の秘密主義の偏りは、企業や政府がこれらのシステムがどのように機能するかの詳細を開示する義務がないことも意味します。

政府が秘密の独自の AI テクノロジーを取得し、それを国家安全保障という隠れた世界に配置すると、バージニア大学の法学教授アシュリー ディークス氏が「二重のブラック ボックス」と呼ぶものが作成されます。

この場合、これらのシステムが正しく運用されているか、倫理的に運用されているかを一般の人々が知ることは困難です。そして、一般的に言って、それは間違いの余地をたくさん残します。

シンクタンク、アメリカ安全保障センターのシャール氏は、「ビジネスの世界ではAIに関する誇大広告がたくさん見られるが、『AI』という言葉はいたるところで誤用されている」と述べ、「深く掘り下げてみると、それが分かるだろう」と語った。宣伝されているほど複雑ではないかもしれません。」


ドイツ・ベルリンのブランデンブルク門前で活動家らが抗議活動、「殺人ロボットを止めろ」と要求

サーキットの人々

企業や国家軍は自社のシステムの具体的な運用の詳細を公開することに消極的ですが、AI システムの倫理的責任と規制については多くの議論を行っています。

たとえば、外交官や武器商人は一般に、意思決定プロセスには機械によって完全に制御されるのではなく、常に「人間の参加」があるべきだと信じています。

ただし、人間による監視をどのように実装するかについてはほとんど合意がありません。

リッチモンド大学の法学教授で自律戦争の専門家であり、DARPAの最初の客員研究員でもあるレベッカ・クロトフ氏は、「この概念については誰もが同意できるが、同時にそれが実際に何を意味するかについては誰もが異なる考えを持っている」と述べた。

「実際に技術的な設計上の決定を導くという点では、この概念はそれほど役に立ちません。」


英国レスターのエルビット・システムズの工場前に集まる抗議者たち

さらに、人間の心理と説明責任の複雑さにより、「関係者」に関するハイレベルな議論がさらに面倒になります。

研究者がよく挙げる例の1つは自動運転車で、「人間の参加」を実現するために必要に応じて人間が車の制御を取り戻さなければなりません。

しかし、自動運転車がミスをしたり、人間に誤った判断をさせた場合、ドライバーを責めるのは公平なのだろうか。

もっと具体的に言うと、自動運転車が衝突事故の最初の数秒で人間に制御を引き継いだ場合、誰が責任を負うのでしょうか?

シンクタンク、アメリカ安全センターのシャール氏は、興味深いことを指摘しました。私たちは、何か問題が起こったときに責任を負う人を見つけるために、コックピットに人間を乗せることがあります。これは、いわゆる「道徳的緩衝地帯」です。

監督の仕方についてはさまざまな意見がある

今年4月末にウィーンで開かれた会議には、143カ国の国際機関と外交官が集まり、戦争における人工知能と自律型兵器の使用に関する規制問題について議論した。

長年にわたり、国連安全保障理事会はこの問題に関する包括的な条約に達することができませんでした。

自律型兵器の全面禁止と比較すると、オーストリアのアレクサンダー・シャレンベルク外務大臣の呼びかけははるかに穏やかなものである――「少なくとも我々は、誰が生きるか、誰が死ぬかは依然として機械ではなく人間の手中にあるという、最も広範で重要な決定を下すべきだ。」 「。」


国際赤十字社とストップ・キラー・ロボットは、10年以上にわたって特定の種類の自律型兵器システムの禁止を求めてきた。

ストップ・キラー・ロボットのマネージャー、キャサリン・コノリー氏は、「自律型兵器やAI標的システムなどの技術に多額の資金が投資されており、非常に懸念している」と述べた。

今日、状況はますます緊迫しています。

軍備管理擁護派も、規制を求める闘いには時間がなくなってきていることを認めている。

同組織の危機・紛争・軍備部門の副局長、メアリー・ウェアハム氏は、「私たちはかつて完全自律型兵器システムの予防的禁止を求めたが、自律型兵器システムからは程遠いため、現在は『予防的』という言葉をもう使わない」と述べた。武器がとても近い。」

監督強化の呼びかけには、米国やその他の国、さらには武器商人も反対している。

アンドゥリルの創設者ラッキー氏は、同社の技術への「人間の関与」を維持すると漠然と約束しているが、自律型兵器の規制や禁止には反対の声を上げている。

パランティアの CEO、アレックス・カープは、私たちがオッペンハイマーの瞬間に達したと何度も述べました。


AIを搭載したドローンが地雷を除去している

専門家らは、こうした監督の欠如は自律型兵器に特有の現象ではなく、国際法制度が直面する共通の問題だと指摘する。

しかし多くの人は、これらの技術が開発され、軍事に統合されると、それらは存続し、規制がより困難になるのではないかと懸念しています。

シンクタンク、アメリカ安全保障センターのシャール氏は、「一度武器が軍で使用されると、武器に依存するようになるため、それを手放すのは難しくなる」と述べた。 「これはもはや単なる金融投資ではありません。」

自律型兵器やAIが他の軍事技術と同様に発展すれば、その使用は国内の法執行機関や国境警備機関にも波及し、技術がさらに定着する可能性が高い。

「多くの場合、戦争で使用されたテクノロジーは自国に戻ってしまいます」とコノリー氏は言う。

参考文献:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield