ニュース

北京象山フォーラム | 新興テクノロジーをどうやって優れたものにするか?安全基準を共同開発するために国際協力を強化すべきである

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

ロシアとウクライナの紛争の戦場では、ウクライナの自爆ドローンがロシア軍陣地の上空をホバリングしており、ドローンのカメラが塹壕に向けられ、継続的にスキャンされ、人間の活動が検知されると、人工知能が即座にそれを特定し、急降下した。自殺攻撃をすること。
カメラはロシアとウクライナの戦場にあるウクライナ軍陣地の上空に向けられ、ロシアの無人偵察機が戦車と装甲車両を発見した後、すぐにこの情報を管制官に伝えた。 「ランセット」巡航ミサイル。「ランセット」巡航ミサイルは、目標を発見した位置付近まで飛行し、戦車や装甲車両を迅速に識別し、ロックすることができる。たとえ干渉を受けても最終的には自律攻撃も可能。
上記はロシア軍とウクライナ軍が公開した無人機と巡航ミサイルの戦闘映像で、ロシア・ウクライナ紛争における人工知能(ai)技術の目を引くパフォーマンスは大きな注目を集めており、その応用も大きく促進されるだろう。軍事分野の技術。人工知能などの新興テクノロジーの急速な発展に伴い、今回の北京香山フォーラムでは、これらのテクノロジーの安全な適用をどのように確保するかが各国の焦点となっています。
9月12日、人工知能のセキュリティについて議論するフォーラムでハイエンドのインタビューのための特別セッションが設置された。 9月13日、フォーラムの第6回グループ会議「善のための新興技術」では、人工知能や合成生物学などの新興技術を善のためにどのように利用できるかについての交換と議論が行われた。
人工知能技術が戦場に参入
2021年、キッシンジャー元米国国務長官は著書『人工知能の時代と人類の未来』を出版し、人工知能の発展と影響についての見解を説明した。この本は、人工知能が世界の安全保障と世界秩序を再構築すると提案し、人工知能の台頭についてのアイデアと警告を提供しています。キッシンジャーは、人工知能兵器には核兵器にはない3つの特徴があると考えている。人工知能兵器は大企業や民間部門に集中していること、その技術はより容易に模倣され、したがって非政府組織にも容易に習得される可能性があることである。それをマスターしてください。
この本が出版されてから 2 年後、ロシアとウクライナの紛争が勃発しました。紛争が進むにつれて、ドローン、無人戦闘車両、無人ボート、巡航ミサイルなど、人工知能技術を搭載した兵器が戦場に投入されました。人工知能技術は、衛星画像認識、意思決定支援、ネットワークおよび電子的対策などにも関与しています。
国防大学の孟香青教授は、ザ・ペーパー(www.thepaper.cn)とのインタビューで、第一次世界大戦は機械化戦争の始まりであると考えられており、湾岸戦争は情報化の始まりであると考えられていると指摘した。インテリジェント戦争の幕が開いた 現在の人工知能技術は、兵器や作戦にわずかな力を与えるだけで、戦争に大きな影響を与えていませんが、すでにこの傾向の先駆けとなっています。
現在、ロシアとウクライナの紛争において、人工知能を搭載した兵器がますます戦場に登場している。今年3月、イギリス国防省は、ウクライナを支援するドローンの数を4,000機から10,000機に増やすと発表し、そのうち数千機は戦場での作戦を支援するための人工知能技術を搭載したドローンである。これらのドローンは高度なセンサーと兵器システムを搭載し、高度な自律性と知能を備え、複雑な環境で偵察、攻撃、防御などのさまざまな任務を実行できます。
2023年1月、「アルゴリズムはロシア・ウクライナ戦争の均衡をいかに破ったのか?」というタイトルの記事が掲載された。 」報告書は、米国のハイテク企業が米国防総省や諜報機関と協力してロシア・ウクライナ紛争に深く関与している内幕を明らかにした。報告書は、米国のハイテク企業が提供する人工知能ソフトウェアが衛星画像を解釈し、貴重な目標を発見するために広く使用されていると述べた。
報道によると、ウクライナ軍は米国の民間ソフトウェア会社パランティアの「メタコンステレーション」情報システムも広範囲に利用しているという。このシステムを通じて、さまざまな高度なテクノロジー アプリケーションが統合され、ウクライナとその同盟国が特定の戦闘地域で現在利用可能なデータを確認できる「キル チェーン」が形成されます。衛星画像のターゲット認識は重要かつ複雑な問題に直面しており、ディープラーニングに基づく人工知能の能力が衛星画像の判読に大きな役割を果たし、衛星画像のターゲット認識計画に新しいソリューションを提供します。
ロシアはロシア・ウクライナ紛争の戦場でも人工知能を搭載した兵器を使用しており、例えば巡航ミサイル「ランセット3」はミサイル搭載の人工知能を標的の捜索と識別に使用しており、独自に発見して攻撃することができる。あらかじめ決められた目標。 mt-1無人地雷除去車や「マーク」無人戦闘車など、ロシアの無人戦闘車も戦場に登場している。
将来の戦争に適応するため、ロシア国防省は2022年に人工知能兵器研究部門を設立し、人工知能技術の利用を強化し、新しい特殊装備を開発した。
もう一つの注目を集めている紛争であるパレスチナ・イスラエル紛争でも、人工知能技術を搭載した多くの兵器が戦場で使用されている。報道によると、イスラエルがガザを攻撃した際、ハマスの武装勢力を特定するために「ラベンダー」と呼ばれる人工知能システムが使用され、以前はイスラエルの諜報機関は10日以内に標的を特定することができたという。 10 日間の作業で 10 個のターゲットを見つけて承認しましたが、現在では 10 日間の作業で約 100 個のターゲットを見つけて承認できるようになりました。
さらに、人工知能は画像やビデオを変更して生成します。これらは戦時中の情報戦や世論戦にも使用されます。米国のウェブサイト「ワイアード」に掲載された「生成人工知能がイスラエルとハマスの偽情報戦争で驚くべき役割を果たしている」と題した記事では、パレスチナ・イスラエル紛争の勃発が前例のない「偽情報」の潮流、つまり「アルゴリズム主導型」を引き起こしたと述べた。戦争の霧」でソーシャルメディアが問題に陥っています。
安全基準の共同開発が前進への道です
現在、人工知能や合成生物学などの新興テクノロジーの急速な発展は、莫大な応用価値を生み出していますが、同時に予測不可能なリスクや課題ももたらしており、新興テクノロジーの安全な適用をどのように確保するかが課題となっています。すべての国にとって懸念事項となります。
今年の北京香山フォーラムでの「人工知能のセキュリティ」に関する高級インタビューで、国防分析研究所の研究者で元米国国防次官補のチャンドラー博士は、人工知能によって制御されるドローンは、ロシアとウクライナの戦場やガザ地区でも使用されており、他国の軍隊も人工知能関連の応用を検討しているが、今では人工知能の安全保障とガバナンスについても議論されている。関与してきました。
人工知能の安全性とリスクに関しては、人工知能が自律的に判断できるのか、信頼できるのか、人工知能がもたらすリスクをどのように管理するかなどが大きな注目を集めています。
人工知能アルゴリズムの「ブラックボックス」の不透明さはセキュリティリスクをもたらし、社会的信頼の問題をますます複雑にしています。この点に関して、東京大学生産技術研究所の特別教授であり、日本工学院外国人学会員でもある胡安氏は、人工知能の「ブラックボックス」が信頼できるかどうかは究極の問題だと述べた。同氏の見解では、人間の脳はかけがえのないものであり、「少なくとも短期間のうちに、意思決定において人工知能が人間の脳に取って代わることは困難になるだろう」という。
社会開発のための人工知能とデータサイエンスのユネスコ議長であり、オランダのハーグ応用科学大学のデータサイエンス教授であるランプロス・ステギウラス氏は、「機械はもちろんのこと、人間の技術者も皆ミスをするものなのでしょうか?」と指摘しました。人間の脳に代わって自律的な意思決定ができ​​るかどうかは、現実的な問題であると同時に哲学的な問題でもあります。」
reference news networkは今年7月、米国のfun scienceウェブサイトが6月に「人工知能が犯した悲惨な間違い」という記事を掲載し、人工知能の「壊滅的な」例を列挙し、人工知能のリスクを無視できないことを思い出させたと報じた。
bbcの調査により、ソーシャルプラットフォームがaiを利用して戦争犯罪の可能性のある動画、つまり将来的に被害者の正当な救済手段を拒否する可能性のある行為の動画を削除していることが判明したと報じられている。ソーシャル プラットフォームは、戦争や社会不安において重要な役割を果たしており、多くの場合、危険にさらされている人々のためのコミュニケーション手段として機能します。調査の結果、公共の関心のある生々しいコンテンツはサイト上に残る可能性がある一方、ウクライナでの攻撃に関する動画はすぐに削除されたことが判明した。
こうした「壊滅的な」例は人々の日常生活にも現れており、google 画像検索は自社の ai ソフトウェアでゴリラを検索した際に黒人の画像が表示されたため、この機能を中止せざるを得なくなった。 appleを含む他の企業も同様の申し立てで訴訟に直面している。
shi chande 氏は、人工知能のセキュリティ問題は国防や人々の生活を含むあらゆる側面に関わると考えています。したがって、人工知能のセキュリティリスクを軽減するために各国が多国間協定を結ぶことを提案した。
清華大学情報科学技術学部長で中国工程院の院士でもある戴瓊海氏によると、人工知能の開発は今後3年間で急速に進むだろうという。人工知能の発展は予測不可能であるため、人類に利益をもたらすためには、関連する倫理とガバナンスを最前線に置く必要があり、人工知能アプリケーションの安全性リスクを軽減する必要があります。
専門家によると、人工知能の分野での国際協力を強化することが特に重要で、特に主要国間の協力により安全基準を共同策定することで、人工知能が人類にさらに恩恵をもたらすことができるとのことです。
今年5月14日、スイスのジュネーブで人工知能に関する中米政府間対話の第1回会合が開催された。両者は、人工知能技術のリスクに関するそれぞれの見解とガバナンス措置、および経済的および社会的発展を促進するために人工知能を促進するために取られた措置について紹介しました。双方は、人工知能技術の開発が機会とリスクの両方に直面していることを認識し、サンフランシスコで両首脳が達成した重要な合意を履行する継続的な取り組みを繰り返した。
シー・チャンデ氏の見解では、中国と米国はコミュニケーションの継続を確保する必要がある。 「新技術の分野では、両国は徐々にある程度の同等性やバランスに達しつつあり、それが双方の間でより率直で踏み込んだ対話につながる可能性がある。我々は両国がコミュニケーションを維持するために引き続き努力することを確保しなければならない」 」とシザンデは言った。
ザ・ペーパー記者謝瑞強
(この記事はthe paperからのものです。よりオリジナルの情報については、「the paper」アプリをダウンロードしてください)
レポート/フィードバック