ニュース

灯油を入れたら食用油を入れますか? AIなら違いがわかる!学者や専門家は、人工知能のセキュリティには「関係者」が必要だと強調

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

まとめ:人工知能と人間社会は実際には、補助関係、人間とコンピューターの相互作用、人間関係、競争関係などの共生関係を持っています。


報道によると、タンカーは灯油をタンカーに充填し、タンクを洗浄せず、さらに食用油を充填したというこの「大規模な」作戦は、国民の食品安全への懸念に疑問を投げかけた。人工知能を活用した「AI Eye」なら、こうした違反行為をタイムリーに取り締まることができるかもしれない。

「ガソリンスタンドで既存のカメラと新たに追加されたカメラを使用し、クラウドビデオ分析モードを使用して、荷降ろし、給油、荷降ろし、ガス充填、荷降ろし、液体追加のプロセス中の動作を特定し、アラーム、統計、異常動作を分析して、スマートなシステムを確立します。 2日、普陀区の中国イスラエルイノベーションパークで開催された第12回インターネットセキュリティカンファレンス上海AIサミットでは、チャイナテレコムのクラウドリソース上にAIビデオインテリジェント分析プラットフォームを展開し、エネルギー分野で実装することを明らかにした。道路ビデオ ストリームを使用した石油荷降ろしエリアの行動の 300 AI 分析により、タンクローリーの識別、消火器の識別、石油製品の検出、石油パイプラインの検出が可能になります。


中国・イスラエル(上海)イノベーションパーク。

[AI ディープフェイク詐欺が 3000% 急増]

実際、大規模な AI モデルは社会ガバナンスを大量に強化し、人々の生活上の問題を解決し、人々の安心感を向上させています。中国電信人工知能技術有限公司出力事業部副部長の魏文博氏は、「明るいキッチンと明るいストーブ」を確保するためのスマートケータリング監視、高齢者をケアするための街路や村の安全などの例を挙げた。標準化により、ヘルメットを着用せずに電動自転車に乗っても「明確に区別して区別できる」ようになります。

ただし、AI自体にもセキュリティ上の問題が避けられません。 AI の顔の変化から AI の声の変化まで、「2024 年人工知能セキュリティ レポート」は、AI が既存のネットワーク セキュリティの脅威を増幅するだけでなく、新たな脅威をもたらし、ネットワーク セキュリティ インシデントの指数関数的な増加を引き起こしていることを示しています。 2023 年には、AI ベースのディープ フォージェリ詐欺が 3,000% 急増し、AI ベースのフィッシングメールの数が 1,000% 増加すると予想されます。

ロシア自然科学アカデミーの外国人学者であり、CCID研究所の副主任エンジニアでもあるLiu Quan氏は、ChatGPTなどの大規模モデルに関してIT業界のリーダーを対象に実施された調査を引用し、回答者の71%が生成型人工知能が優れていると信じていると述べた。企業のデータセキュリティを向上させることは新たなリスクをもたらします。機密データの漏洩を防ぐために、マイクロソフトやアマゾンなどのテクノロジー企業は、従業員による生成人工知能ツールの使用を制限または禁止しています。


上海AIサミット。

【「百模型の戦い」の安全を守るために「型は型を作る」】

マルチモーダル生成、大規模モデルの出現。これまでのところ、我が国だけで二重登録を通過した大型モデルの数は117に達しています。 「人工知能産業における大型モデルの革新的応用に関する北京白書(2023年)」の統計によると、昨年10月の時点で、我が国には「10億以上」のパラメータを持つ大型モデルのサプライヤーが254社あった。現在、国内では数千億のパラメータを持つ大規模モデルが利用可能であり、人間の脳の神経細胞の数も1,000億個のオーダーに達しています。 IDC は、中国の AI 大型モデル市場は 2026 年までに 211 億米ドルに達すると予測しています。

人工知能が大規模実装の重要な時期に入ると、プライバシー漏洩、アルゴリズムの差別からデータバイアスに至るまで、これらの新たなリスクも、人工知能の高品質な開発に深刻な課題をもたらします。 360 Digital Intelligence Group の最高製品責任者である He Fan 氏は、大型モデルの時代には、セキュリティを確保するために「金型を使用してモデル化する」必要があると述べました。これは、過去 20 年間に蓄積されたセキュリティビッグデータを使用し、追加することを意味します。高レベルのセキュリティ大規模モデルをトレーニングするための専門知識。

中国電信上海支社情報ネットワーク部副部長の陳暁航氏も解放日報上関ニュースの記者に対し、「数百モデルの戦い」では大型モデルは本質的に「白紙」であり、継続的な「教育」が必要であると語った。したがって、大規模なモデルが「誤った方向に向けられる」のを防ぐために、情報源で世論の方向性を制御し、その過程でジャンク情報をフィルタリングする必要があります。


ISC インターネット セキュリティ カンファレンス。

[人間と機械の競争関係には「関係者」が必要です]

周知のとおり、AI モデルの「ブラック ボックス」の性質により、意思決定プロセスの説明が困難になります。これは、金融や医療などの高リスク分野では特に重要です。規制当局も業界顧客も同様に、信用スコアリング モデルの透明性と公平性を確保するために、モデル決定の根拠を理解する必要があります。同時に、AI モデル自体にセキュリティ上の脆弱性がある可能性があります。たとえば、ハッカーは敵対的なサンプルを通じて攻撃する可能性があり、これによりモデルが一見正常な入力の下で誤った出力を生成し、セキュリティ リスクが引き起こされる可能性があります。

学者の Liu Quan 氏の目には、AI の明らかな「諸刃の剣」の特性が人類に多くの恩恵と大きな課題をもたらしているが、人工知能と人間社会は実際には補助的な関係、人間とコンピューターの相互作用などを含む共生関係にある。人間関係と競争関係。確かに、弱い人工知能から強い人工知能への急速な発展により、有人仕事の90%は「無人仕事」として人工知能に置き換えられる可能性があります。そして、横にならない10%の勤務者は、膨大なデータと強力な人工知能の運用能力を持っていなければなりません。

映画『流浪の地球2』では、ロボットMOSSは「Human In Loop」の概念を表現し、「人類を滅ぼす」という思想も持っていました。これは、人間主導の人工知能の反復のみが人間と機械の閉ループ システムを形成できることをさらに示しています。 AI による安全性の保証を含め、機械はいつでも人間の介入なしでは機能しません。劉泉氏は、本質的に人工知能は人間の考え方を置き換えることはできず、人間を完全に置き換えることもできないと述べた。そうしないと、AI開発の本来の意味が失われてしまう可能性があります。