Shi Qian と Xiao Chao|人工知能安全監視システムの強固な防御線を構築する
2024-08-11
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
写真は Tesla Optimus Prime ロボットを示しています。写真提供:ユアン・ジン記者
中国共産党第20期中央委員会第3回総会は、「ネットワークセキュリティシステムの構築を強化し、人工知能安全監視システムを確立する」と提案した。これは、開発を調整するために党中央委員会によって行われた重要な展開である。とセキュリティを強化し、人工知能の安全性リスクに積極的に対応します。人工知能技術の開発から生じるリスクと、人工知能の応用によってもたらされる実際の影響を予測して効果的に対応し、人工知能技術の応用と開発を効果的に促進するには、深く分析する必要があります。インテリジェントテクノロジーによって引き起こされる社会的リスクの新しい特徴を予測し、社会的リスクを予測し、開発とセキュリティを考慮した包括的な人工知能社会的リスク管理システムを構築し、改善に勢いを注入する必要があります。社会統治の効率性。
人工知能時代における社会的リスクの 4 つの新たな特徴
現在、世界は不確実性の高い「リスク社会」の時代を迎えており、人工知能技術により現代社会の運営ロジックやルールが変化し、人間社会の価値観や行動が体系的に再構築され、それに伴う社会リスクが生じています。主に、スプレッド、カスケード、微分、ヒステリシスという 4 つの新しい特性が示されています。
まず、人工知能によりリスク情報の拡散の速度と範囲が増大しており、社会的リスクは伝染性です。人工知能技術は、情報生成の困難さを軽減し、情報拡散の幅と深さを増大させ、リスク事象の影響範囲を拡大し、非常に伝染性の高い性質を形成します。同時に、人工知能は感情分析と行動予測を通じてユーザーの感情と行動を特定し、増幅することができます。ある種のリスクイベントがパニックや怒りなどの強い感情的反応を引き起こす場合、人工知能システムはこの種の情報の推奨と普及を優先する可能性があり、そうでない場合は国民感情をさらに悪化させ、リスク情報の伝染性と伝染性を高める可能性があります。効果的な監督と統制は社会保障と社会秩序に大きな影響を与えるだろう。
第二に、人工知能は社会システムの仮想と現実の境界を曖昧にし、社会的リスクが連鎖的に増加しています。人工知能技術により、人と人、人と物、物と物が高度に結合し、仮想世界と現実世界の境界が曖昧になり、複雑なネットワークシステムが形成されます。多くの社会活動は仮想プラットフォームを通じて行われ、現実の状況に組み込まれています。仮想世界でのデータ漏洩は、現実世界での個人情報の盗難につながる可能性があり、現実世界の社会的行動や意思決定にすぐに影響を与える可能性があります。 。逆に、現実世界でのセキュリティインシデントは、データ伝送を通じて仮想世界のセキュリティにも影響を及ぼし、仮想と現実の相互作用により社会的リスクの連鎖効果を引き起こします。インテリジェントテクノロジーによって強化されたさまざまな社会システムは高度に相互接続されており、多くの意思決定プロセスは自動化されていますが、自動化されたシステムによる誤った決定は一連の連鎖反応を引き起こし、リスクの連鎖的な拡大につながる可能性があります。
第三に、人工知能は一連の二次的なリスクとリスクチェーンを引き起こしており、社会的リスクは派生的です。人工知能技術の適用は初期リスクを引き起こす可能性があり、そのリスクを解決または軽減する過程でさらに一連の二次リスクを引き起こし、複雑なリスクチェーンを形成します。リスクイベントは、異なる分野間で急速に広がり、複数のレベルで伝達され、二次的なリスクを形成する可能性があります。例えば、サイバー攻撃は情報漏洩につながるだけでなく、モノのインターネットに影響を与え、交通渋滞や医療機器の故障など現実世界の事故を引き起こす可能性があります。データエラーや不適切なアルゴリズムも、一連の二次的なリスクを引き起こす可能性があります。アルゴリズムバイアスを例に挙げると、それによって生じる不公平な意思決定メカニズムは、しばしば社会の不満や紛争を引き起こします。リスクイベントは通常、公衆の行動や心理に変化を引き起こし、さらに新たな二次リスクを導き出し、リスクチェーンを形成します。
第 4 に、人工知能は一部のリスク事象の影響を隠し、社会的リスクには遅行性の性質があります。人工知能テクノロジーは、トレーニングと運用のために大量のデータに依存しており、意思決定にはアルゴリズムに依存していますが、データの漏洩や悪用は、短期的には意思決定のプロセスと結果に明らかな影響を及ぼさない可能性があります。 , しかし、時間の経過とともにデータの悪用が起こる可能性があり、アルゴリズムのバイアスによる累積的な影響が時間の経過とともに現れることになります。同時に、人工知能テクノロジーは技術インフラストラクチャや自動化システムにも大きく依存しています。これらのシステム障害や設計上の欠陥は、短期的には検出するのが難しいかもしれませんが、時間の経過とともに問題が徐々に蓄積され、全体的なリスクにつながる可能性があります。 。インテリジェントテクノロジーの応用は、社会的行動と心理に大きな影響を与えます。たとえば、インテリジェント レコメンデーション システムを長期間使用すると、情報の繭効果が発生し、ユーザーの視野が狭まり、社会の多様性と包摂に影響を与える可能性があります。
「AIを活用したガバナンス」を実現するための4つの戦略
人工知能技術の発展によって引き起こされる可能性のある社会的リスクと新しい特性に効果的に対応するには、人工知能技術を使用してリスクの特定と効率を向上させながら、従来のリスクガバナンスモデルを的を絞った方法で変更する必要があります。早期警告を行い、「人工知能ベースのガバナンス」の目標を達成すると同時に、人工知能技術の適用によって引き起こされる可能性のあるリスクを効果的に防止および警告し、「人工知能指向のガバナンス」を実現し、 「テクノロジーは社会的ガバナンスを強化し、ガバナンスはテクノロジーの乱用を防ぐ」という双方向のガバナンスのロジック。
まず、マルチモーダル データを使用して複雑なインタラクティブな関係を特定し、リスクの特定と早期警告の精度を向上させます。マルチモーダル データとは、同じ記述オブジェクトに対して異なるフィールドまたは観点から取得されたデータを指し、異なる形式のデータまたは同じ形式の異なる形式を表すために使用されます。マルチモーダルデータ融合テクノロジーは、データ間の補完的な情報を完全にマイニングして利用し、オブジェクトの特性をより包括的に特徴付け、より複雑なインタラクティブな関係を特定または推測し、複雑な社会的巨大システムのリアルタイムの認識、相関分析、状況予測を実現できるだけではありません。リスク特定の精度を向上させ、より柔軟なリスク評価と早期警告フレームワークを構築し、将来を見据えた動的なリスク管理と制御を実現し、また、リスク警告と対応プロセスに独立した意思決定プロセスを効果的に統合して、さまざまな意思決定主体に、コラボレーションのための基本的な方法とツールを提供します。そのため、異分野の異なるモーダルデータを統合することで、テキスト、画像、音声、センサーデータなどの異なるモダリティのデータを統合的に分析し、機械学習や深層学習などの技術を適用してデータ間の複雑な相互関係を特定することが可能です。 。政府、企業、社会団体、学術機関などの多者間の協力を促進し、部門を越えた情報共有メカニズムを確立し、マルチモーダルなデータリソースを統合し、リアルタイムの早期警報システムを構築し、潜在的な可能性をタイムリーに発見して警告しますリスク。
第二に、リスクストレスの集中を防ぐために、インテリジェントテクノロジーの開発と適用レベルに基づいて個別のリスク管理計画を策定します。経済社会の発展や人工知能技術の応用レベルが地域ごとに異なるため、リスク対応能力にばらつきが生じ、地域間の社会リスクの広がりと進化は不均等です。地域の実情に応じた個別のリスク管理計画を策定し、多主体・多地域の連携により地域ストレスを軽減し、社会システムの構造的ダメージを回避する必要がある。したがって、人工知能技術のリスクガバナンスでは、まずさまざまな地域での人工知能技術の適用レベルを評価し、緊急リソース、技術インフラ、管理能力などのリスク対応能力を分析し、地域のリスク対応の長所と短所を特定する必要があります。さまざまな地域の特定の状況に基づいて、個別のリスク管理戦略を開発します。たとえば、経済的に発展した地域は技術的なセキュリティとデータ保護の強化に重点を置くことができますが、経済的に発展していない地域はインフラストラクチャの建設とテクノロジーの普及を改善する必要があります。政策支援や設備投資を通じて、技術後進地域におけるインテリジェント技術の応用レベルの向上を促進し、地域間の技術格差やリスク対応能力の縮小を図る。
第三に、技術開発とリスク規制のバランスをとり、リスク管理の総コストを最適化し、デジタルインテリジェンス技術が「管理可能」かつ「柔軟」であることを保証する必要があります。人工知能のリスクガバナンスは、ガバナンスの失敗による経済的・社会的損失を回避するだけでなく、過剰なガバナンスによる経済的・社会的利益の減少を防ぐために、「セキュリティ」と「開発」の両方を考慮する必要があります。人工知能のリスクガバナンスのコストには、ガバナンスメカニズムが有効な場合と失敗した場合のリスク予防コスト、社会的失敗のコスト、社会的利益の損失のコストなど、多くのコスト要因が含まれます。監視の強度は、テクノロジーの成熟度とアプリケーションシナリオに応じてタイムリーに調整できます。技術の初期段階では、革新を促進するために緩やかな監督が採用されますが、技術の成熟段階では、安全性と標準化を確保するために監督が強化されます。リスクガバナンス戦略を策定する際には、リスクを効果的に制御し、不必要なガバナンスコストを回避するために、さまざまなコスト要素を定量化し、費用便益分析を実施し、最適なガバナンス計画を選択する必要があります。同時に、リスク管理コストを効果的に削減するために、企業や科学研究機関がセキュリティ技術革新を実行することを奨励するための政策および財政的支援を提供し、人工知能技術革新を促進しながら、セキュリティ対策の同時開発を確保することができます。 。
最後に、人工知能技術の開発から生じる可能性のある社会的リスクを事前に研究および判断し、人工知能の社会的リスクの監督システムと基準を適切に策定する必要があります。人工知能テクノロジーの急速な開発と反復は、多くの場合、政策や法律の策定と調整よりも早いため、人工知能のガバナンス政策基準に一定の遅れが生じます。したがって、人工知能技術の応用を社会ガバナンスに埋め込み、人工知能の社会的リスクに関連する安全監督システムと業界標準を策定し、政策と法律が技術開発と歩調を合わせられるようにしながら、社会ガバナンスの構築と開発を促進する必要があります。インテリジェントテクノロジーの応用シナリオ。人工知能技術の開発動向を定期的に分析し、技術、倫理、法律、経済、社会などの多面から包括的な評価を行う必要があり、人工知能リスクの早期警告メカニズムを確立し、新興技術によってもたらされる潜在的なリスクを発見する必要があります。タイムリーに予測し、研究と策定を実施する必要があります。 柔軟で将来を見据えた政策と規制。さらに、国際標準と規制の策定に積極的に参加し、国境を越えた協力プラットフォームを確立し、人工知能のガバナンスにおける各国間の協力と交流を促進し、世界的な技術リスクと課題に共同で対応する必要があります。
(著者の所属:同済大学経済管理学部)
著者:
文:Shi Qian Xiao Chao 写真:Yuan Jing 編集:Chen Yu 編集:Yang Yiqi
この記事を転載する場合は出典を明記してください。