ニュース

国連のハイレベルai諮問機関の中国専門家「技術開発によりaiリスクはより集中している」

2024-09-21

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

北京ニュースシェルファイナンスニュース(白金磊記者)9月19日から9月21日まで、2024年北京文化フォーラムが北京で開催された。中国政法大学データ法研究所の教授であり、国連のハイレベル人工知能諮問機関の中国専門家でもある張玲漢氏は、並行して行われた「文化動向:新興ビジネス形態とテクノロジーの統合」に出席した。フォーラムに参加し、「人工知能の健全な発展の指導と規制」と題した基調講演を行いました。
人工知能によってもたらされる包括的なリスクについて、張玲漢氏は、「技術サポーター、サービスプロバイダー、コンテンツ制作者」という現在の法的主体の境界はテクノロジーの発展とともに徐々になくなり、リスクはますます集中していると考えています。したがって、世界では人工知能のガバナンスの原則について積極的に議論され始めており、政府間国際機関が重要な発言者となっています。
2024年を例に挙げると、2024年3月21日、国連総会は「持続可能な開発を促進するために、安全で信頼できる人工知能システムによってもたらされる機会をつかむ」という決議を全会一致で可決し、人工知能によってもたらされる機会をつかむことを呼びかけました。全人類に利益をもたらす技術革新を実現するテクノロジーの機会。 2024年5月、ai(人工知能)が人類にもたらすグローバルサミットがジュネーブで開催され、参加者は人工知能の文脈におけるデジタルデバイドについて議論し、最大の選挙年における虚偽の情報の生成と闘い、aiの持続可能な発展を達成することについて議論した。 ai リスクの特定と監督についての議論を開始します。
張玲漢氏の見解では、euのリスク分類ガバナンスシステムが現在最前線にあるという。 eu は 4 段階の ai リスク規制の枠組みを確立し、差別化された義務制度を創設しました。一方で、重大な社会的リスクを伴う ai の開発と導入を厳しく制限し、他方では低レベルの ai の普及を緩和しています。 -euにおけるai技術のリスク。さらに、euは、システミックリスクを伴う一般的な人工知能に対して、独立した専門家の参加によるリスクテスト、トレーニングデータの事前レビュー、データの著作権情報の開示、さらにはインフラストラクチャのセキュリティという4つの特別な義務を設定しました。
彼女はまた、現場における中国のaiガバナンスに関する長期計画についても共有した。最初のステップでは、2020 年までの業界の目標は、人工知能の全体的な技術と応用を世界の先進レベルに同期させることであり、ガバナンスの目標は、最初に一部の分野で人工知能に関する倫理規範、ポリシー、規制を確立することです。第 2 ステップとして、2025 年までの業界の目標は、人工知能の基本理論と応用において大きな進歩が達成されたことです。ガバナンスの目標は、まず人工知能の法律、規制、倫理規範および政策システムを確立し、人工知能の安全性評価と政策システムを形成することです。 3 番目のステップでは、2030 年までの業界の目標は、人工知能の理論を確立することであり、技術とアプリケーションは一般に世界をリードするレベルに達しており、ガバナンスの目標は、より完全な法的、規制的、倫理的、および倫理的な人工知能を構築することです。政策システム。
チェン・ジジャオ編集
校正:zhao lin
レポート/フィードバック