ニュース

AI幻覚は避けられない、それにどう対処するか

2024-08-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

張海人工知能(AI)技術の急速な発展に伴い、人工知能による情報処理や生成における誤りや錯覚である「AI錯視」が無視できない問題となっている。 2023 年、「幻覚」が Cambridge Dictionary と Dictionary.com の今年の単語になりました。 Dictionary.com によると、「幻覚」という言葉の検索数は 2023 年に前年比 46% 増加しました。ケンブリッジ辞典の「幻覚」の元の定義に加えて、「通常、病状または薬を服用したために、そこにないものを見たり、聞いたり、感じたり、嗅いだりすること」という新しい意味が追加されました。 AI の幻覚はエラー メッセージを生成します。」『ネイ​​チャー』誌に掲載された最近の論文「機械の行動」では、人工知能が今日の人間社会に広く普及しており、ニュースのランキングアルゴリズムは人々が見る情報に影響を与え、消費アルゴリズムは人々が買う消費財に影響を与え、タクシー配車のアルゴリズムにも影響を与えるだろうと指摘した。私たちの旅行パターンとスマートホームアルゴリズムは私たちの家族生活に影響を与えます。法律、医療、その他の分野では、人工知能の影響はさらに大きくなります。人工知能により、機械はますます人間のように考え、行動できるようになります。その結果、機械は人間社会の構造にますます影響を与えるようになり、人間がどのように機械の行動を形成するかは、将来の社会の形態に重大かつ広範な影響を与えることになります。人工知能の時代では、AI の幻覚は一般的な現象になりました。自動運転車で起こり得る誤判断から、スマートアシスタントによる指示の誤解釈、医療診断ツールによる誤診に至るまで、AIによる錯覚は私たちの日常生活の隅々に存在します。 2024 年、Google 検索エンジンは、AI が生成した回答を提供する人工知能検索サービス、AI 概要を開始しました。当初の目的はユーザーエクスペリエンスを向上させることでしたが、ユーザーはすぐにAIの概要が、ピザを貼り付けるために接着剤を使用することを提案したり、栄養素を得るために毎日石を食べることを提案したりするなど、多数のとんでもない答えを提供していることに気づき、Googleを引き起こしました機能の一部をすぐにシャットダウンします。人工知能科学者の観点から見ると、技術的な限界と人間の認知の欠陥により、AI の幻覚は本質的に避けられません。技術者は AI の精度と信頼性を向上させるために懸命に取り組んでいますが、AI の錯覚は依然として頻繁に発生しており、不完全なデータ、アルゴリズムの制限、複雑なインタラクティブ環境などの要因により、完全に排除することが困難です。AI の幻覚のメカニズムには多くの側面が含まれます。まず、データの偏りが主な理由の 1 つです。AI トレーニング データに多様性がなかったり、系統的な偏りがある場合、出力結果は幻覚を示す可能性があります。第二に、現在の AI アルゴリズム、特に統計に基づくアルゴリズムは、目に見えない新しい状況に完全に適応することができず、誤った判断につながる可能性があります。第三に、人間のデザイナーの認知的限界も大きな問題であり、デザイナーやトレーナーの主観的な偏見が誤って AI システムにエンコードされ、その意思決定に影響を与える可能性があります。最後に、AI システムが動作するインタラクティブな環境は変数に満ちており、複雑で変化する環境要因が AI システムの処理能力を超えることが多く、AI 幻覚の生成につながります。AI の幻覚の遍在性と不可避性にどう対処するか?まず、データの品質と多様性を向上させることが基本です。トレーニングデータの幅と深さを増やすことで、データの偏りを軽減し、AI システムの汎化能力を向上させることができます。第二に、アルゴリズム設計を最適化し、その堅牢性と適応性を強化することで、AI システムが新しい状況にうまく対処できるようになります。第三に、ユーザーの教育と意識を向上させることも重要です。ユーザーが AI の機能と限界を正しく理解できるようにすることで、誤解による錯覚を効果的に減らすことができます。さらに、AI の開発と適用が倫理的および法的基準に確実に準拠するように倫理基準と監督メカニズムを確立することも、AI 幻覚の発生を減らすために同様に重要です。最後に、AI の幻覚に対処するには、学際的なコラボレーションが重要な役割を果たします。エンジニア、データサイエンティスト、心理学者、倫理学者、法律専門家は共同でAIシステムの設計・評価プロセスに参加し、それぞれの分野の専門的見地からAI幻想の問題を共同で解決すべきである。人工知能の時代において、AI 幻覚は複雑かつ一般的かつ避けられない問題であり、これに対処するために多次元およびマルチレベルの戦略を採用し、それによって AI 幻覚の悪影響を最小限に抑える必要があります。ユネスコが2023年に発表した「教育研究における生成型人工知能に関するガイドライン」では、教室で人工知能ツールを使用できる最低年齢を13歳に設定することが推奨されている。 Open AIは、13歳未満の子供が生成型人工知能を使用することを禁止し、13歳から18歳までの子供は保護者の指導の下で使用する必要があると推奨しています。若者のメディアリテラシー向上のために各国が講じた対策を共有する「トラステッド・メディア・サミット」が2023年にシンガポールで開催される。例えば、海外では、小学生を対象としたメディアリテラシー向上を目的としたウェブサイトやポッドキャストを活用した公益活動「SQUIZ KIDS」を実施し、インターネット上のデマ情報と虚偽情報を見分ける青少年の育成に貢献しています。それは主に 3 つのステップで構成されます。ネットワーク情報にさらされた場合は STOP、それについて考える (THINK)、最後に信頼できる情報ソースと一致しているかどうかを確認するペアをチェック (CHECK) します。さまざまな分野の知識とスキルを結集して、より包括的に問題を特定し、解決策を見つけることで、よりスマートで安全、信頼性の高い人工知能社会の到来が期待されます。 (著者は東北師範大学メディア科学院教授、吉林省教育・人工知能統合イノベーション工学センター所長)▲
レポート/フィードバック