ニュース

徹底分析:グーグルやマイクロソフトなどAI大手が約束した「自主的な監督」は達成されたのか?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

1 年前には、Amazon、Microsoft、Google、Meta、オープンAI、Anthropic、Inflection を含む 7 つの人工知能企業は、安全で信頼できる方法で人工知能を開発する方法についてホワイトハウスと 8 つの自主的な約束を締結しました。

これらの取り組みには、AI システムのテストと透明性の向上、潜在的な危険とリスクに関する情報の共有が含まれます。

自主誓約の署名から 1 周年を迎え、MIT Technology Review は、誓約に署名した AI 企業にこれまでの取り組みの詳細を尋ねました。彼らの回答は、テクノロジー業界にとって有望な進歩がいくつかあることを示していますが、いくつかの重要な警告も示しています。

これらの自主的な取り組みは、生成人工知能この動きは、企業が自社のモデルを発売し、競合他社のモデルよりも大きく、より優れたものにしようと競う中、熱狂が「最も泡立っているかもしれない」中で行われた。同時に、著作権やディープフェイクなどの問題をめぐる議論も見られ始めています。 ジェフリー・ヒントンのような影響力のあるテクノロジー関係者のロビーも、AIが人類に存亡のリスクをもたらす可能性があるとの懸念を提起している。突然、AI の安全性を確保する緊急の必要性について誰もが話し始め、各地の規制当局は行動を起こす必要に迫られています。

最近まで、人工知能の発展はまるで「西部開拓時代」のようでした。米国は伝統的にテクノロジー大手企業を規制することに消極的で、代わりに彼らが自らを規制することに頼ってきた。自発的コミットメントが良い例です。これらは米国の人工知能分野における規範的な規則ですが、依然として任意であり、強制することはできません。ホワイトハウスはその後、これらの取り組みを拡大し、他のテクノロジー企業や政府機関にも適用する大統領令を発行した。

「1年が経ち、一部の企業が自社の製品にいくつかの優れた慣行を採用しているのが見られますが、それらは優れたガバナンスや基本的権利の保護という点で私たちが必要とするレベルには程遠いです。」と人工知能およびデジタル政策センターは述べた。ヒコック、社長兼研究部長。彼女はMIT Technology Reviewの要請に応じて企業の回答を検討した。 「これらの企業の多くは、自社製品が人間の知性や能力を超えるなど、根拠のない主張を宣伝し続けています」と彼女は付け加えた。

こうしたハイテク企業の対応から見えてくる傾向の 1 つは、企業が赤青対決 (人間が AI モデルの欠陥を調査する) や AI 生成コンテンツへのウォーターマークの追加など、技術的解決策を追求するための措置をさらに講じていることです。

スタンフォード大学基礎モデリングセンター所長のリシ・ボンマサニ氏は、これらの約束にどのような変化が生じたのか、あるいは企業がその措置を実施するかどうかは不明だと述べた。彼はまた、MIT Technology Review への回答もレビューしました。

人工知能の分野では 1 年は長いです。自主誓約に署名して以来、Inflection AI の創設者である Mustafa Suleyman 氏は同社を辞め、Microsoft に入社して AI 関連の取り組みを主導しています。 インフレクション氏はコメントを控えた。

ホワイトハウス報道官のロビン・パターソン氏は、「大手企業が大統領令の要件を超えて自発的な約束を履行してきた進歩に感謝している。しかし、大統領は議会に対し、人工知能に関する超党派の法案可決を求め続けている」と述べた。

カリフォルニア大学バークレー校CITRIS政策ラボ所長ブランディ・ノンネッケ氏は、包括的な連邦法がなければ、米国が今できることは企業にこれらの自発的な約束を果たすよう求めることだけだと述べた。

しかし、覚えておくべき重要なことは、「これらの企業は基本的に、与えられるテストに向けて勉強している」ということだ、とブランディー・ノンネッケ氏は言う。

これらの AI 企業が過去 1 年間に達成した進歩についての私たちの評価は次のとおりです。

コミットメント1. 両社は、AI システムのリリース前に、社内および社外でのセキュリティ テストを実施することを約束しています。このテストは、一部は独立した専門家によって実施され、バイオセキュリティやサイバーセキュリティなど、AI リスクの最も重要な原因の一部と、そのより広範な社会的影響を防御します。

約束1: AI システムをリリースする前に、内部および外部のセキュリティ テストを実施します。このテストの一部は独立した専門家によって実施され、バイオセキュリティ、サイバーセキュリティ、広範な社会的影響など、AI リスクの最も重要な原因のいくつかから保護するように設計されています。

すべての企業(コメントを控えたInflectionを除く)は、社内外のテスターがモデルの欠陥やリスクを調査できるように赤青対決を実施したと述べた。 OpenAIは、サイバーセキュリティ、化学的、生物学的、放射線学的、核の脅威のモデルに加え、危害を引き起こす可能性のある行為を実行したり、人にそのような行為をさせるよう説得したりできる高度な人工知能モデルをテストする別の対応チームを設けていると述べた。 AnthropicとOpenAIはまた、新しいモデルを展開する前に外部の専門家とともにこれらのテストを実施すると述べた。たとえば、最新モデルである Claude 3.5 を発売するために、Anthropic は英国人工知能安全性協会の専門家とともに導入前テストを実施しました。また、非営利研究組織 METR にも Claude 3.5 の導入前テストを実施することを許可しました。オートパイロットこの機能は「事前に検討された」ものでした。グーグルはまた、選挙関連のコンテンツ、社会リスク、国家安全保障上の懸念の境界線をテストするために、モデル「ジェミニ」で社内の赤青対決を実施していると述べた。 Microsoftは、Microsoftのテキストから画像への変換ツールにおけるディープフェイクのリスクを評価し、悪用されるリスクを軽減するために、ジャーナリズムの誠実さを推進する組織NewsGuardの第三者評価者と協力したと述べた。 メタ社は、赤と青の対立に加えて、武器、サイバー攻撃、児童搾取などのさまざまなリスク分野でのパフォーマンスを確認するために、最新モデルのラマ3も評価したと述べた。

「テストに関しては、企業が対策を講じていると報告するだけでは十分ではありません」とリシ・ボンマサニ氏は述べた。例えば、アマゾンとアンスロピックは、人工知能が子供の安全にもたらすリスクに対処するために非営利団体ソーンと協力したと述べた。彼は、会社が実施している介入が実際にこれらのリスクをどのように軽減するかについて、さらに詳しく知りたいと考えています。

「私たちは、企業だけが何かをしているわけではなく、それらのことが望ましい効果をもたらしていることを明確に理解する必要があります」とリシ・ボンマサニ氏は述べた。

結果:とても良い。さまざまなリスクに対して赤と青を進め、テストすることは重要な仕事です。しかし、マーベ・ヒコック氏は、独立した研究者が同社のモデルに広くアクセスできるようにしたいと考えている。

コミットメント2。 両社は、AI リスクの管理について、業界全体、政府、市民社会、学界と情報を共有することを約束します。これには、安全性に関するベストプラクティス、安全対策の回避の試みに関する情報、技術協力が含まれます。

約束2: AI リスクの管理に関する情報を産業界、政府、市民社会、学界と共有します。これには、セキュリティのベストプラクティス、安全策を回避する試みに関する情報、技術協力が含まれます。

自発的な誓約書に署名した後、Google、Microsoft、Anthropic、OpenAI は、人工知能の安全性と責任に関する議論と行動を促進することを目的とした非営利組織、Frontier Model Forum を設立しました。その後、Amazon と Meta も参加しました。

リシ・ボンマサニ氏は、AI企業が自ら資金を提供する非営利団体と提携することは、自発的な取り組みの精神に反するかもしれないと述べた。同氏の見解では、フロンティアモデルフォーラムは、これらの企業が相互に協力し、競合他社としては苦労することが多い安全に関するメッセージを伝える手段となる可能性があるという。

「たとえ情報を一般公開しなかったとしても、少なくともリスクを軽減する方法を共同で見つけ出すことを期待するだろう」とリシ・ボンマサニ氏は語った。

署名した 7 社はすべて、AI ポリシーと AI パフォーマンス評価のガイドラインと標準を開発するために米国国立標準技術研究所 (NIST) によって設立された官民の大規模コンソーシアム、AISIC のメンバーでもあります。セクタープレーヤー。 Google、Microsoft、OpenAI も、国連の人工知能に関するハイレベル諮問グループの代表者を擁しています。

多くの企業は、学術機関との研究協力も強調しました。たとえば、Google は MLCommons に参加しており、学者と協力して業界を超えた AI セキュリティ ベンチマーク調査を実施しています。 Googleはまた、米国における人工知能研究の民主化を目指す国立科学財団の国家人工知能研究リソースパイロットプログラムなどのプログラムに、計算クレジットなどのツールやリソースを積極的に提供していると述べた。

多くの企業は、基盤となるモデルを展開するために、Amazon、Google、Microsoft、Facebook、DeepMind、IBM が共同設立した別の非営利団体である Partnership on AI にも貢献しています。

結果:まだまだ作業が必要です。 AI システムの安全性と信頼性を高めるために業界が協力する中で、より多くの情報を共有することが正しい方向への重要なステップであることは間違いありません。ただし、発表された取り組みのうちどの程度が実際に有意義な変化をもたらすのか、またどの程度が単なる表面的なものになるのかは不明だ。

コミットメント3。 両社は、独自仕様および未公開のモデル重みを保護するために、サイバーセキュリティと内部脅威対策に投資することを約束しています。これらのモデル重みは AI システムの最も重要な部分であり、両社は、モデル重みは意図された場合にのみ、セキュリティリスクが考慮された場合にのみ公開することが極めて重要であることに同意しています。

約束3:独自のモデルや未リリースのモデルの重みを保護するために、サイバーセキュリティと内部関係者の脅威からの保護対策に投資します。これらのモデルの重みは AI システムの最も重要な部分であり、企業はモデルの重みを意図的に、セキュリティ リスクを念頭に置いてのみリリースすることが重要であることに同意しています。

過去 1 年間、多くの企業が新しいサイバーセキュリティ対策を導入してきました。たとえば、Microsoft は、増大する規模のサイバー攻撃に対抗するために「Security Future Initiative」を立ち上げました。 Microsoftによれば、モデルの重み付けはモデル盗難の潜在的なリスクを軽減するために暗号化されており、高度にカスタマイズされたモデルを展開する際には強力な認証とアクセス制御を適用しているという。

Googleも人工知能サイバー防御プログラムを立ち上げた。 OpenAIは5月、暗号化保護をAIハードウェアに拡張するなど、既存のサイバーセキュリティ慣行を補完するために開発中の6つの新たな対策を共有した。また、研究者が自社のモデルを利用してサイバーセキュリティ防御を構築できるサイバーセキュリティ助成プログラムも用意している。

アマゾンはまた、「データポイズニング」や「ヒントワードインジェクション」など、言語モデルが以前の指示や安全保護を無視するようにヒントを使用する可能性のある、生成AIに特有の攻撃に対して特別な対策を講じたと述べた。

自発的な誓約書に署名してから数日後、Anthropic は自社の安全対策の詳細を発表しました。これには、モデルやモデルの重みにアクセスできるユーザーの制御、サードパーティのサプライチェーンの検査と制御などの一般的なサイバーセキュリティ慣行が含まれます。同社はまた、独立した評価者と協力して、設計した制御がサイバーセキュリティのニーズを満たしているかどうかを評価しています。

結果:とても良い。どの企業もモデルを保護するために追加の措置を講じていると述べていますが、AI モデルを保護する最善の方法についてはあまりコンセンサスがないようです。

コミットメント4。 両社は、AI システムの脆弱性を第三者が発見し報告することを促進することに取り組んでいます。AI システムがリリースされた後も問題が残る場合がありますが、堅牢な報告メカニズムにより、それらの問題を迅速に発見して修正することができます。

約束4:サードパーティが人工知能システムの脆弱性を発見して報告できるようにします。人工知能システムがリリースされた後でも、いくつかの問題が依然として存在する可能性がありますが、強力な報告メカニズムにより、問題を迅速に発見し、タイムリーに修正することができます。

この約束を果たす最も一般的な方法の 1 つは、AI システムの欠陥を発見した個人に報酬を与える「バグ報奨金」プログラムを導入することです。 Googleをはじめ、Microsoft、Meta、Anthropic、OpenAIなどが人工知能システムに関するこうした計画を立ち上げている。 AmazonとAnthropicはまた、セキュリティ研究者が脆弱性報告を提出できるフォームをWebサイト上に設置したと述べた。

Brandie Nonnecke 氏によると、第三者監査で適切な仕事をする方法を見つけるには何年もかかる可能性があります。 「これは単なる技術的な課題ではなく、社会技術的な課題です。人工知能の技術基準を理解するだけでなく、複雑で困難な社会技術基準を理解するのにも何年もかかります。 " 彼女は言いました。 。

Brandie Nonnecke氏は、第三者監査を最初に導入した企業が、人工知能の社会技術的リスクをどのように考え、対処するかについて悪い前例を作る可能性があると懸念していると述べた。たとえば、監査では特定のリスクを定義、評価、および対処しますが、他のリスクは無視する場合があります。

結果:まだまだ作業が必要です。バグ報奨金は素晴らしいものですが、十分に包括的ではありません。 EU の人工知能法案などの新しい法律では、テクノロジー企業に監査の実施が義務付けられており、テクノロジー企業がそのような監査の成功事例を共有できればより良いでしょう。

コミットメント5。 両社は、コンテンツが AI によって生成されたものであることをユーザーが確実に認識できるように、透かしシステムなどの堅牢な技術的メカニズムの開発に取り組んでいます。この措置により、AI による創造性が開花するとともに、詐欺や欺瞞の危険性が軽減されます。

約束5:「透かし入れシステム」など、AI によって生成されたコンテンツをユーザーが確実に把握できる強力な技術メカニズムを開発することで、詐欺や欺瞞のリスクを軽減しながら、AI の創造性を開花させることができます。

多くの企業が AI で生成されたコンテンツ用の透かしシステムを構築しています。たとえば、Google は、Gemini で生成された画像、音声、テキスト、ビデオ用の透かしツール SynthID を発表しました。 Meta は、「Stable Signature」と呼ばれる画像透かしツールと、「AudioSeal」と呼ばれる音声透かしツールを開発しました。 Amazon は現在、Titan 画像生成モデルによって生成された画像に「目に見えない透かし」を追加しています。 OpenAI は、カスタム音声モデル Voice Engine で透かしを使用し、DALL-E 3 によって生成された画像の画像検出分類器を構築しました。 Anthropic は、透かしツールをまだ構築していない唯一の企業です。これは、透かしは主に画像に対して行われ、同社のクロード モデルは画像をサポートしていないためです。

Inflection、Anthropic、Meta を除くすべての企業は、Content Provenance and Authenticity Alliance (C2PA) のメンバーでもあります。C2PA は、コンテンツが作成された時期、および人工知能と人間のどちらによって作成または編集されたかに関する問題を議論する業界連合です。情報は画像メタデータに埋め込まれます。 Microsoft と OpenAl は、DALL-E 3 で作成された画像と Sora で作成されたビデオに C2PA のソース メタデータを自動的に追加します。 Meta はアライアンスのメンバーではありませんが、プラットフォーム上で AI によって生成された画像を識別するために C2PA 標準を使用していると発表しました。

「自主的な取り組みに署名した6社は、当然のことながら、リスクに対処するためのテクノロジーアプローチに引き寄せられており、これは特に透かしシステムに当てはまります」とリシ・ボンマサニ氏は述べた。

「問題は、『技術的解決策』が有意義な進歩を遂げ、コンテンツが機械によって生成されたのではないかという疑問を抱かせる根本的な社会問題を解決できるかどうかだ」と同氏は付け加えた。

結果:とても良い。全体として、これは心強い結果であり、透かし入れシステムはまだ実験段階で信頼性が低いものの、それに関する研究と C2PA 標準への取り組みを見るのは良いことです。特に忙しい選挙の年には、何もしないよりはマシです。

コミットメント6。 各社は、AI システムの機能、限界、適切な使用と不適切な使用の領域を公表することを約束しています。このレポートでは、セキュリティ リスクと、公平性や偏見への影響などの社会的リスクの両方を取り上げます。

約束6:自社の AI システムの使用に適した機能、制限、および分野について公的に報告します。報告書では、セキュリティリスクや、公平性や偏見への影響などの社会リスクも取り上げる。

ホワイトハウスの誓約には解釈の余地が多く残されており、たとえば、企業はその方向に進む限り、技術的にはそのような公開要件を満たすことができるが、透明性のレベルは大きく異なる可能性がある。

ここで、テクノロジー企業が提供する最も一般的なソリューションは、いわゆる「モデル カード」です。各社によって呼び方が若干異なりますが、基本的には AI モデルの一種の製品説明として機能します。モデルの機能と制限 (公平性と説明可能性のベンチマークを測定する方法を含む) から、信頼性、堅牢性、ガバナンス、プライバシー、セキュリティに至るまで、あらゆるものをカバーできます。 アンスロピック社は、今後発生する可能性のある潜在的な安全上の問題についてもモデルをテストすると述べた。

Microsoft は、年次責任 AI 透明性レポートを発表しました。このレポートでは、同社が生成型人工知能を使用するアプリケーションをどのように構築し、意思決定を行い、これらのアプリケーションの展開をどのように監督しているかについての洞察が得られます。マイクロソフトはまた、自社製品のどこにどのように人工知能が使用されているかを明確にしているとも述べた。

結果:まだまだ作業が必要です。 マーベ・ヒコック氏は、企業間のガバナンス構造や財務関係の透明性を高めることは、すべての企業にとって改善の余地があると述べ、また、企業がデータソース、モデルトレーニングプロセス、セキュリティインシデント、エネルギー使用について透明性を高めることも望んでいると述べた。

コミットメント7。 両社は、有害な偏見や差別の回避、プライバシーの保護など、AI システムがもたらす可能性のある社会的リスクに関する研究を優先することを約束します。AI の実績は、これらの危険の陰険さと蔓延を示しており、両社は危険を軽減する AI を展開することを約束します。

約束7:有害な偏見、差別、プライバシー保護の回避など、人工知能システムがもたらす可能性のある社会的リスクに関する研究を優先します。 AI の実績は、これらの危険がいかに潜行的で蔓延しているかを示しており、これらの企業は AI によってそれらを軽減すると約束しています。

ハイテク企業はセキュリティ研究を実施し、その結果を自社の製品に組み込むことに忙しい。 Amazon は、幻覚を検出し、セキュリティ、プライバシー、信頼性の保護を適用できる「Amazon Bedrock」用の「ガードレール」を構築しました。 Anthropic は、社会的リスクとプライバシーの研究に重点を置いた研究チームを雇用し、過去 1 年間にわたって、なりすまし、ジェイルブレイク、差別削減戦略、および独自のコードを改ざんしたり、研究を実行したりするための新しい機能を導入したと述べました。 OpenAIは、「憎悪に満ちたコンテンツ」を回避し、憎悪に満ちたコンテンツや過激派コンテンツを拒否するようにモデルをトレーニングし、固定概念に基づいた回答を必要とする多くのリクエストを拒否するようにGPT-4Vをトレーニングしたと述べた。 Google DeepMind はまた、危険な機能を評価する研究を発表し、生成 AI の悪用に関する研究を実施しました。

どの企業もこの分野の研究に多額の投資を行っています。たとえば、Google は、最先端のモデリング フォーラムを通じてこの分野の研究を促進するために、新しい AI セキュリティ基金を創設するために数百万ドルを投資しました。マイクロソフトは、国家の人工知能研究リソースを通じて社会的リスクを研究するために2,000万ドルの資金提供を約束し、人工知能モデル研究アクセラレータプログラムである「加速基礎モデル研究」プログラムを開始したと発表した。同社はまた、人工知能と人工知能の研究者に焦点を当てた24人を雇用したと発表した。社会学。

結果:とても良い。署名者は世界最大かつ最も裕福な企業の AI 研究ラボの一部であるため、これは達成するのが簡単な約束です。 AI システムを安全にする方法に関するさらなる研究は歓迎すべきステップですが、批評家は、安全性の研究に焦点を当てると、差別や偏見などのより差し迫った害に焦点を当てた AI 研究から注意とリソースが奪われてしまうと指摘しています。

コミットメント8。 両社は、社会の最大の課題の解決に役立つ高度な AI システムの開発と導入に取り組んでいます。がん予防から気候変動の緩和まで、AI は適切に管理されれば、すべての人々の繁栄、平等、安全に大きく貢献できます。

約束8:がん予防から気候変動緩和、その他多くの分野に至るまで、社会の最大の課題の解決に役立つ高度な人工知能システムの開発と導入は、正しく管理されれば、人工知能は人類の繁栄、平等、安全を大幅に前進させることができます。

この約束をして以来、テクノロジー企業はさまざまな問題を解決してきました。たとえば、ファイザーは関連データを収集した後、がん治療研究の傾向を評価するためにクロードを使用しており、一方、米国のバイオ医薬品会社ギリアドは、アマゾン ウェブ サービスの生成 AI を使用して臨床研究の実現可能性評価を実施し、データセットを分析しています。

Google DeepMind には、科学者を支援する人工知能ツールを立ち上げた強力な実績があります。たとえば、AlphaFold 3 は、ほぼすべての生きた分子の構造と相互作用を予測できます。 AlphaGeometry は、トップ高校生に匹敵するレベルで幾何学的問題を解決します。 GraphCast は、中程度の天気予報が可能な人工知能モデルです。一方、マイクロソフトは衛星画像と人工知能を利用して、ハワイのマウイ島の山火事への対応を改善し、気候の影響を受けやすい人口を地図にまとめ、研究者が食糧不安、強制移住、病気などのリスクを発見するのに役立てています。

一方、OpenAI は、教育者や科学者が研究室環境でマルチモーダル AI モデルを安全に使用する方法に関するものなど、いくつかの研究プロジェクトに対するコラボレーションと資金提供を発表しました。同社はまた、研究者が同社のプラットフォーム上でクリーンエネルギーを開発できるよう支援する「ハッカソン」にも資金を提供している。

結果:とても良い。人工知能を使用して科学的発見を促進したり、天気を予測したりするような分野の研究は、本当に刺激的です。 AI企業はまだがん予防にAIを活用していないが、これはそもそもかなり高いハードルだ。

全体として、赤と青の対立、透かしシステム、業界間でベスト プラクティスを共有する新しい方法など、AI の構築方法にいくつかの前向きな変化が見られます。しかし、これらは AI の危険性という厄介な社会技術的問題に対処するために発見された独創的な技術的解決策の一部にすぎず、やるべきことはまだたくさんあります。 1年経った今でも、その公約は生物兵器などの「仮説上のリスク」に焦点を当てた特定のタイプのAIセキュリティを過度に強調している一方で、消費者保護、ディープフェイク、データと著作権、そして今日では省略されているように見えるAIの環境負荷については言及していない。実に奇妙だ。

元のリンク:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promized-the-white-house-to-self-regulate-one-year-ago-whats-changed/