私の連絡先情報
郵便管理者@information.bz
2024-08-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
新しい知恵のレポート
編集者:とても眠いです
【新しい知恵の紹介】カリフォルニア州の「AI制限法」は当初、AI業界の大物、大手テクノロジー企業、新興企業、ベンチャーキャピタリストの強い反対の中、無事可決された。
皆さんご存知のとおり、さまざまな SF 映画の解釈は別として、AI は現実世界では誰も殺していませんし、大規模なサイバー攻撃を仕掛けたこともありません。
しかし、一部の米国議員は、このディストピア的な未来が現実になる前に適切な安全保障が実現できるとの期待を抱いている。
ちょうど今週、カリフォルニア州のフロンティア人工知能モデルセキュリティイノベーション法、SB 1047 が再び法制化に向けて重要な一歩を踏み出しました。
簡単に言えば、SB 1047 は、開発者に責任を負わせることで、AI システムが大量の死傷者を引き起こしたり、5 億ドル以上の費用がかかるサイバーセキュリティ インシデントを引き起こしたりするのを防ぎます。
しかし学界や産業界の反対が非常に強かったため、カリフォルニア州議会はAIスタートアップのアンスロピックやその他の反対派が提案したいくつかの修正案を追加することで少し妥協した。
元の提案と比較すると、現在のバージョンでは、AI 研究所に責任を負わせるカリフォルニア州政府の権限が縮小されています。
請求書のアドレス: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
しかしそれでも、SB 1047 を好む人は(ほぼ)誰もいません。
ヤン・ルクン氏、リー・フェイフェイ氏、ン・エンダ氏などのAI大手は、「オープンソースAIを抑圧し、AIイノベーションを一時停止、あるいは停止に追い込む」この法案に繰り返し不満を表明している。
さまざまな共同書簡も続々と登場しています。
カリフォルニア大学、南カリフォルニア大学、スタンフォード大学、カリフォルニア工科大学の40人以上の研究者がこの法案を可決しないよう強く訴えただけではない。
また、カリフォルニア州のさまざまな地区を代表する8人の議員も知事に対し、この法案に拒否権を発動するよう求めた。
ルカン氏は、AI研究の一時停止を求めた際に使用した元のメッセージ「AI法を6か月間停止してください!」さえコピーしました。
そこで問題は、なぜ前の記事で「ほぼ全員」を使用したのかということです。
なぜならルカン氏に加えて、他の二人のチューリング界の巨人、ヨシュア・ベンジオ氏とジェフリー・ヒントン氏もこの法案の可決を強く支持しているからである。
今の条件はちょっと緩すぎるような気もします。
人工知能技術および政策の上級研究者として、私たちはカリフォルニア上院法案 1047 への強い支持を表明するためにこの手紙を書きます。 SB 1047 は、このテクノロジーを効果的に規制するための基本要件を概説しています。ライセンス制度は導入しておらず、モデルのトレーニングや導入前に企業が政府機関から許可を得る必要もなく、企業が自らリスクを評価することに依存しており、災害が発生した場合でも企業に厳格な責任を課すことはありません。 これは、私たちが直面するリスクの規模に比べて、比較的緩やかな法律です。 この法案の基本的な措置を取り消すことは歴史的な間違いとなるでしょう。次世代のより強力な AI システムがリリースされるにつれて、その間違いは 1 年以内にさらに明らかになるでしょう。
今日、一部の米国議員、著名なAI研究者、大手テクノロジー企業、ベンチャーキャピタリストの強い反対にもかかわらず、SB 1047はカリフォルニア州議会で比較的容易に可決された。
次に、SB 1047 は最終投票のためにカリフォルニア州議会に行きます。最新の修正条項が追加されたため、法案可決後は採決のためにカリフォルニア州上院に返送する必要がある。
これらの投票が両方とも可決された場合、SB 1047 は知事に送られ、最終的な拒否権または署名を待って法案が成立することになります。
どのモデルと企業が制約を受けるのでしょうか?
SB 1047 の要件によれば、モデルを開発する開発者または企業は、AI モデルが「重大な危害」を引き起こすために使用されることを防ぐ責任を負う必要があります。
大量破壊兵器の作成や、5億ドル以上の費用がかかるサイバー攻撃の開始などです。ちなみに、CrowdStrikeによる「世界規模のWindowsブルースクリーンインシデント」では50億ドル以上の損失が発生した。
ただし、SB 1047 のルールは非常に大規模な AI モデルにのみ適用されます。つまり、トレーニング コストが少なくとも 1 億ドルで、浮動小数点演算の数が 10^26 を超える場合です。 (基本的にGPT-4のトレーニング費用をベースとしています)
Metaの次世代Llama 4では必要な計算量が10倍になると言われており、そのためSB 1047の監修も受けることになる。
オープンソース モデルとその微調整バージョンについては、元の開発者が責任を負います。コストがオリジナルモデルの3倍に達しない限り。
この観点からすると、ルカンの反応が非常に暴力的であったのも不思議ではありません。
さらに、開発者は AI モデルのリスクに対処するテスト手順を作成する必要があり、AI セキュリティ慣行を評価するためにサードパーティの監査人を毎年雇用する必要があります。
モデルに基づいて構築された AI 製品の場合、AI モデル全体をシャットダウンする「緊急停止」ボタンなど、悪用を防ぐための対応するセキュリティ プロトコルを開発する必要があります。
等……
SB 1047 の現在の機能は何ですか?
現在、SB 1047により、カリフォルニア州司法長官は、大惨事が発生する前に安全対策を怠ったとしてAI企業を訴えることが認められなくなった。 (アントロピックからの提案)
その代わり、カリフォルニア州司法長官は企業に対し、危険と判断した事業の停止を求める差し止め命令を求める可能性があり、AI開発者のモデルが実際に壊滅的な事態を引き起こした場合には、AI開発者を訴える可能性もある。
SB 1047 では、当初法案に含まれていた新しい政府機関「フロンティア モデリング部門 (FMD)」は設立されなくなりました。
しかし、口蹄疫の中核であるフロンティアモデル委員会は依然として既存の政府運営局内に設立・配置され、その規模も以前の5人から9人に拡大された。委員会は引き続き、対象モデルの計算しきい値を設定し、安全性に関するガイダンスを発行し、監査人向けの規制を発行します。
SB 1047 では、AI モデルの安全性の確保に関して、より緩やかな文言も採用されています。
現在、開発者は、以前は必要とされていた「合理的な保証」ではなく、AI モデルが災害の重大なリスクを引き起こさないようにするための「合理的な注意」を提供するだけで済みます。
さらに、開発者はセキュリティ対策を概説した公開「声明」を提出するだけで済み、偽証罪に問われるセキュリティテスト結果の証明書を提出する必要はなくなりました。
オープンソースの微調整モデルには別の保護もあります。モデルの微調整に費やした金額が 1,000 万ドル未満の場合、その人は開発者とみなされず、責任はモデルの元の大規模開発者に残ります。
李飛飛はかつて個人的に批判的な記事を書いた
AI 業界に対する SB 1047 の影響は、フォーチュン誌の「AI ゴッドマザー」リー・フェイフェイのコラムで見ることができます。
「もしこれが法律として成立すれば、SB 1047はアメリカの初期のAIエコシステム、特にすでに不利な立場にある部分、つまり公共部門、学術界、小規模テクノロジー企業に悪影響を与えることになり、開発者を不必要に罰し、オープンソースコミュニティを抑圧し、学術界を制限することになるだろう。研究も本当の問題を解決することはできません。」
まず、SB 1047 は開発者を不当に罰し、イノベーションを抑制することになります。
AI モデルが悪用された場合、SB 1047 は責任者とモデルの元の開発者に責任を負わせます。すべての AI 開発者、特に新進のプログラマーや起業家にとって、モデルのあらゆる用途を予測することは不可能です。 SB 1047 は開発者に防御策を講じることを強制しますが、これは何としても避けるべきです。
第二に、SB 1047 はオープンソース開発を制限します。
SB 1047 では、一定の閾値を超えるすべてのモデルに、いつでもプログラムをシャットダウンできる機構である「緊急停止ボタン」を搭載することが義務付けられています。開発者がダウンロードして構築したプログラムが削除されるのではないかと心配すると、コーディングや共同作業をさらに躊躇することになります。この緊急停止ボタンは、AI だけでなく、GPS、MRI、インターネットそのものなど、さまざまな分野における無数のイノベーションの源であるオープンソース コミュニティに深刻な影響を与えるでしょう。
第三に、SB 1047 は公共部門と学術界における AI 研究を麻痺させるでしょう。
オープンソース開発は民間部門でも重要ですが、コラボレーションとモデル データへのアクセスがなければ進歩できない学術界ではさらに重要です。研究者が適切なモデルやデータにアクセスできない場合、研究者はどのようにして次世代の AI リーダーを育成できるでしょうか?緊急停止ボタンは、すでにデータとコンピューティングにおいて不利な立場にある学術界をさらに弱体化させることになる。公共部門の AI にもっと投資すべきときに、SB 1047 は学術 AI に致命的な打撃を与えることになる。
最も懸念すべき点は、SB 1047 がバイアスやディープフェイクを含む AI の進歩の潜在的なリスクに対処していないことです。 代わりに、一定量のコンピューティング能力、またはトレーニングに 1 億ドルかかるモデルなど、非常に恣意的なしきい値を設定します。この措置は保護を提供できないだけでなく、学術界を含むさまざまな分野のイノベーションを制限することになります。
リー・フェイフェイ氏はAIガバナンスには反対していないと述べた。 AI の安全かつ効果的な開発には法律が不可欠です。ただし、AI 政策はオープンソース開発をサポートし、統一的で合理的なルールを設定し、消費者の信頼を構築する必要があります。
明らかに、SB 1047 はこれらの基準を満たしていません。
参考文献:
https://techcrunch.com/2024/08/15/california-weakens-bill-to-prevent-ai-disasters-before-final-vote-aking-advice-from-anthropic/
https://techcrunch.com/2024/08/15/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/