ニュース

openaiとanthropic、新モデル発売前に米国政府に安全性を評価させることで合意

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house は 8 月 30 日、人工知能企業の openai と anthropic が、セキュリティ向上のためにこれらの企業が主要な新しい人工知能モデルをリリースする前に、米国政府がそれらのモデルにアクセスできるようにすることに合意したと報告しました。


画像ソース pexels

米国ai安全性協会が木曜日に発表した。両社は同研究所と覚書を締結し、モデルの公開前後にアクセスを提供することを約束した。。米政府は、この措置は安全保障上のリスクを共同で評価し、潜在的な問題を軽減するのに役立つと述べた。同庁は英国の当局と協力して安全性向上に関するフィードバックを提供すると述べた。

openai 最高戦略責任者の jason kwon 氏は、協力への支持を表明しました。

「私たちは米国 ai 安全性協会の使命を強く支持しており、ai モデルの安全性に関するベスト プラクティスと基準を開発するために協力することを楽しみにしています。私たちは、同協会が ai の責任ある開発における米国のリーダーシップを確保する上で重要な役割を果たしていると信じています。私たちは、この研究所との協力を通じて、世界が学ぶことができる枠組みを提供できることを願っています。」

anthropic 氏は、ai モデルを効果的にテストする能力を確立することが非常に重要であるとも述べています。同社の共同創設者兼政策責任者であるジャック・クラーク氏は次のように述べています。

「ai の安全性と信頼性を確保することは、このテクノロジーがプラスの影響を与えるために非常に重要です。そのようなテストと協力を通じて、ai によってもたらされるリスクをより適切に発見して軽減し、責任ある ai 開発を促進することができます。この重要な仕事に参加できることを誇りに思い、ai の安全性と信頼性の新しい基準を設定したいと考えています。」

連邦および州の議会がイノベーションを抑制することなくテクノロジーに制限を設ける方法を検討する際、人工知能モデルへのアクセスを共有することは重要なステップです。 it houseは水曜日、カリフォルニア州議会がフロンティア人工知能モデルセキュリティイノベーション法(sb 1047)を可決したことを指摘した。この法案は、カリフォルニア州の人工知能企業に対し、高度な基本モデルをトレーニングする前に特定のセキュリティ対策を講じることを義務付けている。この法案は、小規模なオープンソース開発者に損害を与える可能性があると警告した openai や anthropic などの人工知能企業からの反発を招いたが、この法案はその後修正され、現在もカリフォルニア州知事のギャビン・ニューサム氏の署名を待っているところである。

一方、ホワイトハウスはaiセキュリティ対策について大手企業から自主的な約束を取り付けようとしている。いくつかの大手 ai 企業は、サイバーセキュリティと差別の研究に投資し、ai によって生成されたコンテンツに透かしを入れることに取り組むという拘束力のない約束をしています。

国立人工知能安全性研究所所長のエリザベス・ケリー氏は声明で、これらの新たな協定は「始まりに過ぎないが、人工知能の将来を責任を持って管理するための我々の取り組みにおける重要なマイルストーンである」と述べた。