ニュース

OpenAIの元研究者が「昔の雇用主」に警告:規制されていないAIは壊滅的な被害をもたらす

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

8月24日のIT House Newsの北京時間今朝の報道によると、OpenAIがカリフォルニア州のSB 1047法案(AI安全法)に反対を表明した後、2人の元OpenAI研究者が公の場で反対の立場を表明した。クラブ」と警告を発する。

カリフォルニア州 AI 安全法は、AI 企業に対し、多数の死傷者を発生させたり、5 億米ドルを超える被害をもたらす可能性のある生物兵器の開発など、自社のモデルが「重大な危害」を引き起こすことを防ぐための措置を講じることを義務付けます (IT Home 注: 現在約 35 億 6,600 万ドル)元)の経済的損失。

元従業員らはカリフォルニア州知事ギャビン・ニューサムや他の議員に、OpenAIの法案反対は残念だが驚くべきことではないと書簡を送った。

ウィリアム・サンダース氏とダニエル・ココタイロ氏の2人の研究者は書簡の中で、「私たちが(以前)OpenAIに参加することを選んだのは、同社が『信じられないほど強力なAIシステム』を開発していることを保証したかったからだ」と書いている。しかし、AI システムを安全に、誠実に、責任を持って開発するという信頼を失ったため、私たちは撤退を選択しました。

書簡では、OpenAIのアルトマン最高経営責任者(CEO)が何度もAI規制を公に支持していたが、実際の規制措置導入の準備が整うと反対を表明したことにも触れた。 「適切な安全対策を講じずに最先端の AI モデルを開発すると、公衆に壊滅的な被害をもたらす予見可能なリスクが生じます。」