ニュース

アルトマン氏、OpenAIのセキュリティ作業に関して不正行為をしたとして告発される

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report、8月3日、海外報道によると、人工知能企業OpenAIの機密保持契約により従業員が重大なセキュリティ問題を議員に開示することが違法に妨げられていると内部告発者が米国証券取引委員会(SEC)に告発したことを受け、OpenAIは増大する圧力に直面しているという。人工知能のリスクを隠していないことを証明するよう、より大きなプレッシャーがかかるだろう。

昨日、チャック・グラスリー上院議員(共和党、アイオワ州)はOpenAIへの書簡の中で、OpenAIが署名を要求しなくなったことにより、従業員が情報開示保護協定を政府規制当局に提出することが妨げられる可能性があるという証拠を求めた。

具体的には、グラスリー氏はOpenAIに対し、契約が情報開示を妨げないことを議会に保証するために、現在の雇用、退職金、非差別化、機密保持契約を提供するよう求めた。

グラスリー氏は、これは、新たな脅威を暴露する内部告発者に頼って、技術の進歩から生じる既存の AI リスクを防ぐ効果的な AI ポリシーの開発を支援できるようにするために重要であると述べた。

グラスリー氏の書簡によると、グラスリー氏はOpenAIにこれらの記録を2回問い合わせたが、返答はなかった模様だという。

グラスリー氏の広報担当クレア・スラッテリー氏はワシントン・ポストに対し、現時点でOpenAIは最新の文書要求に応じていないと語った。

「アップデートを行ったと言うだけでは十分ではありません」とグラスリー氏はアルスに提供した声明の中で述べた。 「事実は言葉よりも雄弁です。OpenAIが従業員とユーザーを適切に保護しているかどうかを議会が正確に評価できるよう、アルトマン氏は記録を提供し、私の監督要請に応じる必要があります。」

最近、OpenAIに従業員協定を更新するよう要請したことに加えて、グラスリー氏はOpenAIに対し、2023年以降の連邦開示を求める従業員のリクエストの総数についてより透明性を高めるよう求めた。

上院議員らは、従業員が当局にどのような情報を開示したいのか、またOpenAIが従業員の要求を実際に承認したかどうかを知りたいと考えていた。

同様に、グラスリー氏はOpenAIに対し、2023年以降にSECの調査を開始した件数を確認するよう求めた。

これらの文書を総合すると、OpenAIの従業員による連邦政府による開示が依然として禁止されているかどうか、OpenAIが拒否している開示の種類、セキュリティリスクの隠蔽に関してSECがOpenAIをどの程度監視しているかが明らかになることになる。

グラスリー氏は書簡の中で、「OpenAIは従業員が違法な制限なしに保護された開示を提供できることを保証しなければならない」と書いた。

同氏は、議会がOpenAIのセキュリティプロトコルと機密保持契約を客観的かつ独立して監視できるよう、OpenAIに対し8月15日までに回答するよう求めた。

OpenAIはアルスのコメント要請にすぐには応じなかった。

の上 。

同氏はまた、OpenAIが現在および元従業員が安心して懸念を表明できることを望んでいると認めた。

「これはどの企業にとっても重要ですが、セキュリティ プログラムの重要な部分である当社にとっては特に重要です」とアルトマン氏は書いている。 5月に、当社は現従業員および元従業員に対する非軽蔑条項と、OpenAIに既得株式を取り消す権利を与える条項(たとえ未使用であっても)を削除しました。私たちはこれを修正するために懸命に取り組んできました。

7月、内部告発者は証券取引委員会に対し、OpenAIがAIのセキュリティリスクを隠蔽する過去または現在の慣行を隠蔽していないことを保証するために、現在の従業員契約だけでなく機密保持契約を含むすべての契約を提供するようOpenAIに義務付けるべきであると述べた。彼らは、違法な機密保持契約を含む契約についてすべての現従業員と元従業員に通知し、違法な契約ごとに OpenAI に罰金を科すことを求めています。

サム・アルトマン氏、AIの安全性問題を否定したとして非難される

しかし、OpenAIの透明性向上を求める声は議員に限定されない。グラスリー氏の公開書簡の前日、OpenAIの最高経営責任者(CEO)サム・アルトマン氏は「この声明は誤解を招くものであり、国民の反発を引き起こした」との声明を発表した。

Altman 氏は次のように書いています: 昨年 7 月に述べたように、当社はコンピューティング リソースの少なくとも 20% を全社的なセキュリティ対策に割り当てることに尽力しました。これにより、偏見のある X 読者の多くが、これがより多くの背景を提供すると考えているのではないかとコミュニティで懸念が生じました。

コミュニティノートでは、Altman氏がOpenAIがコンピューティングリソースの20%をSuper Alignmentチームに割り当てていることを明示的に確認した7月のブログについて言及していたと指摘している。チームは現在解散し、ハイパーアライメントの責任者である主任科学者が同社を去っているため、Xの解説者らは、アルトマン氏の主張は、OpenAIが現在曖昧に定義されているセキュリティ対策に実際にどのようなコンピューティングリソースを割り当てているかについて一般の人々に誤解を与えていると述べている。

X のコメント投稿者の中には、OpenAI の現在のセキュリティへの取り組みについての詳細を要求する人もいました。 AIのセキュリティ問題に関して他の5人の上院議員に回答した7月31日の書簡の中で、OpenAIは自社のセキュリティへの取り組みをより詳細に説明した。同社はまた、Xが「さらなるコンテキスト」が必要であると警告したというアルトマン氏の声明を明らかにし、ブログで言及されているコンピューティングリソースは決してSuper Alignmentチームのみを指すものではないと書いた。

OpenAIは上院議員に宛てた書簡の中で次のように述べている:セキュリティ研究の課題をさらに前進させるため、昨年7月、我々は複数年にわたってコンピューティングリソースの少なくとも20%をAIセキュリティに割り当てることを約束した。この取り組みは、特定のチームだけでなく、会社全体のセキュリティへの取り組みに常に適用されます。

OpenAI のブログには、OpenAI がこれまでに獲得したコンピューティング リソースの 20% を今後 4 年間でスーパーインテリジェンス調整問題の解決に充てると明確に記載されているため、一部の人が混乱しています。当時、OpenAIは、基礎研究の主な賭けは以前のスーパーオーケストレーションチームであり、「ミッションを達成するにはコンピューティングリソースを適切に行うことが重要であるため、コンピューティングリソースを必要としている」と述べた。

1つ

OpenAIはまだこのミームアカウントに返答していないが、社会は私たちよりも賢いAIシステムを導き、制御するための科学技術のブレークスルーを必要としているため、AIの安全性には超連携したチームが不可欠であると以前述べていた。

OpenAI によるセキュリティへの取り組みの詳細

OpenAIの上院議員への書簡の中で、最高戦略責任者のジェイソン・クォン氏は議員に対し、OpenAIは外部の専門家と協力してモデルを評価しレッドチーム化することでリスクから守っていると述べた。 これには、当社の最新モデル GPT-4o に関連するリスクの評価を支援する 100 人を超える外部専門家とのコンサルティングが含まれます。

Kwon 氏は次のように書いています: レッド チーム テストの結果とセキュリティの緩和策は、モデルに付属するシステム カードで公開されており、OpenAI は「人工知能システムに関連する化学、生物、放射線、核 (CBRN) リスクの測定」に関する論文を発表しました。 」 さまざまな職業や業界が言語モデルによって影響を受ける可能性がある範囲を推定し、業務に影響を与える言語モデルの影響を評価し、人工知能システムの決定の解釈可能性を説明する研究。

クォン氏は、AIのセキュリティをさらに確保するために、OpenAIは反復的な展開を実施し、まずSoraビデオモデルや音声エンジンなどの新機能を限られたグループにリリースし、その後広く一般にリリースすると述べた。

クォン氏は次のように書いています: この戦略により、OpenAI 外部の人々からフィードバックを取得し、必要に応じて安全ガードレールを更新し、モデルを完全に公開する前に今後の AI 機能について一般の人々に知らせることができます。

クォン氏は、セキュリティ上の懸念を提起したことに対する報復を依然として恐れている新機能やモデルを開発している従業員のために、OpenAI が 3 月に整合性ホットラインを立ち上げたと述べた。このチャネルを使用すると、従業員が他の既存のチャネルを通じて問題を提起することに抵抗がある場合に、匿名で問題を報告できます。

OpenAIは、従業員はどんな懸念事項についても自由に話すことができると述べているが、OpenAIが特定の情報をセキュリティリスクとみなした場合、依然としてその情報を共有できないことは明らかである。

Kwon 氏は次のように書いています。OpenAI は懸念を表明することと企業秘密の漏洩を区別し続けています。後者(開示の保護された権利)は、現従業員および元従業員との機密保持契約に基づいて引き続き禁止されています。当社の技術が米国の国家安全保障に与える影響を考慮すると、この禁止は特に重要であると考えています。

この例外によって OpenAI が一部の連邦開示を拒否できることを考えると、グラスリー氏は OpenAI が企業秘密の保護を理由に開示を不当に拒否した可能性があるかどうかを知りたかったと考えられる。

グラスリー氏の書簡は、上院議員らが企業の自主警備セキュリティに対するリスクを懸念していることを明らかにした。