ニュース

openai、o1推論モデルが生物兵器作成のリスクを高めることを認める

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

ai推論モデルo1

ifeng.com technology news 北京時間 9 月 14 日、openai は、最新の ai 推論モデル o1 が生物兵器の作成に ai が悪用されるリスクを「大幅に」高めていることを認めました。

openai のシステム カードは、ai の仕組みを説明するツールです。このツールは、新しいモデルが化学兵器、生物兵器、放射線兵器、核兵器(cbrn)に関連する問題に対して「中程度の」リスクをもたらすと述べた。これは、openai によってこれまでに与えられた中で最も高いリスクです。openaiは、これはこのモデルが専門家の生物兵器作成能力を「大幅に向上させる」ことを意味すると述べている。

専門家らは、より高度な機能を備えたaiソフトウェアが危険人物の手に渡れば、悪用のリスクが高まると指摘している。たとえば、o1 モデルには段階的な推論機能があります。

openaiの最高技術責任者であるミラ・ムラティ氏はフィナンシャル・タイムズに対し、同社はその高度な機能のため、o1モデルを一般公開する際には特に「慎重」であると語った。同氏は、このモデルはさまざまな科学分野の専門家、いわゆる「レッドチーム」によってテストされたと付け加えた。 mulati 氏は、o1 モデルは全体的な安全指標において以前のモデルよりもはるかに優れたパフォーマンスを発揮したと述べました。 (著者/シャオユウ)

さらに直接のニュースを知りたい場合は、phoenix news クライアントをダウンロードし、phoenix technology を購読してください。詳細なレポートをご覧になりたい場合は、wechat で「ifeng.com technology」を検索してください。