ニュース

解説|蕭陽華:博士レベルの数学能力を備えたo1モデルはどのような影響をもたらすのでしょうか?

2024-09-13

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

・専門家レベルの推論能力は一問一答の戦術ではなく、強い思考力が必要です。大規模なモデルの推論能力をトレーニングする場合の難しさは、人間の思考プロセスの多くが決して表現されないため、今回の openai では大量の合成データを使用する必要があると推測しました。
・人工知能の発展速度に人間が人工知能の理解を高めることはますます困難になっており、人工知能が超人的な能力を持っている場合、これは人間が統治上の大きな課題となります。人間の能力は人間の認識レベルを超えているため、人間がその超能力を発動できない場合があると考えられます。
openai が発表した新しいモデル o1 は、強力な推論機能を備えています。ビジュアル中国地図
現地時間 9 月 12 日、openai は新世代モデル シリーズ o1 を発表しました。これまでのモデルと比較して、このモデルは物理学、化学、生物学のベンチマーク タスクを処理する際に、博士課程の学生と同等のパフォーマンスを発揮しました。この機能は以前のモデルにはなかったものです。
9月13日、復旦大学コンピューター科学技術学部の教授兼博士指導者であり、上海データサイエンス重点研究所の所長であるxiao yanghua氏は、the paperのインタビューで、o1モデルの出現は次のことを意味すると述べた。大規模モデルの推論能力は完全に専門家レベルに達することができ、これは人工知能における画期的な進歩とみなすことができ、企業側でのモデルの適用が大幅に向上します。
しかし、彼はまた、モデルの知的能力、知覚能力、合理的能力が向上し続けるにつれて、人工知能が将来人間にどのような影響を与えるかを予測することは困難であると認めました。開発のスピードは今や人間の理解を超えており、人工知能のガバナンスは大きな課題となるだろう」とシャオ・ヤンフア氏は語った。
複雑なタスクについて推論するのが得意で、博士号に匹敵するパフォーマンスを発揮します。
新しい推論モデル o1 は、初期モデルとして、ネットワーク情報の閲覧、ファイルや画像のアップロードなど、chatgpt で使用される機能をまだ完全には備えていません。しかしopenaiは、これは複雑な推論タスクにとっては大幅な改善であり、新たなレベルの人工知能能力を表していると述べた。
「トレーニングを通じて、彼らは思考プロセスを洗練し、さまざまな戦略を試し、間違いを認識することを学びます。大規模な強化学習アルゴリズムは、トレーニング プロセス中に思考チェーンを使用して効果的に考える方法をモデルに教えます。o1 モデルは、事前に考えることができます。」ユーザーに応答することで、内部に長い思考の連鎖が生成されます。強化学習が増え、考える時間が増えることで、o1 のパフォーマンスは向上し続けます。難しいステップをより単純なステップに分解することを学びます。現在の方法が機能しない場合は、別のアプローチを試みます。
新しい推論モデル o1 は数学とプログラミングに優れており、複雑なコードの正確な生成とデバッグに優れています。 openai は、aime (american mathematics invitational competition) でモデルの数学的パフォーマンスを評価しました。2024 年の aime 試験では、gpt-4o は各問題の 1 つのサンプルで平均 12% (1.8/15) しか解決しませんでした。 %(11.1/15)。国際数学オリンピック (imo) の資格試験では、gpt-4o は問題の 13% しか正しく解決できませんでしたが、新しい推論モデルは 83% のスコアを獲得しました。
新しいモデルは複雑なタスクを推論し、物理学、化学、生物学のベンチマーク タスクで博士課程の学生のように実行できます。 openai は、化学、物理学、生物学における gpqa ダイヤモンド ベンチマークを実施しました。モデルを人間と比較するために、博士号を取得した専門家が募集され、一緒に質問に答えてもらいました。
「私たちは、o1が人間の専門家のパフォーマンスを上回り、このベンチマークでそれを達成した最初のモデルとなったことを発見しました。これらの結果は、o1があらゆる面で博士よりも有能であることを意味するものではなく、モデルが博士のニーズを解決するのに優れているというだけです」とopenaiは述べている医療研究者は o1 を使用して細胞配列データに注釈を付けることができ、物理学者は o1 を使用して量子光学に必要な複雑な数式を生成でき、あらゆる分野の開発者は o1 を使用して複数ステップのワークフローを構築および実行できます。
マイルストーン推論機能により、アプリケーションの効果が大幅に向上します
「以前の大規模な言語モデルは、文系の学生に近いものであり、理系の学生のレベルにはまだ程遠いです。しかし、人間の知性の中核となる能力は思考と思考です。openai の新しい推論モデル o1 シリーズは、人間の思考プロセスを示しています。 「新しい推論モデル o1 の本質は依然として大規模な言語モデルですが、大規模なモデルの可能性を十分に活用しています」と xiao yanghua 氏は述べています。かつては、大型モデルの生成能力はコーパスによって決定されており、「唐詩三百首に精通していて、作り方がわからなくても暗唱できる」ようなものでした。ただし、専門家レベルの推論能力は一問一答の戦術ではなく、強い思考力が必要です。大規模なモデルの推論能力をトレーニングする場合の難しさは、人間の思考プロセスの多くが決して表現されないため、今回の openai では大量の合成データを使用する必要があると推測しました。
「openaiには明確な先行者利益があります。そのベースモデルはより強力であり、多くの思考プロセスデータを収集し、大量の高品質な思考データをスクリーニングして合成し、強力な評価能力を備えています。どの推論プロセスが正しいのかそれは間違っており、強化学習の使用が必要です。強化学習は本質的に探索と試行錯誤のプロセスです。それがうまくいかない場合は、別の方法を試してみてください。」と xiao yanghua 氏は述べました。これらのテクノロジーとデータを活用することで、openai は科学の学生が専門家レベルに到達できる大規模なモデルを実現しました。
daguan data の会長である chen yunwen 氏は、以前のモデルでは複雑で高度な数学的問題を計算できなかったが、o1 では数学的および推論能力が強化されており、これは大きな改善であると述べた。ただし、数学的能力の向上は、大規模モデルの研究開発パラダイムが本質的な変化を遂げたことを意味するものではなく、以前の欠点が改善されただけです。
xiao yanghua 氏の見解では、o1 の出現は予想外ではありませんでした。「実際、私たちは、大きなモデルのほうがより強い感情的能力とより強力な理性的能力を持っていると判断しました。予想外だったのは、これほど早く出現するとは予想していなかったということです。それはここにあり、その効果は非常に素晴らしいです。将来、openai は、一般的な大規模モデルに基づいて、さまざまな処理を得意とする多くの大規模なモデルに分化する可能性があると考えています。」
たとえば、gpt-4 の以前のバージョンはすべての知識と事実に精通しており、知的能力を重視していましたが、gpt-4o はマルチモーダルな相互作用を重視し、知覚能力を重視していました。モデルの合理性の向上により、to b 業界は驚異的な発展を遂げることができます。 「to b の最大の悩みとボトルネックは、大規模モデルの推論機能にあります。新しい推論モデル o1 シリーズの登場は、to b 業界の多くの問題が将来的に大幅に軽減される可能性があることを意味します。」
人工知能の急速な発展がもたらす課題
「openai は本当に強力です。これまでの openai の技術ロードマップは認識の範囲を超えていませんが、マルチモダリティや推論機能の向上など、大規模モデルの開発方向性は誰もが知っていますが、それを迅速に現実化したのは openai だけです。彼らは人間とまったく同じ方法で大規模なモデルを訓練しており、人間の知能と認知発達について非常に明確な理解を持っていますが、これまでのところ発見されていません。間違った手順はありませんか?」シャオ・ヤンファが説明します。
国内の大規模モデルの開発に関しては、openai には明確な先行者利点がある。「openai の利点はすべて、私たちにとっては欠点です。落ち着いて、ゆっくりと追いつく必要があります。一般的な人工知能のトラックでは、先行者のみが存在します。しかし、長期的には、大型モデルの個々の能力の向上には限界があると蕭陽華氏は述べた。なぜなら、人間の本物のオリジナルデータは限られており、生産速度も遅いからです。 「現在、openaiは人間のデータを使用して新しいデータを合成し、推論能力を強化しています。しかし、合成データは元のデータによって制限されます。無限のデータを合成することはできず、本質的に新しいデータを取得することもできません。このため、新しい主題を発明することはできません。」アインシュタインのような新しい理論 「ハードウェアの観点から言えば、推論にはトレーニングよりも少ない計算能力が必要ですが、思考連鎖の拡張により推論の効率に対する要件が高くなり、推論の高速化と最適化に対する要件がより高くなります。プロセス。 。
しかし、大規模なモデルは多くの面で改善されていますが、ガバナンスに課題をもたらしています。課題は、大規模モデルに対する人間の理解がそれほど早く進んでいないことです。
哲学者カントは人間の認知過程を知覚段階、知的段階、理性段階の3段階に分けました。現在、大型模型の感性、知性、合理性はいずれも向上しており、この3つの認知能力を兼ね備えた人はほとんどいないでしょう。
「現在、o1は博士課程の学生のレベルに達しています。将来的には、科学者のレベルに達するのは、量的な変化を達成するプロセスにすぎません。人類は徐々に人工知能の発展の認知的な盲点に陥るでしょう。例えば、現在の大きなモデルの推論能力は、本当に ai で使用できるのでしょうか? 博士号レベルに到達できる人はますます少なくなるでしょう。数学、物理学、化学、あるいは数学において、ai を理解し、認識し、制御できる人は何人いるでしょうか? 「人間は現在博士レベルにあります。人工知能の基本的な認知フレームワークが欠如しています。これは巨大なガバナンスです。」雇用、経済、倫理、社会関係などのテーマは、広範な議論を引き起こすでしょう。「人工知能が超人的な能力を持っているなら、それは人間が発動できない超能力になる可能性があります。」人間の認識レベルを超えています。」
ザ・ペーパー記者の張晶
(この記事はthe paperからのものです。よりオリジナルの情報については、「the paper」アプリをダウンロードしてください)
レポート/フィードバック