2024-10-04
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
新しい知恵のレポート
私は google deepmind に参加して、ビデオ生成とワールド シミュレーターに取り組む予定です。このような才能あるチームと一緒に仕事ができるのが待ちきれません。
私はここにいますopenaisora の制作にかかった 2 年間は素晴らしい時間でした。一緒に仕事をしている情熱的で親切な人々全員に感謝します。次のステージに向けてワクワクしています!
ひょうたんを押してスクープを開始 発売日に正式に辞任を発表するのがopenaiの伝統になりそうだ。
deepmind と google research のチーフサイエンティストである jeff dean 氏や、google ai studio のプロダクト リーダーである logan kilpatrick 氏など、google の上司たちがコメント エリアで祝福しました。
deepmind 推論チームの創設者兼リーダー、denny zhou 氏 —
gpt-4o の完全リリース前に辞任した「her」プロジェクトの責任者 alexis conneau 氏は google には入社しませんでしたが、オンラインでジョークを言い始めました - 元 openai 従業員になることを歓迎します。
google独自の動画生成モデルveoがsoraを超えると期待されているようです。
現在、sora のもう 1 人の共同リーダーである bill peebles はまだ openai で働いています。
今年 2 月にリリースされましたが、sora はまだ「将来モデル」であり、レッドチームのテスターとアーティストの少数のグループにのみ公開されています。
「今秋」の旗が掲げられている「her」プロジェクトとは異なり、openaiはオンライン化の明確な期限を示していない。
、ctoや担当者の相次ぐ退職に遭遇し、ソラの将来は再び不透明になった。
個人的な経験
tim brooks は openai の sora プロジェクトを共同主導しており、彼の研究は現実世界をシミュレートできる大規模な生成モデルの開発に焦点を当てています。
この男性はバークレー ai 研究センターで博士号を取得しており、博士課程の指導教官はアリョーシャ エフロスでした。彼は博士号取得中に、instructpix2pix と呼ばれるテクノロジーを提案しました。
openai に入社する前は、google で pixel モバイル カメラの ai テクノロジーの開発に参加し、エヌビディアビデオ生成モデルに取り組みました。
同時にdall・e 3の主な研究者でもある。
彼の履歴書のもう 1 つの部分は、本当に刺激的です。彼の写真作品は、「ナショナル ジオグラフィック」、「ネイチャーズ ベスト フォトグラフィー」、「全米野生動物連盟」から賞を受賞しています。
彼の動物の写真:
彼はニューヨークのブロードウェイのビーコン劇場でも演奏し、アカペラの国際コンクールで賞を受賞しました。
ネチズンたちは彼がそのような自由を持っていることに羨望の声を上げた。
さらに、ティム・ブルックス氏も履歴書で「私はaiに情熱を持っており、幸いなことに、この情熱は私の趣味である写真、映画、音楽と完全に融合しています」と、やや「ベルサイユ」風に述べている。
deepmind に入社した後も、引き続きビデオ生成とワールド シミュレーターに関連する仕事に従事し、ai への情熱と写真や映画の趣味を統合し続けると言いました。
ビデオ生成からシミュレートされた世界まで
sora モデルのリリースからわずか 2 か月後の今年 4 月、共同リーダーの tim brooks 氏と bill peebles 氏は、agi house が主催した基調講演に参加し、ビデオ生成テクノロジについての見解を表明しました。「すべてをシミュレートします。agi の実装」 」。
sora などの vincentian ビデオ モデルによって実証された複雑なシーン生成機能は、人間の相互作用や物理的接触の詳細な理解を徐々に明らかにし、agi への重要なステップとなります。
現実的なコンテンツと現実的な画像を含むビデオを生成するには、環境内ですべての物体と人間がどのように動き、相互作用するかを理解するための内部モデルが必要であるため、sora は一般的な人工知能の開発に貢献すると考えています。
方法論の観点から言えば、tim brooks と bill peebles はどちらもモデルのスケーラビリティを特に強調し、言語モデルがこれほど成功している理由はその拡張能力にあると考えており、「the bitter lesson」で次のような見解を引用しています。
長期的には、コンピューティング能力が向上するにつれて、拡張に応じてパフォーマンスを向上させる方法が最終的には勝利を収めることになります。
transformer ベースのフレームワークを作成し、さまざまな sora モデルを比較することで、モデル トレーニングにおける計算量の増加がパフォーマンスの向上に与える影響を実証しました。
基本モデルから計算量が 32 倍に増加したモデルに至るまで、シーンやオブジェクトの理解が徐々に向上していることがわかります。
私たちは常にアプローチをシンプルに保つよう努めてきましたが、現実は思っている以上に困難な場合もあります。
私たちの主な焦点は、何かをできるだけシンプルにして、それを大規模にスケールすることです。