私の連絡先情報
郵便管理者@information.bz
2024-08-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
2024 年ですが、まだトランスフォーマーの仕組みを理解していない人はいますか?ぜひこのインタラクティブなツールを試してみてください。
2017 年、Google は論文「attention is all you need」で Transformer を提案し、ディープラーニングの分野で大きな進歩となりました。この論文の引用数は 130,000 近くに達しました。GPT ファミリの後続モデルもすべて Transformer アーキテクチャに基づいており、その幅広い影響力が示されています。
ニューラル ネットワーク アーキテクチャとして、Transformer はテキストからビジョンまでのさまざまなタスク、特に現在注目されている AI チャットボットの分野で人気があります。
しかし、多くの非専門家にとって、Transformer の内部動作は依然として不透明であり、理解と参加の妨げとなっています。したがって、このアーキテクチャをわかりやすく理解することが特に必要です。ただし、多くのブログ、ビデオ チュートリアル、3D ビジュアライゼーションでは、数学とモデルの実装の複雑さが強調されることが多く、初心者は混乱する可能性があります。同時に、AI 実践者向けに設計された視覚化作業は、ニューロンおよび階層的な解釈可能性に焦点を当てており、専門家以外にとっては困難です。
そこで、ジョージア工科大学とIBM Researchの数人の研究者が開発したWeb ベースのオープンソースのインタラクティブな視覚化ツール「Transformer Explainer」は、専門家以外でも Transformer の高度なモデル構造と低レベルの数学的演算を理解するのに役立ちます。。以下の図 1 に示すように。
Transformer Explainer は、テキスト生成を通じて Transformer の内部動作を説明します。サンキーダイアグラムの視覚化設計、トランスフォーマーを動的システムとして扱う最近の研究に触発され、入力データがモデル コンポーネントをどのように流れるかを強調しています。結果から、サンキー ダイアグラムは、モデル内で情報がどのように転送されるかを効果的に示し、Transformer 操作を通じて入力がどのように処理および変換されるかを示します。
コンテンツの面では、Transformer Explainer は Transformer の構造を要約するモデル概要を緊密に統合しており、ユーザーが複数の抽象化レベル間をスムーズに移行して、低レベルの数学的演算と高レベルのモデル構造の間の相互作用を視覚化して、複雑な概念を完全に理解できるようにします。トランスフォーマーで。
機能の面では、Transformer Explainer は Web ベースの実装を提供するだけでなく、リアルタイムの推論機能も備えています。カスタム ソフトウェアのインストールが必要な、または推論機能が不足している多くの既存のツールとは異なり、最新のフロントエンド フレームワークを使用してブラウザーでネイティブに実行されるリアルタイム GPT-2 モデルが統合されています。ユーザーは入力テキストをインタラクティブに実験し、Transformer の内部コンポーネントとパラメータがどのように連携して次のトークンを予測するかをリアルタイムで観察できます。
Transformer Explainer は、高度なコンピューティング リソース、インストール、プログラミング スキルを必要とせずに、最新の生成 AI テクノロジーへのアクセスを拡張します。 GPT-2 が選ばれた理由は、このモデルがよく知られており、推論速度が速く、GPT-3 や GPT-4 などのより高度なモデルとアーキテクチャが似ているためです。
論文アドレス: https://arxiv.org/pdf/2408.04619
GitHub アドレス: http://poloclub.github.io/transformer-explainer/
オンライン体験アドレス:https://t.co/jyBlJTMa7m
動画链接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==∣=2650929831&idx=1&sn=d0e5c01537def9f92c64dda2ea3c6626&chksm=84e43ed9b393b7cf177414848de aed70ac2a5b1522a12e3399920d4862e398c113b96af7b76e&token=522918026⟨=zh_CN#rd
自己入力に対応しているので、Machine Heartでも「what a beautiful day」を試してみたところ、実行結果が以下の図に示されています。
多くのネチズンはTransformer Explainerを高く評価しています。これは非常にクールなインタラクティブ ツールだという人もいます。
自己注意と位置エンコーディングを説明する直感的なツール、それが Transformer Explainer を待っていたという人もいます。それはゲームを変えるツールとなるだろう。
他の人が中国語訳を作成しました。
表示アドレス: http://llm-viz-cn.iiiai.com/llm
ここで私は、大衆科学のもう一人の偉大な人物、Karpathy のことを思い出さずにはいられません。彼はこれまでに GPT-2 の再現に関する多くのチュートリアルを書いています。その中には、「元 OpenAI と Tesla の新しいプロジェクトである純粋な C 言語の手巻き GPT-2 も含まれます。」 Executives は人気があります。」、「Karpathy の最新の 4 時間のビデオ チュートリアル: GPT-2 を最初から再現し、一晩実行して完了する」など。 Transformerの内部原理を可視化するツールも登場したので、両者を併用するとより学習効果が高まると思われます。
Transformer Explainer システムの設計と実装
Transformer Explainer は、Transformer ベースの GPT-2 モデルがテキスト入力を処理し、次のトークンを予測するためにどのようにトレーニングされるかを視覚化します。フロントエンドは Svelte と D3 を使用してインタラクティブな視覚化を実装し、バックエンドは ONNX ランタイムと HuggingFace の Transformers ライブラリを使用してブラウザで GPT-2 モデルを実行します。
Transformer Explainer を設計する際の大きな課題は、すべての詳細を一度に表示すると要点から逸れてしまうため、基礎となるアーキテクチャの複雑さを管理することでした。この問題を解決するために、研究者は 2 つの重要な設計原則に細心の注意を払いました。
まず、研究者は複数のレベルの抽象化を通じて複雑さを軽減します。彼らは、さまざまな抽象化レベルで情報を提示するツールを構築します。これにより、ユーザーは概要から始めて、必要に応じて詳細に進むことができるため、情報過多が回避されます。最上位レベルでは、ツールは完全な処理フローを示します。つまり、ユーザーが指定したテキストを入力として受信し (図 1A)、それを埋め込み、複数の Transformer ブロックを介して処理し、処理されたデータを使用して最も可能性の高い次の A トークン予測を予測するまでです。並べ替えられています。
注意行列の計算 (図 1C) などの中間操作は、計算結果の重要性を視覚的に表示するためにデフォルトで折りたたまれていますが、ユーザーはアニメーション シーケンスを通じてその導出プロセスを展開して表示することを選択できます。研究者らは、エンドツーエンドのデータ フローを維持しながら、ユーザーがアーキテクチャ内の繰り返しパターンを識別できるように、アテンション ヘッドを積み重ねたり、繰り返しの Transformer ブロックを折りたたんだりするなど、一貫した視覚言語を採用しました。
第二に、研究者は双方向性を通じて理解と関与を強化します。 温度パラメータは、Transformer の出力確率分布を制御する際に重要であり、次のトークン予測の確実性 (低温時) またはランダム性 (高温時) に影響します。しかし、トランスフォーマーに関する既存の教育リソースは、この側面を無視していることがよくあります。ユーザーは、この新しいツールを使用して温度パラメータをリアルタイムで調整し (図 1B)、予測の確実性を制御する際の重要な役割を視覚化できるようになりました (図 2)。
さらに、ユーザーは提供された例から選択することも、独自のテキストを入力することもできます (図 1A)。カスタム入力テキストをサポートすると、さまざまな条件下でモデルの動作を分析し、さまざまなテキスト入力に基づいて独自の仮定を対話的にテストすることで、ユーザーがより深く参加できるようになり、ユーザーの参加意識が高まります。
では、実際の応用シナリオにはどのようなものがあるのでしょうか?
ルソー教授は、生成 AI の最近の進歩を強調するために、自然言語処理コースのコース内容を最新化しています。彼女は、一部の学生が Transformer ベースのモデルを捉えどころのない「魔法」とみなしている一方で、他の学生はこれらのモデルがどのように機能するかを理解したいと思っているものの、どこから始めればよいかわからないことに気づきました。
この問題を解決するために、彼女は学生に Transformer Explainer を使用するよう指導しました。これは、Transformer のインタラクティブな概要を提供し (図 1)、学生が積極的に実験して学習することを奨励します。彼女のクラスには 300 人を超える学生がおり、Transformer Explainer はソフトウェアや特別なハードウェアをインストールする必要がなく、完全に学生のブラウザ内で実行できることは大きな利点であり、ソフトウェアやハードウェアのセットアップの管理に関する学生の不安を解消します。
このツールは、アニメーション化されたインタラクティブな可逆的な抽象化を通じて、学生に注意計算などの複雑な数学的操作を紹介します (図 1C)。このアプローチは、学生が操作の高度な理解と、これらの結果を生み出す基礎となる詳細の両方を深く理解するのに役立ちます。
ルソー教授はまた、変圧器の技術的能力と限界が擬人化されることがある(例えば、温度パラメータを「創造性」制御とみなす)ことも認識していた。彼女は、生徒に温度スライダー (図 1B) を試してもらうことによって、温度が実際に次のトークンの確率分布をどのように変更するのか (図 2)、それによって決定論的かつ創造的な方法で予測のランダム性を制御し、次のトークンとトークンのバランスを取る方法を生徒に示しました。出力。
さらに、システムがトークン処理プロセスを視覚化すると、学生はここにいわゆる「魔法」がないことがわかります。入力テキストが何であっても (図 1A)、モデルは明確に定義された一連の操作に従います。 Transformer アーキテクチャでは、一度に 1 つのトークンをサンプリングし、このプロセスを繰り返します。
今後の仕事
研究者たちは、学習体験を向上させるために、ツールのインタラクティブな説明を強化しています。同時に、WebGPUによる推論速度の向上や、圧縮技術によるモデルサイズの削減も行っている。また、Transformer Explainer の有効性と使いやすさを評価するためのユーザー調査を実施し、AI の初心者、学生、教育者、実践者がツールをどのように使用するかを観察し、サポートしてほしい追加機能に関するフィードバックを収集することも計画しています。
何を待っていますか? 始めて体験し、トランスフォーマーに関する「魔法」の幻想を打ち破り、その背後にある原理を真に理解してください。