私の連絡先情報
郵便管理者@information.bz
2024-08-14
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
著者 | シンシン
編集 | ジンユ
Apple に先駆けて、Google は新しい Pixel スマートフォンで AI+ スマートフォンのあらゆる可能性を実証しました。
Googleは現地時間8月13日、Pixel 9、Pixel 9 Pro、第2世代折りたたみ画面Pixel 9 Fold、スマートウォッチ、ヘッドフォンなどの新ハードウェア製品を発表した。ハードウェアと比較して、人々は、AI+ 携帯電話が非常に人気があるときに、Android システムの管理者として Google が Android 携帯電話にオンデバイス AI をどのように使用するかについてより懸念しています。
約 10 か月前、Google は第 1 世代の AI 携帯電話を発売しましたが、1 年も経たないうちに、この巨人は再び Gemini、Android、Pixel の製品ポートフォリオを更新しました。持っています。」
OpenAIがChatGPT音声モードを開始し、Appleの次世代iPhoneのAI機能が公開されて以来、GoogleはAI音声会話、スクリーンショット内の情報の検索など、同業他社ができることにおいて後れを取ることを望んでいない。同時に、Google は AI を自社のアプリケーション エコシステムにさらに統合しています。
Google は Apple と競争しなければならない AI 携帯電話のリーダーは誰でしょうか?
OpenAIへの対応として、
Gemini ライブはオンラインです
Gemini は Google のさまざまな AI 製品の基礎であり、Google の Pixel 9 シリーズ携帯電話のデフォルト アシスタントです。Gemini が携帯電話に統合されたときにどのようなアップグレードが行われるかが、カンファレンスの主な焦点でした。
Google Pixel スマートフォンの Gemini は、電源ボタンを押すことで呼び出すことができます。 Google幹部らによると、ユーザーは本日から、使用しているアプリの上にGeminiオーバーレイを表示して、画面に表示されている内容について質問できるようになったという。たとえば、ユーザーは見ている YouTube ビデオについて質問したり、Gemini のオーバーレイから直接画像を生成して、Gmail や Google メッセージなどのアプリにドラッグ アンド ドロップしたりできます。
Googleはまた、「今後数週間以内に」Geminiをカレンダー、Keep、YouTube Musicなどのより多くのアプリに接続する予定だ。具体的な機能としては、Gemini に「90 年代後半を思い出させる曲のプレイリストを作成する」ように依頼すること、「コンサートのチラシの写真を撮って、Gemini にその日の空席状況を確認するように依頼すること、さらにはチケット購入のリマインダーを設定することも含まれます。」 Gmail でレシピを見つけて、Keep の買い物リストに材料を追加するように依頼してください。」
Gemini はスクリーンショットを使用して情報を抽出し、より多くのアプリと対話します。 画像出典: Google |
これらの統合エクスペリエンスに加えて、Google は Gemini Live も正式に開始しました。この機能は、OpenAI によって開始された GPT-4o 高度な音声モードに対する Google の対応であると言えます。この機能は以前、Google の 2024 I/O Developer Conference で公開されており、本日正式に開始されます。
ユーザーは携帯電話を使用して、Google の生成 AI チャットボットである Gemini と音声会話を行うことができ、途中で中断してフォローアップの質問をしたり、いつでも会話を一時停止したり再開したりできます。具体的な使用例としては、Gemini Live を同行させて就職面接の準備をしたり、スピーチを練習したり、気になるトピックについて気軽にチャットしたりすることが挙げられます。
Gemini Live は明らかに GPT-4o の音声インタラクションのベンチマークを目的としています|画像出典: Google
では、Gemini Live には ChatGPT の音声モードに比べて利点はありますか?
Live - Gemini 1.5 Pro および Gemini 1.5 Flash をサポートする生成 AI モデル アーキテクチャは、平均よりも長い「コンテキスト ウィンドウ」を備えていると言われています。これは、応答を生成する前に大量のデータを処理および推論できることを意味します。理論上、会話は何時間も続くことがあります。
Gemini Live はハンズフリーでも機能するため、ユーザーはアプリのバックグラウンドや電話がロックされているときでも、10 の新しい音声から選択して音声会話を続けることができます。
ただし、Gemini Liveは「今年後半」に開始されると言われている「マルチモーダル入力」機能をまだ開始していないことは注目に値します。
数か月前、Googleは、Gemini Liveが携帯電話のカメラで撮影した写真やビデオを通じてユーザーの周囲をどのように認識し、壊れた自転車の部品を指摘したり、コンピューター画面で何が起こっているかを説明したりするなどの対応を行う様子を示す事前録画ビデオを公開した。 . コードの一部の機能。ライブで実証されたものはありません。
さらに、Gemini Live は、Android スマートフォンの Gemini Advanced サブスクライバーが利用できますが、無料ではありません。現在は英語でのみ利用可能だが、Googleは「今後数週間以内に」より多くの言語に拡大し、アプリ経由でiOSにも拡大する予定だとしている。
Google幹部による生放送デモンストレーション Gemini Live|画像出典:Google
Google Gemini の経験と Google アシスタントの幹部は、「Google は、AI を活用したアシスタントが役立つさまざまな方法を模索する初期段階にあります。そして、Pixel 携帯電話と同じように、Gemini もますます改良されるでしょう。」と述べました。
さらに、プライバシー問題に関して、GoogleのAndroidエコシステムの幹部らは、Geminiは数十の端末メーカーの数百の携帯電話モデルをサポートしており、ユーザーデータを処理する際、データは携帯電話から流出しないと述べた。
「Gemini は、パーソナル トレーナーからのメールに基づいて毎日のワークアウト プランを作成したり、Google ドライブの履歴書を使用して職務プロフィールを作成したりするのに役立ちます。この安全でオールインワンの方法ですべてを実行できるのは Gemini だけです。データは、あなたが知らない、または信頼できないサードパーティの AI プロバイダーに渡されます」と Google の Android エコシステム担当社長の Sameer Samat 氏は述べています。
「Android は、Gemini Nano と呼ばれる大規模なオンデバイス マルチモーダル AI モデルを備えた最初のモバイル オペレーティング システムであるため、最も機密性の高いユースケースを処理している間、データが携帯電話から離れることはありません。」
AI が Android にさらに統合される
AIフォンを推進するGoogleの最大の利点は間違いなく、その複数のアプリケーションツールとAndroidエコシステムにあり、現在Googleには数十億人のAndroidユーザーがおり、明らかにチャットボットアプリケーションよりもその余地が大きい。
昨年、Google の Pixel 8 シリーズは、初の AI 中心のスマートフォンとして、さまざまな AI 機能を搭載しました。たとえば、ユーザーは写真内の個々の要素を削除、移動、編集したり、写真間で表現を移動して最適な合成写真を取得したり、スクリーンショットや画面の「丸で囲んだ部分」に基づいて検索したりすることができます。
これらの機能はすべて Pixel 8 シリーズに初めて搭載され、それ以来 Android エコシステム全体に広がっています。
Google の「サークル検索」機能は、実際に Samsung の Galaxy AI スマートフォンに初めて搭載されました。Google の Android エコシステム パートナーとして、Samsung のスマートフォンにも同様の AI 機能が多数追加されています。前述の AI アシスタント Gemini は、サムスンの Galaxy Z Fold6、Motorola Razr+、その他の携帯電話にも搭載されています。
同時に、他のメーカーも独自の携帯電話 AI を発表することを発表しています。ここ数か月で最も注目を集めているのは、Apple と同じ方向性とコンセプトであり、独自のアプリケーション エコシステムを統合することです。
この1年近くで、Google携帯電話に限らず、「AI携帯電話」は市場の携帯電話観の中心的な視点になったと言えるだろう。 AIを使っていかに人を輝かせるかがGoogleの課題だ。現在、第一世代の AI フォン Pixel 8 を発売したときと同様に、Google の最も多くの製品は依然としてさまざまな AI 機能ガジェットです。
今年の Made By Google イベントでは、Google の主な新しい AI 機能は次のとおりです。
「Add Me」を使用すると、写真を撮っている人も集合写真に自分自身を含めることができます。
「Pixel Studio」は、Apple の今後の Image Playground アプリによく似た AI 画像ジェネレーターです。
「ピクセル スクリーンショット」は、ユーザーのギャラリーからスクリーンショットをスキャンし、簡単に検索できるデータベースに変換します。
「通話メモ」では、通話履歴に情報の概要を保存できます。この機能を有効にすると、通話中の全員に通知が届きます。
このうち「Add Me」機能を実装したい場合、まず撮影者が自分抜きで写真を撮り、その後別の人が撮影者となって再度写真を撮影します。 Pixel は 2 枚の写真を結合して全員が 1 枚の写真に収まるようにするため、見知らぬ人に写真を撮ってもらう必要はありません。
集合写真機能|画像出典:Google
GoogleのPixel 9シリーズの位置付けの大きなセールスポイントは、自らを「世界初のAI駆動カメラ」と呼ぶAIカメラでもある。 Google幹部らはまた、「Pixelは写真やビデオで夜景モードを使用した最初の携帯電話であり、今回は低光量下で素晴らしいパノラマ風景や街並みを撮影できる最初の携帯電話でもある」と主張し、記者会見では撮影した写真も比較した。 Pixel 9 Pro XLからAppleのiPhone 15 Pro Maxまで。
Google携帯電話とApple携帯電話の夜間撮影効果|出典:Google
超大画面の折りたたみ式 Pixel 9 Pro Fold には、ユーザーの注目を集めてカメラに向かって微笑むことができる「Made You Look」機能もあります。この機能を使用する場合、携帯電話を広げると、明るい黄色の鶏やその他の面白いアニメーションなど、目を引くビジュアルアニメーションが外部画面の片側に再生されます。
ユーザーの注目を集める画面の特徴|画像出典:Google
写真を撮った後は写真編集ツールもあり、今年は Google フォトの Magic Editor がいくつかの新機能をリリースしました。例えば、「オートフレーム」機能で傾いた写真の角度を補正したり、生成AIで被写体の周りの隙間を埋めて広い視野を作り出したりします。テキストボックスに希望の効果を記述すると、地面の草を野の花に変えたり、特定の部分に熱気球を追加したりするなど、生成AIを使用してPピクチャを作成できる「Reimagine」機能もあります。空など
さらに、Google は Apple に倣い、緊急時に使用するための「衛星 SOS」機能を開始しました。この機能により、ユーザーは携帯電話サービスが利用できないときに緊急対応者に連絡し、位置情報を共有できます。 Google幹部によると、Pixel 9シリーズは「衛星SOSを利用できる初のAndroidスマートフォン」となるという。
衛星SOS機能|画像出典:Google
機能的な観点から見ると、Pixel 9+ Gemini の組み合わせは AI の点で現在の国内 Android メーカーを大きくリードするものではありません。ただし、Apple とは異なり、Google は独自のシステムや端末、大型モデルやクラウド コンピューティングを持っており、その中で「ソフト、ハード、コア クラウド」のクローズド ループを真に完成させた企業であることに注意する必要があります。現在の企業。
端末 AI に画期的な進歩があれば、あらゆることに対応できる Google には、競合他社よりも「再び素晴らしいものにする」可能性がはるかに高くなります。
おそらく Google に欠けているのは、より大きな野心だけだろう。
※ヘッダー画像の出典:Google
この記事は Geek Park によるオリジナル記事です。転載については WeChat geekparkGO の Geek Jun までご連絡ください。