- Google は、AI 製品の機能を強化する Gemini 2.0 を発表しました。
- Gemini 2.0 はエージェント AI に重点を置き、複数ステップの問題解決を改善します。
- Google の Project Astra と Mariner は、人気のあるサービスとの高度な AI 統合を紹介します。
12月になり、すべてのAI企業がこの1年間取り組んできたことを披露する時期が来たことを意味しているようだ。 Google も例外ではなく、次世代 AI モデルである Gemini 2.0 の蓋を開け、賢さと機能が大幅に向上すると約束しています。
Gemini 1.0 のテーマがマルチモダリティ (テキストや画像など、さまざまな種類の情報を組み合わせて理解する能力) だった場合、Gemini 2.0 はエージェント、つまりより自律的に動作し、限られた人間の入力で多段階の問題を解決できる AI がすべてです。
「昨年、私たちはよりエージェント的なモデルの開発に投資してきました。つまり、このモデルは、ユーザーの周囲の世界についてより深く理解し、何段階も先を考え、ユーザーの監督のもとでユーザーに代わって行動を起こすことができるのです」と Google CEO のサンダー・ピチャイ氏は次のように述べています。水曜日に Gemini 2.0 を発表したブログ投稿。
今週、ユーザーは Gemini 2.0 の新機能の一部を試すことができます。これには、Gemini が Web 上でトピックに関する情報を検索し、読みやすいレポートとして作成する新しい「ディープ リサーチ」機能が含まれます。 Googleによると、Gemini Advancedの加入者が利用できるDeep Researchは、学習した内容に基づいて新たな検索を開始する前に、Web上で関連情報を検索して見つけ出すという点で人間のように機能するという。
Googleは、検索のAI概要機能にGemini 2.0を導入する予定だ。 Google がウェブから回答を取得する方法を劇的に変えたこの機能は、波乱万丈なスタートを切りました (ピザのノリ、誰でも?)。その後、Google は概要を縮小し、パフォーマンスを向上させるためにさまざまな技術的な調整を行いました。
Gemini 2.0 では、Overviews は複数ステップの質問や、テキストと画像を使用するマルチモーダル クエリなど、より複雑な検索に取り組むことができると Google は述べています。 Googleは今週すでに改善された概要のテストを開始しており、来年初めにさらに広範囲に展開する予定だと述べた。
Google は今週、開発者が試用できる Gemini 2.0 Flash の実験版 (大量のタスクを高速に行うために設計されたモデル) も公開します。ブラウザまたは Gemini アプリを通じて Gemini チャットボットにアクセスする人は誰でも、新しいモデルでそれを試すことができます。
Googleは、Flash 2.0によりGeminiはより速く、より賢く、より推論できるようになると述べた。画像をネイティブに生成することもできるようになった(以前、GoogleはGemini内で画像を思い起こさせるために別のAIモデルをつなぎ合わせていた)。 Googleは、Gemini 2.0の世界に関する膨大な知識を活用しているため、画像生成が改善されるはずだと述べた。
プロジェクト・アストラ
Googleがからかったその他の興味深い新発表のほとんどは、しばらくの間、広く一般に公開されることはない。
その 1 つは、Google が 5 月の I/O で初めてプレビューした Project Astra です。 Googleは、周囲の世界を認識して質問に答えるリアルタイムAIアシスタントのデモを行った。現在、Google は Gemini 2.0 をベースに構築された Astra のさらに優れたバージョンを公開しており、同社によると、検索、レンズ、マップなどの Google の最も人気のあるサービスの一部を利用できるとのことです。
新しい仮想デモでグーグルは、誰かがロンドンのバスに携帯電話のカメラをかざし、アストラがそのバスでチャイナタウンまで行けるかどうかの質問に答える様子を見せた。 Googleによれば、新しく改良されたAstraは複数の(そして混合した)言語で会話することもできるという。
Googleは限られた数の初期テスターにAstraを公開する予定だが、より多くの人がいつアクセスできるようになるかは明らかにしていない。 Google DeepMindのAstraプロダクトマネージャーであるBibo Xu氏は電話会議で記者団に対し、Googleはこれらの機能が時間をかけてアプリを通じて展開されることを期待していると述べ、Astraが1つの大きな製品としてではなく段階的に登場する可能性があることを示唆した。
Googleはまた、拡張現実メガネ上で動作するAstraをからかった。
プロジェクトマリナー
さらに、Google は、AI がブラウザを制御し、Web 上で情報を探索できるツールである Project Mariner をからかいました。 Web ページ上のピクセル、画像、テキスト、コードを認識し、それらを使用してナビゲーションし、答えを見つけることができます。
GoogleはMarinerを初期の研究プロトタイプと呼び、初期のテスターの選ばれたグループにのみChrome拡張機能を介して試用させていると述べた。
Google Labsのプロダクトマネージャー、ジャクリン・コンゼルマン氏は「われわれはコンピューター利用におけるAIエージェントの全機能を早期に理解しており、ユーザーに代わってアクションを実行できるAIモデルに伴うリスクも理解している」と述べた。
例えばグーグルは、オンラインで購入する前にマリナーに最終確認を求めるなど、特定の行動を制限すると発表した。
チップシェアはありますか?共有すべき洞察はありますか?記者の Hugh Langley には、暗号化されたメッセージング アプリ Signal (+1-628-228-1836) または電子メール (hlangley@businessinsider.com)。