Samsung と Google は、Android XR と Google Gemini を搭載した Apple Vision Pro のような複合現実 VR ヘッドセットの開発に取り組んでいます。私たちはそれをすでに知っていて、昨年デモも行いました。しかしサムスンはまた、携帯電話に焦点を当てた冬季イベント「サムスン・アンパックド」でもう少し詳しいこと、具体的には、すべてを結合するために欠けている部分となる可能性がある、グーグルとサムスンの共通AIエコシステム・パートナーシップについても明らかにした。その AI を取り入れたエクスペリエンスは、今年、次世代 VR/AR ヘッドセットで提供される予定ですが、 ギャラクシーS25 電話とそれに接続するメガネ。
ある意味、私は昨年末にすでに今後の展望を掴んでいました。
この物語はその一部です サムスンのイベントSamsung の最も人気のある製品に関するニュース、ヒント、アドバイスを集めた CNET のコレクション。
リアルタイムに動く見るAI
サムスンは最新の Unpacked イベントで今後の VR/AR ヘッドセットとメガネについて簡単に取り上げましたが、それらについてはすでにほとんどのことを知っていました。それでも、サムスンが携帯電話やカメラを通して物事を確認できるリアルタイム AI のデモンストレーションは、まさに私たちのトレンドです。 2025年に到着すると予想されていた。
Project Moohan (韓国語で「無限」の意味) は、Vision Pro や メタのクエスト3。デザインは廃止されたMetaによく似ています クエストプロ しかし、はるかに優れたスペックを備えています。このヘッドセットには手と目の追跡機能があり、今年後半に完全に公開される Android XR OS を介して Android アプリを実行し、全体を通じて Google Gemini AI を支援レイヤーとして使用します。 Googleの プロジェクト・アストラ メガネ、電話、ヘッドセットでのリアルタイム支援を可能にするテクノロジー、 デビューしています Samsung の Galaxy S25 シリーズの携帯電話で。しかし、私はすでにそれが実際に私の顔に現れているのを見ました。
昨年のデモでは、部屋を見回したり、YouTube ビデオを見たり、その他基本的に何かをするときに Gemini を使用して支援することができました。 Live AI を使用するには、ライブ モードで起動する必要があり、その後、私が見たり聞いたりしているものを見たり聞いたりできるようになります。ライブアシスタントを一時的に停止する一時停止モードもありました。
サムスンは、同様のリアルタイム AI 機能と思われる機能を Galaxy S25 携帯電話で披露し、さらに多くの機能が約束されました。私の Android XR デモと同じように、YouTube でビデオを見ながらでも動作できると思います。また、Android XR に取り組んでいる Samsung と Google の幹部によると、ゲームのプレイ中のライブ ヘルプにも使用できる可能性があるとのことです。
バッテリー寿命と処理の向上…メガネ用?
サムスンとグーグルも、同じくGemini AIを使用したスマートグラスの開発に取り組んでいることを認めた。 メタのレイバン そしてその他の新たなアイウェアの波も。 ARグラスも開発中のようだ。
Project Moohan は、Apple の Vision Pro と同様に、独自のバッテリー パックとプロセッサを備えたスタンドアロン VR ヘッドセットですが、Google と Samsung が開発中の小型スマート グラス、およびそれ以降のすべてのグラスは、携帯電話からの接続と処理支援に依存します。働くこと。それが、Meta の Ray-Ban のようなスマート グラスがすでに機能している方法です。
ただし、機能が増えると、より集中的な電話処理が必要になる可能性があります。 Live AI は、これらのメガネを支援するために携帯電話に頼って、ますます使用される機能になり始める可能性があります。より優れた処理、グラフィックス、そして最も重要なバッテリー寿命と冷却の改善は、これらの携帯電話を最終的にメガネ用のポケットコンピューターとしてより優れたものにする方法のように私には思えました。
これらの AI ガジェットに必要な個人データ セット
Samsung はまた、Google と Samsung の AI が利用する、あいまいな響きのパーソナル データ エンジンも発表しました。これにより、AI がより豊かな結論と、あなたの生活の一部であるすべてのものとのつながりを開発できる可能性のある場所に個人データがバケット化されます。
それがどのように展開され、安全に保たれるのか、あるいはその限界がどこにあるのかは非常に不明瞭だった。しかし、それはサムスンとグーグルのAIが訓練し、時計、指輪、眼鏡などの接続された拡張製品と連携できる個人データのリポジトリのように聞こえる。
カメラ対応の AI ウェアラブルの性能は、それを支援できるデータによって決まります。AI モードの Meta の Ray-Ban を含め、これらのデバイスの多くが現時点で使いにくく、奇妙に感じられるのはそのためです。通常、これらの AI デバイスは、既存のアプリがすでによく知っていることを知ることに関して壁にぶつかります。 GoogleとSamsungは明らかにこの問題を解決しようとしている。
そのプロセスを Google や Samsung、あるいは他の誰かに任せたいでしょうか?これらのスマートフォンと将来のメガネは、AI とデータの関係をどのように明確にし、管理しやすくするのでしょうか? Google の I/O 開発者カンファレンスで Android XR と Gemini の進歩についてさらに詳しく議論される可能性が高いときに、他の靴が登場するのをここで見ているような気がします。
サムスンはProject Moohanを同社初のヘッドセットとし、その後メガネも開発する予定だ。 Googleは、5月か6月頃に開催される開発者中心のGoogle I/OカンファレンスでSamsungとともにさらなる詳細を明らかにし、おそらく夏のSamsungの次回予想されるUnpackedイベントで完全な概要を明らかにすると予想される。その頃には、この一見退屈に見える Galaxy S25 携帯電話の新しい波が、年末までに、あるいはそれ以降に、より明確に詳細に展開されるインフラストラクチャを構築している理由について、さらに多くのことがわかるかもしれません。