すでにヘッドマウントカメラとオープンイヤーヘッドフォンとしてうまく機能していましたが、今では Meta は ウェイクワードを必要としないライブ AI へのアクセス、いくつかの異なる言語間でのライブ翻訳、音楽を識別するための Shazam へのアクセスが可能です。
これらの機能のほとんどは 9 月にメタ化されます。 Live AI を使用すると、Meta AI との「ライブ セッション」を開始できます。これにより、アシスタントは見ているものすべてにアクセスでき、「ヘイ、メタ」と言わなくても質問できるようになります。料理をしたり何かを直したりするためにハンズフリーが必要な場合、何をしているかに集中する必要がある場合でも、Live AI はスマート グラスを便利に保ちます。
ライブ翻訳により、スマート グラスで英語とフランス語、イタリア語、またはスペイン語の間で翻訳できます。ライブ翻訳が有効になっており、誰かが選択した言語のいずれかであなたに話しかけると、スマート グラスのスピーカーを通じて、または Meta View アプリに入力された文字起こしとして、英語で話している内容を聞くことができます。各言語間で翻訳するには特定のモデルをダウンロードする必要があり、実際に通訳として機能する前にライブ翻訳を有効にする必要がありますが、何かを翻訳するために携帯電話を差し出すよりも自然に思えます。
Shazam との統合により、Meta スマート グラスは周囲で流れている曲を識別できるようになります。シンプルに「メタ、この曲は何ですか」と話しかけるだけで、スマートフォンで Shazam を使用するのと同じように、スマート グラスのマイクがあなたが聴いている曲を認識します。
3 つのアップデートはすべて、スマートフォンに代わる真の拡張現実メガネという Meta の最終目標に向けてウェアラブルを一歩一歩前進させたものであり、このアイデアは現実のプレビューです。 AI と VR または AR を組み合わせるというアイデアは、複数のテクノロジー大手も検討しているようです。 Google の最新の XR プラットフォームは、Gemini のような生成 AI が VR や AR を魅力的なものにする接着剤になる可能性があるという考えに基づいて構築されています。ホログラフィック画像を使って実際に視界を変える企業が出てくるまでにはまだ何年もかかりますが、それまでの間、スマートグラスはある程度有用な一時しのぎのように思えます。
すべての Ray-Ban Meta スマート グラスの所有者は、Meta の v11 アップデートの一部として Shazam の統合を楽しむことができます。ライブ翻訳とライブ AI を使用するには、今すぐ参加できる Meta の早期アクセス プログラムに参加する必要があります。 。