Meta がスマート グラスにライブ AI、ライブ翻訳、Shazam を追加

メタジャスト 発表された 同社のレイバン スマート グラスには、ライブ AI、ライブ翻訳、Shazam という 3 つの新機能が導入されています。ライブ AI とライブ翻訳はどちらも Meta の早期アクセス プログラムのメンバーに限定されていますが、Shazam のサポートは米国とカナダのすべてのユーザーが利用できます。

ライブ AI とライブ翻訳はどちらも、今年初めの Meta Connect 2024 で初めて公開されました。ライブ AI を使用すると、Meta の AI アシスタントが周囲の状況を継続的に監視しながら、自然に会話することができます。たとえば、食料品店の青果コーナーを熟読している場合、理論的には、見ている材料に基づいていくつかのレシピを提案するように Meta の AI に依頼することができます。メタ氏によると、ユーザーはフル充電でライブ AI 機能を一度に約 30 分間使用できるという。

一方、ライブ翻訳により、メガネは英語とスペイン語、フランス語、またはイタリア語の間で音声をリアルタイムで翻訳できます。メガネ自体を通して翻訳を聞くか、携帯電話でトランスクリプトを表示するかを選択できます。事前に言語ペアをダウンロードし、自分が話す言語と会話相手が話す言語を指定する必要があります。

Shazam のサポートはもう少し簡単です。曲を聞いたときにメタ AI に指示を出すだけで、何を聴いているのかを教えてくれるはずです。 Meta CEO の Mark Zuckerberg のデモを見ることができます。 インスタグラムのリール

機能がまだ表示されない場合は、メガネで v11 ソフトウェアが実行されていることと、Meta View アプリの v196 も実行されていることを確認してください。まだ早期アクセス プログラムに参加していない場合は、次の方法で申請できます。 このウェブサイト

今回のアップデートは、大手テック企業がスマートグラスの存在意義としてAIアシスタントを推し進めているまさにそのタイミングで行われた。つい先週、Googleはスマートグラス用の新しいOSであるAndroid XRを発表し、特にGemini AIアシスタントをキラーアプリとして位置づけた。一方、Meta CTO のアンドリュー・ボスワース氏は、 ブログを投稿したばかりです 「2024 年は AI メガネが本格的に普及した年だった」と述べています。その中でボズワース氏はまた、スマートグラスは「真のAIネイティブデバイス」として考えられる最良のフォームファクターであり、「最初からAIによって完全に定義された」最初のハードウェアカテゴリである可能性があると主張している。



出典