Apple の Google レンズに対する Visual Intelligence の使い方

最近の iOS 18.2 の公開により、Genmoji や Image Playground など、約束された Apple Intelligence 機能の多くがついに導入されました。そのような待望のツールの 1 つが Visual Intelligence です。これは現在 iPhone 16 Pro および Pro Max 向けに予約されている機能で、同社の 9 月のイベントで初めて導入されました。

Visual Intelligence は、Google レンズに対する Apple の答えです。カメラシステムとAIを活用して、 リアルタイムで画像を分析する そして有益な情報を提供します。これは、人々が自分の周囲の世界についてさらに学ぶのに役立ち、ショッピング、レストランやビジネスの詳細の検索、書かれたテキストの翻訳、テキストの要約、または何かを読み上げてもらう場合に特に便利です。 Google 画像検索や ChatGPT と統合することもできます。

注意点が2つあります。 Apple Intelligence の展開はやや複雑な状況でしたが、この傾向は Visual Intelligence にも続きます。今のところ、このツールは、同社の最近の携帯電話の中で最も強力な iPhone 16 Pro と Pro Max でのみ動作します。 Apple は、この機能が最終的には古いモデルでも利用できるようになる可能性があることを示唆しています。結局のところ、Google レンズは 2017 年から登場しており、その頃は Pixel 2 が最も人気のある端末でした。

待機リストもありますが、これはすべての Apple Intelligence 機能に当てはまります。リストに参加するには、設定に進み、「Apple Intelligence & Siri」を探します。次に、「待機リストに参加」をクリックします。承認されると、ソフトウェアを使用できるようになります。

この記事の執筆時点では、Visual Intelligence を起動する唯一の方法は、カメラ コントロール ボタンを長押しすることです。それが、ハンドセットの右下にある新しいコントロール インターフェイスです。押すと、Visual Intelligence インターフェイスが開きます。

ボタン。

りんご

さあ、お楽しみが始まります。携帯電話を何かに向けて、左下のアイコンから ChatGPT を選択するか、右下のアイコンから Google 画像検索を選択するだけです。あるいは、ビジュアルフィールドにテキストが含まれている場合は、画面下部の円をタップします。電話を企業に向けて有益な情報を入手することもできます。

電話をテキストの前に置き、ビジュアル インテリジェンスをアクティブにして、画面下部の円をタップします。これによりテキストが分析されます。分析が完了すると、いくつかのオプションがあります。画面下部の「翻訳」をタップすると、テキストを別の言語に翻訳できます。 Siriにテキストを読み上げてもらいたい場合は、「読み上げ」をタップします。 「要約」をタップすると、コピーの簡単な要約が表示されます。

このツールは、電話番号、電子メール アドレス、Web サイトなどのテキスト内の連絡先情報も識別します。ユーザーはテキストの種類に応じてアクションを実行できます。たとえば、電話番号をタップして呼び出し音を鳴らします。その他のアクションには、電子メールの開始、カレンダー イベントの作成、Web サイトへのアクセスなどがあります。 「詳細」ボタンをタップすると、利用可能なオプションがすべて表示されます。 「閉じる」をタップするか、上にスワイプしてセッションを終了します。

Visual Intelligence は、目の前にあるビジネスに関する詳細を提供します。ツールを開いて、看板の前にカメラを向けるだけです。ビジネスの名前が画面の上部に表示されます。 「スケジュール」をタップして営業時間を確認するか、「注文」をタップして何かを購入します。 「メニュー」をタップするとメニューや利用可能なサービスが表示され、「予約」をタップすると予約ができます。お店やサービスに電話したり、レビューを読んだり、ウェブサイトを閲覧したりするには、「もっと見る」をタップしてください。

上にスワイプするか「閉じる」をタップしてセッションを終了します。この機能は現在、米国の顧客のみが利用できます。

まずカメラをオブジェクトに向けます。 Visual Intelligence をアクティブにして、画面の左下にある ChatGPT アイコンをタップします。 「質問する」ボタンをタップすると、オブジェクトに関する情報が表示されます。ハンドクリームのボトルに使用しましたが、正しく識別されました。その後、フォローアップの質問のためのテキストフィールドが表示されます。ユーザーは何でも質問できますが、結果は異なる場合があります。 ChatGPTにハンドクリームがどこで買えるのか、値段はいくらなのかを聞いてみました。この任務では見事にパフォーマンスを発揮した。やあ買い物。

統合。統合。

Engadget/チャーリン・ロウ

[閉じる]ボタンをタップするか、上にスワイプしてすべてのフィールドを削除します。これにより、Visual Intelligence もシャットダウンされます。

Google 画像検索を選択すると、Web から取得した同様の写真を含む Safari ダイアログ ボックスが表示されます。ここでの良い使用例は、取引を見つけることです。ハンドクリームのボトルの写真を撮りましたが、Safari の結果にはさまざまな価格帯から選択できるものがたくさんありました。ただし、ユーザーは自分で最良の取引を見つけて購入を完了する必要があります。

動作中のツール。動作中のツール。

Engadget/チャーリン・ロウ

[閉じる]ボタンをタップしてこれらの結果を削除し、画面の下から上にスワイプしてツールをシャットダウンします。

出典