Google Lens機能は3月にAndroid向けアプリでリリースされ始め、I / O 2018でリアルタイムの結果とスマートなテキスト選択で大きなアップデートを行いました。今回、このビジュアル検索機能がiOS向けGoogleアプリについに導入されました!
Google Lensの視覚検索機能が、iOS版Googleアプリでついにリリース!
3月、Google LensはGoogle Photos経由でiOSに登場しました。 Googleアプリのこの新しい実装では、最初に写真をスナップしてカメラのロールに追加する必要なく、ライブビューファインダーを搭載しています。 Googleアプリの上部にある検索バーの音声検索の横にレンズアイコンが表示されるようになりました。
初回起動時には、カメラの許可をアプリに与え、他の利用規約やサービスに同意するよう求められます。チュートリアルには、「テキストのスキャン」や「スマートショップ」機能の紹介はありません。
「テキストのスキャン」は、Google Lensが画像を検索して単語を検索したり、メールアドレスを保存したり、電話をかけたりするなど、分析のためにテキストを取得する事ができます。一方、レンズ機能は、靴や他の衣類など見た目から同類の製品を見つけるのに役立つ機能です。
Google Lensは非常に簡単なインターフェースを備えています。ユーザーはビューファインダー内のオブジェクトまたはテキストをタップして解析を開始できます。興味のあるポイントが強調表示され、結果が下のシートから上にスライドして出てきます。コントロールには、シーンをより明るく照らすためにフラッシュをオンにし、フォトギャラリーを開いてレンズが既存の画像を分析できる機能が含まれていますq
右上のオーバーフローメニューは、ユーザーがフィードバックを送信できるようになっています。