[レベル: 上級]
Google レンズで、動画を撮影して検索できるようになりました。
また、音声検索も可能になりました。
動画を映して検索
シャッターボタンを長押しすると動画でレンズ検索できます。
たとえば、水族館で群れになって泳いでいる魚を見たときに、その映像を動画で映しながら [why are they swimming together](どうして一緒に泳いでるの?)とスマートフォンに向かって話すと回答を返してくれます。
回答は AI Overview によって返されることもあります。
動画でのレンズ検索は今年 5 月の Google I/O で発表された機能です。
8 月に使えるようになっていたのですが、10 月に入って公式ブログで正式に紹介されました。
Android 版および iOS 版の Google アプリからグローバルで利用できますが、現時点で対応している言語は英語だけです。
また、Search Labs で AI Overviews and more にオプトインしている必要があります。
YouTube で魚が群れで泳いでいる動画を探してそれを映しながら同じ質問をして見たところ、確かに動いている被写体(群れで泳いでいる魚)を認識して検索結果を返してくれました。
静止画ではなく、動いているところを見せないとうまく質問できないような場面で便利かもしれません。
Google レンズで音声検索
Google レンズで撮影した写真について、音声で検索できるようになりました。
Google レンズとテキスト検索を組み合わせた Multisearch(マルチ検索)の、いわば音声検索版です。
こちらのデモでは、空の雲を映して [what kinds of cloud are these](この雲の種類は何?)と音声で質問しています。
レンズでの動画検索と同じで、音声検索もシャッターボタンの長押しで実行できます。
動画の場合は 10 秒ほど押し続ける必要がありますが(おそらく動画を認識させるのに必要な時間を確保するため)、音声検索では、質問を話し終えたらシャッターボタンから手を離せば検索が実行されます。
テキストでのマルチ検索は日本語にも対応していますが、音声検索は、グローバルではあるものの現時点でサポートする言語は英語だけです。
Google によれば、Google レンズを使った視覚での検索が毎月 200 億回近く行われているとのことです。
僕もそこまで頻繁ではありませんが、便利に使うことがあります。
この記事で紹介した 2 つの新機能も日本語でも利用できるようになればさらに便利に使えそうです。
#Googleレンズ