ニュース

Google検索は“カメラ“で進化する マップは「エリアの雰囲気」を表現

Googleは28日(米国時間)、検索やマップなどについての最新動向を紹介する「Search On‘22」を開催し、カメラ(Google レンズ)を使った検索による「マルチ検索」や自然な画像翻訳などの技術を紹介した。ここでは日本でも導入予定の取り組みを紹介する。

Google 検索において「次のキーボード」として「カメラ」対応を強化する。カメラや画像を使って見たものを検索できるGoogle レンズは、毎月80億回使われており、新たに「マルチ検索」に対応する。

マルチ検索は、Google レンズを使って撮影した写真やスクリーンショットにさらにテキストを加えて検索できる機能。今年始めに米国でベータ版として導入されているが、今後数カ月で日本語を含む70以上の言語に対応する。

マルチ検索

より自然な画像翻訳にも対応。機械学習技術の進歩により、複雑な画像の中で、翻訳されたテキストを自然な形で表示できるようになってきた。例えば、外国語の雑誌にカメラを向けると、翻訳されたテキストが自然に背景に馴染んだ形で表示できる。

機械学習モデルを最適化したことで、複雑な処理を短い100ミリ秒で実行。Google Pixelの消しゴムマジックにも使われている敵対的生成ネットワーク(GAN)を利用しており、この機能は年内に公開予定。

ショッピング検索も直感的に進化し、スマートフォンの検索結果から洋服、靴、アクセサリーといったファッションアイテムを簡単に探せるようにした。例えば、「カーゴパンツ」と検索すると、さまざまな色やスタイルのパンツが、購入可能なサイトや店舗へのリンク、スタイルガイドなどの情報とともに、多くの画像で表示される。さらに、リアルタイムの検索トレンドを反映したフィルターを導入し、「ジーンズ」と検索した時には、人気の「ワイドレッグ」や「ブーツカット」といったフィルターも表示される。

ショッピング対応を強化

Google マップも強化し「エリアの雰囲気」をチェックできるようになる。

Google マップの新機能では、調べたいエリアを選択すると、ユーザーが提供する写真や情報によって人気のあるスポットや見どころが地図上に表示される。パリを旅行する場合、その地域がおしゃれな雰囲気か、地元の人気スポットがどこかなどを把握できる。AIとGoogle マップユーザーから提供された情報(クチコミ、写真、ビデオなど)を組み合わせており、今後AndroidとiOSで展開する。

また、東京タワーやアクロポリスなど、世界のランドマークを立体的に表現した250以上の空中写真を公開。より臨場感があり、立体的な体験が可能なマップへと強化している。

7月のGoogle I/Oでは、天候、交通、混雑状況などの重要な情報を重ね、地域を多次元なビューで見ることができる新機能を発表した。そのアイディアを進めるため、今後、予測モデリングを用いて、その場所の過去の傾向を自動的に学習し、明日、来週、来月に、その地域がどのような状態になるかを予測する機能を追加する。

たとえば、サンフランシスコのオラクルパークに行きたいと思ったとき、その日の計画を立てるのに必要な情報(駐車場や入り口の場所、試合当日の天候が肌寒いかどうか、近くのレストランの場所と中の様子、混雑具合の予測など)を確認できる。まずは東京、ロサンゼルス、ロンドン、ニューヨーク、サンフランシスコでAndroidとiOS向けに公開予定としている。

スマートフォンのカメラをかざして、今いる場所の上に矢印と方向を重ね合わせて表示できる「ライブビュー」も進化。新たにライブビューでの検索に対応し、例えば、野外マーケットで現金が必要になった時、ライブビューの検索機能を使って、スマートフォンを持ち上げて検索すると、そのエリアにあるATMを瞬時に確認できるという。

また、コーヒーショップ、スーパーマーケット、乗り換え駅などを見つけ、営業時間や混雑状況も確認できる。ライブビューでの検索は、東京、ロンドン、ロサンゼルス、ニューヨーク、サンフランシスコ、パリで、AndroidとiOS向けに今後数カ月間にわたって展開する。