西田宗千佳のイマトミライ
第151回
Google・Niantic・Appleが相次いで仕掛ける「VPS」とはなにか
2022年5月30日 08:20
5月になってから、急速にある技術に関する動きが慌ただしくなってきた。その技術とは「VPS(ビジュアル・ポジショニング・システム)」だ。5月11日のGoogle I/Oにつづき、5月24日にはNianticが発表を行ない、さらにその後、アップルも関連サービスを日本で運用開始している。
iPhoneの「マップ」がパワーアップ、サイクリングルートやAR Walking
今回は、VPSがなんなのか、そして、今後どのような影響を与えるのかを考察してみた。VPSは、来るべき「ARグラス時代」を考える上で、極めて重要な技術なのである。
周囲の建物から「自分の位置と向き」を知るVPS技術
VPSとはなにか?
まずはGoogleのサービスから見ていこう。Googleが発表したのは「ARCore Geospatial API」という技術だ。
どんなことができるかは、次の映像を見てもらうのがわかりやすい。これらは、Google I/Oに合わせ、同社が公開したものだ。
共通しているのは「現実の世界にCGを重ねる」ということ、いわゆるAR(Augmented Reality、拡張現実)に使われている、ということだ。現実にある特定の場所にCGを重ねて表示しているわけだが、ここで重要なのは「特定の建物やマーカーがある場所の前にCGを出しているわけではない」という点。要は、自分がどこにいてどこを向いているのかを認識した上で、仮想の地図の中にあるオブジェクトの場所に来たら、そのオブジェクトが「実際の風景の中にあるように見える」わけだ。
この、「仮想の空間」と「現実」を紐付ける技術こそが、ARCore Geospatial APIの正体だ。
この技術、元々はGoogleマップの「ライブビュー」機能に使われているものだ。
ライブビュー機能とは、Googleマップに2019年から搭載されているもの。歩行ナビゲーションを行なう際、どちらに歩き出せばいいかを示すために使われている。カメラを使って周囲の映像をスキャンし、自分の位置を認識すると、どっちに向かって歩けばいいのか、実景に矢印などを重ねて表示してくれる。現在は一部駅など、屋内でも使えるようになっている。
これで絶対迷わない! ARで周囲の景色を見ながらナビゲーション
この機能の本質は、カメラから得られた周囲の映像から特徴的な部分を抽出し、サーバー内のデータベースと照合することで、「今自分がどこにいて、どちらを向いているのか」を判断することにある。それができているから、ナビゲーションに使えるわけだ。
映像から認識する、という意味で「ビジュアル・ポジショニング・システム」=VPSと呼ばれている。
自分の位置を知るシステムとしてはGPSがあるが、GPSはそれだけだと数メートル以内の誤差があるし、方向もわからない。GPSとVPSを併用することで初めて、自分の向いている方向と位置を「センチメートル単位」で合わせることが可能になる。といっても、Googleの場合でも、5~60cmくらいずれるようだ。
今回のAPI公開は、Googleマップで多数の地点情報が集められたので、それを生かしてアプリ制作者が自由にARアプリを作れるように……という考え方から生まれている。最終的には、APIの利用量に応じた利用料が設定されるのだろう。
ARCore Geospatial APIの場合には、すでに実際につかえる形でAPIが公開されているので、エンジニアが実際にアプリを作り、その効果を試しているところが大きい。5月なかば以降、TwitterなどのSNSではデモ映像がシェアされてくる例も多い。
ARで新宿東口の猫の前を歩く猫を作ってみました。ARCore Geospatial APIで位置合わせをし、PLATEAUの3D都市モデルを使用して建物で隠れるようにしています。pic.twitter.com/ciNowoorCB
— こりん@VR (@korinVR)May 19, 2022
シンプルに使うなら「Google Mapと同じことを個人でもできる」くらいの認識でいいが、ゲームからビジネスまで、その応用範囲は非常に広い。
アップルの地図で「VPS」を使ったAR。日本で利用可能に
地図サービスとARの関係は、関連技術を開発するところなら必ず考えているくらい重要なものだ。
アップルも2020年の年次開発者会議「WWDC 2020」では、AR用APIである「ARKit4」の機能の1つとして、「ロケーションアンカー」という機能を発表していた。
これもGoogleの「ARCore Geospatial API」と同じくVPSだ。街中の3Dデータを作成しつつ、そこから特徴的な点を取得、カメラの画像と突き合わせることで、自分がどこにいて、どこを向いているかを判断する。
2020年当時はサンフランシスコ市内など、ごく一部の場所をカバーしていたに過ぎないが、現在は状況が変わってきた。
この5月からは、東京・大阪・京都・名古屋・福岡・広島・横浜などで「AR Walking」として、アップルのマップの中に、ロケーションアンカーを使った機能が組み込まれた。
実際に使ってみると、なかなか面白い。立ち止まってiPhoneを掲げて正面の建物の絵を動画でスキャンするように動かすと認識が行なわれる。歩いている時は普通のマップだが、曲がり角などで立ち止まってiPhoneを動かすと、AR Walkingの機能として、行き先への矢印が現れる。
「立ち止まったらiPhoneを掲げて周囲をスキャン」するだけでいいので、かなり道には迷いにくくなる印象だ。
NianticもVPS。アプリなし・ウェブブラウザからも使える
Nianticは5月24日(現地時間)・25日の2日間、米サンフランシスコで、開発者会議「Lightship Summit」を開催していた。
LightshipとはNianticが開発中のARフレームワークの名称だが、この会議に合わせ、動作はLightshipによるVPSである「Lightship VPS」を発表している。
Lightship VPSの場合、スタートの段階では、東京・サンフランシスコ・ロンドン・ロサンゼルス・ニューヨーク・シアトルの都市のうち、3万以上の場所が、VPSが使える「スポット」として公開されている。
Nianticは他社と違い、地図を面的に塗りつぶしているわけではない。IngressやポケモンGOといった同社の位置情報ゲームのプレイヤーが「地点情報」の形で収集した特別な場所の風景が、VPSのスポットとして利用されているためだ。
これは、「移動中」よりも「移動先」のことを考える、Nianticらしいやり方と言える。
特に同社の場合、先日買収を発表した「8th Wall」の技術を使い、「WebARでのVPS」を実現したのも興味深い。アプリのようにインストールは不要で、ウェブブラウザーだけで体験できるのがポイントだ。これは、ARを圧倒的に手軽なものに変えるだろう。
各社が「時代の変化」を嗅ぎ取った?
なぜここまで急に各社が技術を展開してきたのか? 正確な理由は不明だが、「時代の変化」を皆が感じ取っているのかもしれない。
VPSはスマホでのARだけでなく、いわゆる「ARグラス」にも有用だからだ。ARグラスでCGを実景に重ねるには、自分がどこにいるのか、どの方向を向いているのかを知る必要がある。スマホのGPSだけでは能力不足であり、VPSを使って、センチメートル単位での位置合わせを行う必要がある。
もちろん、課題は山積している。
VPSを常に使いづづけると処理負荷が大きくなり、ARメガネには負担になる。VPSのためにカメラを搭載したARグラスが「プライバシー侵害でない」ことを理解してもらうには、利用ルールを含めたコンセンサスの醸成が必須だろう。
だがどちらにしろ、スマホでVPSを使った「本物のAR」ができるようになれば、ARグラスはその延長線上にある存在、とも言える。
ARグラスを構成する技術のうち、ディスプレイについては「マイクロOLED」や「マイクロLED」などで実用化の目処が立ってきた。5月27日に開催されたソニーグループ・2022年度事業説明会でも、同社のイメージ&センシングソリューション部門が、「ARグラスに使える技術を多数持っている」ことをアピールしていた。
「Nreal Air」のような、サングラス型でかなり理想に近いデバイスも生まれている。
メガネ型HMD「Nreal Air」が驚くほど快適。画質大幅アップ
その辺りの事情を各社も理解しているからこそ、何年もかけて作ってきたVPSを一気に公開し、開発者へのアピールを開始しているのだろう。
だとすれば、6月6日から開催されるアップル「WWDC」でも、こうした話題が出てくるのではないか……と期待したくなってくる。