トピック
コアな技術を現実に Google I/O基調講演にみる「グーグルらしさ」
2025年5月21日 16:36
Googleの年次開発者会議「Google I/O 2025」取材のため、カリフォルニア州・マウンテンビューを訪れている。今年も会場は、Google本社近くのショアライン・アンフィシアターだ。
Google I/Oの基調講演は毎年盛りだくさんなのだが、今年は特に話題が多かった。Android自体の話は事前に発表があったのだが、きっと「そうしないと話題があふれる」から切り出したのだろう。
結果として基調講演は、同社の生成AIである「Gemini」を一つの軸として、さまざまなサービスやデバイスが連携する、非常にGoogleらしいものになった。
ここでは基調講演で語られた方向性を大掴みできるよう、筆者なりの分析をお伝えしたい
検索に「AI」を本格導入
やはり、今年最大のトピックは検索への「AI Mode」導入だ。
2022年秋にOpenAIが「ChatGPT」を、2023年に入るとすぐにマイクロソフトが「Bingでのチャット検索(現在のCopilot.com)」を発表し、「検索エンジン」の世界は揺さぶられることになった。
実際には、生成AIになにかを訊ねても正しい答えが返ってくるとは限らず、生成AIがそのまま検索エンジンを代替するのは難しいのがわかっている。とはいうものの、様々な質問を生成AIに聞く人は増え続けており、そこにGoogleがどう対応してくるのか、色々な議論があったのは間違いない。
2023年のGoogle I/Oで、検索結果をAIでまとめる「Search Generative Experience(SGE)」が発表され、その後名称を「AI Overview」として現在も使われている。
だが、AI Overviewはあくまで「AIで検索結果をまとめ直す」もの。今回のAI Modeでは本格的に「チャットでのAI検索」に踏み込んできた。
背景にあるのは、「AIによって複雑な検索をすることで、人はさらに色々な検索をするようになる」という学びだ。
AIによってGoogleの検索量・アクセス量が減ったのでは……という報道もあったが、Google自身は認めていない。それに対する反論という意味もあるだろう。
どちらにしろ、Googleはようやく本気でAIと検索の関係を構築し始めた、と言っていいだろう。この辺については、Googleの検索事業責任者のLiz Reid氏にインタビューしているので、別途記事を予定している。
同時に、今回Googleが強みとしてアピールしたのが「Googleの持つサービスとの連携」だ。特に、個人の持つ属性や文脈(パーソナル・コンテクスト)を踏まえてAIを活用するという部分は、GmailやGoogleドライブを持つが故にやりやすい部分だ。
Gmailでは今後、単なるスマートリプライではなく、自分のメールやドキュメント、メールの背景情報を踏まえたスマートリプライになる。
また、前出のAI Modeでも、パーソナル・コンテクストを踏まえた検索が可能になる。AIとコミュニケーションをしながらなにかを探すなら、AIの側も「自分がなにを大切にしているか」を知っていた方が良い。なに一つ知らない相手に相談するより、友人や家族に相談する方が話は早いのと同じことだ。
もちろん、こうした利用には利用者の許諾が必要になる。とはいえ、他社が持たない「サービスとの連携」がポイントである分、大きな差別化領域であるのは間違いない。
スピードから対話まで、AI技術も大幅進化
もちろん、生成AIの基盤モデルや技術自体が差別化要因である、というのも間違いない。
特に、コア技術という意味で非常に興味深いのは、テキスト生成に拡散(Diffusion)モデルを使う「Gemini Diffusion」だ。コードや文章の生成に向いており、生成速度は従来比5倍。毎秒1,500トークン(ざっくり1,500ワードの英語)で文章を生成するので、劇的に作業が速くなる。
現状、賢さではGemini 2.5ほどではないようだが、他の手法に比べて速度差は明確。AIによるソフト開発では、試行錯誤の速度が劇的に変わることになり、特に大きな変化が生まれるだろう。
昨年発表された、マルチモーダル技術「Project Astra」の進化も大きい。公開された最新版のデモビデオを見ると、まるで人間のアシスタントとともに作業しているように感じる。
デモビデオの中には一部早送りもあったし、あくまで「ビデオ」であり、ライブデモでない分、機能を割り引いて考える必要はある。
一方で、Project Astraの派生物と言える「Gemini Live」はAndroidでもiOSでも自由に使えるようになり、素早い進化を続けている。そう考えると、Project Astraの一般向けサービスにも期待がかかる。
多くの人の期待という意味では、「翻訳」機能の進化も重要だろう。
Google Meetには、英語とスペイン語の間だけだが、「本人の音声を模した、ほぼリアルタイムの音声翻訳」が搭載される。もう他国語の学習がいらない……というのは言い過ぎだろうが、一般的な応対であればこの技術で対応できそうにも感じる。
研究から現実へ Android XRはGemini生まれ
これらの研究成果は、遠くない将来に「現実」になる。そのことを意識して、Googleは「研究が現実に」というキーワードを多数使っていた。それは、傘下に幅広い研究部門を抱え、その成果を活かせるということのアピールでもある。
そして、GeminiというAI基盤があることを前提に「現実」にしていこうとしているのが、XRプラットフォームである「Android XR」だ。
関係者インタビューや体験レポートは、僚誌・AV Watchで記事化を予定しているが、ここでは基調講演で発表されたことに、現場取材で得られた内容を加味して速報としてお伝えしたい。
GoogleはAndroid XRを「Gemini後に生まれたプラットフォーム」としている。スマートフォンやテレビ、タブレットにもGeminiは搭載されていくが、それらは「すでにあるプラットフォームにGeminiを搭載したもの」と言える。だがAndroid XRはGeminiを標準搭載して生まれて来るプラットフォームであり、UI・UXの中でGeminiが縦横に活用されるという。
実のところ、Android XRの開発計画はGemini投入前から進んでいたようだ。だが、マルチモーダルAIの登場は予測されており、OS内で活用することが早期から検討されて生まれてきたものであるのは間違いない。
Android XRデバイスとしては、昨年末に発表され、サムスンと共同開発中のヘッドセット型デバイス「Project Moohan」が発表済みだ。
だが今回は、スマートグラス型デバイスのプロトタイプが公開された。こちらはGoogle自身が開発したもので、今後リファレンスデザインとして、サムスンやパートナーとなるアイウェア・メーカーで製品化されていくことになる。
両者は同じ「Android XRで動く」デバイスで、デベロッパーは双方に同じアプリを提供できる。ただ、リビングなどでコンテンツを楽しんだり「空間に巨大なディスプレイを配置」したりするのに使うものと、屋外でナビゲーションや記憶のチェックに使うものは、ハードウェアとしてはイコールではない。Project Moohanは前者に向けた製品で、今回基調講演で公開されたのは後者向けである。
最初のAndroid XRデバイスとしては「Project Moohan」が年末までに発売され(ただし、現状日本市場への投入時期は未定)、スマートグラス型は開発機材が年末までに供給される。その他製品も、年末から来年にかけて市場に出てくるものと予想されている。
Metaやアップルなどのライバルも動いて来るものと思われるが、「AIを生かしたグラス型デバイス」として、Android XRが一つの勢力になるのは間違いないだろう。問題は、どこまで市場の理解と信頼を得られるか……ということだが。