石野純也のモバイル通信SE

第94回

グーグルとAndroidが目指す「先回りするAI」 変わるアプリの景色

アプリの操作を自動化するAGI。写真はUber Eatsの注文をAGIアプリが自動で行なっている様子だ

スマホの操作を肩代わりするエージェント的なAIが、徐々に本格化し始めている。

MWC26 Barcelonaでは、各メーカーが端末に搭載されるAIをアピールした。例えば、中国ZTEはTikTokでおなじみのバイトダンスのAIを搭載した「M153」を出展。クアルコムも、サンフランシスコに拠点を構えるAGI社のアプリをブースでアピールしていた。

ZTEのM153。バイトダンスのAIを搭載し、中国で発売した端末だ

いずれも、目的をAIエージェントに告げることで、アプリをAIが選択して、その操作を自動的に行なうというものだ。

先回りするAIを目指すAndroid

Androidを開発するグーグルも、同じ方向性を目指している。同社は、25年1月に発表された「Galaxy S25」シリーズで、Geminiが予定登録やメッセージ送信を行なうアプリ連携機能を発表。26年2月の「Galaxy S26」シリーズに合わせて、その機能を進化させた。

Galaxy S26シリーズとPixel 10シリーズが新たに対応したのが、バーチャルウィンドウを使ってバックグラウンドでGeminiがアプリを操作するというもの。AIがアプリ側のUIを読み解き、操作を実行する。現在は英語と韓国語のみの対応で、利用できるアプリもUberなどに限定されている。

グーグルとサムスン電子も、アプリをバーチャルウィンドウで操作する機能を採用した。現在はGalaxy S26とPixel 10シリーズで利用でき、英語と韓国語に対応する

MWCでインタビューに応じたグーグルのAndroid Platform & Pixel Softwareのバイスプレジデント兼ジェネラルマネージャーであるシーン・チャウ氏によると、グーグルは、「ユーザーの行動に基づき、よりプロアクティブな(先回りした)サポートを提供できるようなエージェントの扱い方を模索している」という。Pixel 10シリーズに搭載された「マジックサジェスト」や、Galaxy S26シリーズの「Now Nudge」は、そのコンセプトを具体化した機能の1つだ。

MWCでグループインタビューにこたえたグーグルのチャウ氏。AndroidとPixelのソフトウェア開発を率いる

上記のようなアプリの自動化も、その一環になる。先回りして提案した目的を実行する際に、自動化が必要になるというのがチャウ氏の考えだ。実際、グーグルでは、すでに機能として実装されている以上に「より幅広いアプリケーションでテストを行なってきた」という。

一方で、仮想ウィンドウの中でアプリの操作をそのまま肩代わりするような自動化は、慎重に拡大していく方針も示していた。

「ベータ版とはいえ、うまく動作しなかったり、信頼性が低かったりすると、製品への信頼が失われてしまう」からだ。上記のように対応する言語およびアプリが限定されている理由は、ここにある。また、チャウ氏は、バーチャルウィンドウを使った自動化以外にも、グーグルは2つのアプローチを用意して、それらを使い分けていると話す。

1つ目が、「MCPスタイルのGeminiとの統合」だ。これは、「スマートホームを操作するように、ユーザーがGemini内にとどまったまま、バックグラウンドで処理を完了させる統合方法」。現在、旧Googleアシスタントで使うGoogle Homeの操作などに、これを適用している。

これをアプリ開発者に広げたのが、Android 16で導入されたApp Functionsと呼ばれるAPIになる。アプリの開発者がこれに対応することで、Gemini側から特定の機能を呼び出せるようになる。

「複数のOEMと協力して、それぞれのファーストパーティアプリ内で機能を利用できるようにしている。例えば、アラームを設定するための時計やメモ、カレンダーなどだ」という。

グーグルはApp Functions APIをAndroid 16で公開しており、Geminiから直接アプリを操作することを可能にしている

実際、Galaxyではサムスン製の「Samsung Notes」「Samsungカレンダー」「Samsungリマインダー」とアプリの操作が可能になっているほか、XiaomiやOPPOなどの端末メーカーがプリインストールするアプリの一部も、このApp Functionsを活用した自動化に対応している。

また、チャウ氏によると、現在は「開発者がApp Functionsを作成して、Geminiから呼び出すことが可能になっている」という。

一方で、これら2つの方法は、スマホメーカーやアプリ開発者がアプリを対応させる工数や時間がかかる。「開発者がMCPやApp Functionsを望まなかったり、対応する時間や準備ができていなかった」場合の3つ目として用意されているのが、先に挙げたアプリを直接Geminiが操作する自動化になる。

サムスンのUnpackedでは、チャットで交わされた会話を要約してピザの注文をまとめ、それを自動で注文するという様子が披露された

OSからインテリジェントシステムに進化 変わる「アプリ」の世界

こうした作業はテストを重ね、慎重に拡大しているというグーグルだが、チャウ氏が「Android 17ではプロアクティブなAIに重点が置かれ、オペレーティングシステムからインテリジェントシステムへの移行が進んでいる」と語るように、Androidがアップデートするごとにこの方向性へ近づいていることは間違いないだろう。

Androidが単純なOSから、インテリジェントシステムへと進化しようとしている。サムスンは、これを「AI OS」と呼んでいた

これがより進んでいくと、ユーザーのスマホの使い方が変わることは間違いない。今のように、まずアプリを選ぶのではなく、実現したいことを言えば、スマホがそれを達成するためのアプリを選んでくれるというわけだ。同時にこれは、アプリ開発者の競争環境が大きく変わる可能性があることも意味する。ユーザーではなく、AIに選んでもらう必要性が出てくるということだ。

実際、Galaxy S26シリーズに搭載された自動化機能でも、「空港に行く車を手配して」といった時に起動するのはUberだけ。米国では競合の配車アプリであるLyftもあるが、こちらは選ばれない。同機種のNow Nudgeで選択されるギャラリーも、Googleフォトではなくサムスン製のギャラリーだ。

ショッピングやフードデリバリーなどでも、同様のことは起こりうる。こうした変化に備えるためにも、App Functionsなどに対応し、AIに選んでもらうアプリになることも今後は重要になりそうだ。

石野 純也

慶應義塾大学卒業後、新卒で出版社の宝島社に入社。独立後はケータイジャーナリスト/ライターとして幅広い媒体で執筆、コメントなどを行なう。 ケータイ業界が主な取材テーマ。 Twitter:@june_ya