西田宗千佳のイマトミライ
第196回
ジェネレーティブAIとGoogleの責任 Google I/OにみるAI戦略
2023年5月16日 08:15
5月10日から12日まで、米・マウンテンビューで開催された「Google I/O 2023」の取材に行ってきた。
ご存知のとおり、現在テクノロジー関連業界は、あらゆる領域で「AI」による変革が進みつつある。その中で、今年のGoogle I/Oのテーマもまさに「AI」だった。Google I/Oで何が語られたのか、その点を解説してみたい。
AIには継続投資 長年の経験から「信頼性重視」をアピール
「弊社は長年にわたってAIを開発してきた」
Googleのスンダー・ピチャイCEO(最高経営責任者)は、基調講演の冒頭でそう話した。ピチャイCEOだけでない。Google I/O取材中に会った同社のエクゼクティブは、ほぼ全員がこの言葉を枕のように使っていた。
確かにそれは事実だ。Googleは検索技術の延長線上にあるAI技術に長く投資を続けており、画像認識や翻訳など、数多くの分野で優れた技術を世に広めてきた。Gmailのメールフィルタリングは今も毎日大量の迷惑メールを削除し続けているが、その核にあるのも、GoogleのAI技術である。
一方で、現在起きている「ジェネレーティブ(生成)AI」がもたらす変化については、Open AIとマイクロソフトが先を走っており、Googleが後手に回っているようにも見えてしまう。
基調講演の翌日、同社のエクゼクティブはAIについて、同社は世界から集まった記者との質疑に応じた。
その中でピチャイCEOは、「Open AIなどが先行している。出遅れたのではないか」との質問に、次のように答えている。
「弊社はAIの基盤となる重要な技術を多く生み出してきた。現在の状況について、最初の1カ月の成果だけで『未来が決まった』と判断するようなやり方には同意できない」
これをある種の強がりと見ることもできるだろう。一方で、現在のAIは不完全な存在でありそのことがもたらす影響を考慮している、というのもまた事実だ。
AI開発の透明性についての質問にも、ピチャイCEOは以下のように答えている。
「多くの産業分野でAIを使うことになるだろうが、正しく、バランスの取れたイノベーションと責任を確認しながら進めたい。例えばヘルスケアは非常に規制が厳しい分野。必要な認可を受けずに治療法を世に送り出すことはできない。AIはあくまで基礎技術にすぎず、ケースバイケースで見ていく必要がある」
Googleは巨大な企業であり、大きな責任を背負っていることは、彼ら自身がよくわかっている。検索での対応はその好例だ。
ピチャイCEOは「責任あるAI」という言葉を何度も使ったのだが、そのことは、他社に対しての牽制であると同時に、「Googleが取り組むならどうあらねばならないか」という姿勢の提示でもある。
「対策」をセットにジェネレーティブAIを全面的に活用
ピチャイCEOは基調講演で「弊社はAIを長年活用してきたが、ジェネレーティブAIで新たな段階に入る」と語った。
その観点で基調講演を見たとき、筆者が興味深いと思った点が2つある。
1つは「生成AIによる画像と透かし(Watermark)」の関係だ。
ジェネレーティブAIは便利だが、ネットに掲載された画像が本物の写真やアーティストの作った画像なのか、それともAI生成が関わったものなのかは、一目みただけではわからない、という問題がある。
そこでGoogleは、ジェネレーティブAIが生成した画像について、データ内にタグによる「透かし」を入れる。Googleが生成に関わった画像ではこれを基本とし、検索で出てきたり、他社サービス内で使われたりした場合にも、「GoogleのジェネレーティブAIで作った画像を使っている」ということがわかるようにする。
また、基調講演ではGoogleとAdobeが提携、AdobeのジェネレーティブAIである「Firefly」と連携することが発表された。ここでは透かしとして、Adobeなどが推進する来歴記録技術である「コンテンツ認証イニシアチブ(Content Authenticity Initiative、CAI)」を活用する。
Googleが行なう透かし導入とCAIはイコールではないが、どちらもAIが作った画像の来歴を明確にするものと言える。逆に言えば「来歴のない画像を信頼しない」「来歴のない画像は扱いに注意する」という全体の流れが見えてきた、ということでもある。
Googleは数カ月の間に、「見ている画像に似たものがネット上にいつ登場したのか」を確認できる機能を、Googleの画像検索に加える。これ自体はAIと直接関係ないが、来歴を確認して信頼性を高めるもの、と考えていい。
そしてもう一つ大きいのが、Google自体もついに「検索にジェネレーティブAIを導入する」方針を定めたことだ。
マイクロソフトの「Bing」は、チャット検索の形でジェネレーティブAIを検索に組み込んでいる。ChatGPTにも「Webブラウジング」機能が提供(有料版のChatGPT Plus)され、ネットの最新情報をチャットから聞けるようになってきた。
今回Googleも検索機能強化の中で、「Search Generative Experience(SGE、生成サーチ体験)」を発表した。
これはまさに、チャットによる検索だ。デモを見る限り、ショッピングなどでの効果拡大が狙いとしてあるように思える。
ただこの機能も、一般公開は先だ。Googleがテスト機能を公開する「Labs」の中で、英語版のみが提供される。まだまだ不完全な機能であり、「テストののちに提供すべき」と判断されているからだ。
PaLMから「PaLM 2」へ。多言語対応を推進
Googleは複数のジェネレーティブAI技術を開発している。その中でも基盤的な大規模言語モデルとなるのが「PaLM 2」だ。
昨年同社は「PaLM」を公開、チャットAI「Bard」などの中で使ってきた。
しかし今回、PaLMの進化版である「PaLM 2」が発表され、同社の各種機能で使われるようになっている。
Bardはついに日本語対応して先週から利用可能になっているが、その基盤となっているのもPaLM 2だ。Googleによると、今回のGoogle I/Oでは、PaLM 2を使ったサービスが25以上も発表されているという。
PaLM 2とはどんな存在なのか? 基本的には、PaLMの延長線上にある。ただ、本質的な変化として開発担当者は2つの点を指摘する。
1つは「モデル最適化」。スマホから大型まで多数の用途に向けてモデルサイズを変えられるほか、使う企業や扱う情報に合わせたカスタマイズがしやすい。
そしてもう1つが「多言語対応」。
開発担当者はPaLM 2で「あえて英語以外の情報を大量に学習した」と説明する。
大規模言語モデルを使うと、言語の違いの壁を超えて情報を得ることができるようになってきた。そこで、PaLM 2はその部分を重視している。英語以外の情報を大量に学習することは「英語での精度を落とすリスクがあった」と担当者は語る。しかしあえて多言語化を進めた結果、懸念とは逆に英語での精度も向上したという。
結果として、PaLM 2ベースになったBardは40以上の言語への対応を予定しており、先行して日本語と韓国語への対応が行なわれた。日本語・韓国語への対応を先行した理由について、ピチャイCEOは次のように説明している。
「様々な要因から判断した。理由の1つは、それらが英語とは大きく異なった言語である、ということだ。これらの言語に取り組むことで、私たちが(言語について)考えなければならない、幅広い領域を知ることができ、他の言語への対応が容易になる。もちろん、各地域で安全性・信頼性の確認は必要。その後に各言語版を提供する。また、日本や韓国は歴史的に見ても、モバイルに関し最先端の地域。最先端を行く市場に飛び込むことには大きな価値がある」
PaLM 2の開発を担当したのは、GoogleのAI関連子会社「DeepMind」と、グーグル内で機械学習を研究していた「Brain Team」が合流したチーム。今後は両者が一体となり、より高性能なAIを目指す。
基調講演では、PaLM 2の先にあるものとして「Gemini(ジェミナイ)」というプロジェクトの存在が明かされた。「現在は学習段階」(開発担当者)とのことだが、PaLM 2開発チームがスライドする形で開発が進められているという。
用途とそれに伴う信頼性を確認しつつ、基盤技術を随時新しいものに切り替えて先に進むのが、ジェネレーティブAIに対するGoogleの基本戦略、と考えて良さそうだ。