ニュース

アマゾン、国産LLM開発を支援 600万ドルのAWSクレジット提供

アマゾン ウェブ サービス ジャパン(AWSジャパン)は、7月3日、大規模言語モデル(LLM)開発を支援する「AWS LLM 開発支援プログラム」を開始すると発表した。

日本国内に法人・拠点を持つ最大10程度の企業・団体に対し、AWSの技術支援や600万USドルのAWSクレジット提供などを実施し、LLM活用を目指すスタートアップ等を支援する。開発成果物の所有権は全て顧客側が持つ。

プログラムの応募期間は7月3日から21日まで。選考結果は7月中に通知され、8月初旬から11月末までLLMの開発支援を行ない、12月中にプログラム成果発表会を行なう予定。

プログラムへの応募を希望する企業・団体は、特設ページを確認の上、応募フォームから申し込む。

日本独自の「AWS LLM 開発支援プログラム」を開始

日本発の独自支援プログラム

AWSジャパン 代表執行役員社長 長崎忠雄氏

会見ではまず、AWSジャパン代表執行役員社長の長崎忠雄氏が背景を紹介した。機械学習のパラダイムシフトは数十年前から続いている。スケーラブルな計算機リソースはクラウドで容易に入手可能になり、多くの業界がビジネス変革を進めようとしている。生成系AIは様々なビジネスセグメントから注目されており、顧客体験も生成系AIによって新たに作り変えられることになる。

生成系AIのビジネス可能性

Amazonは20年以上、機械学習によるイノベーションに取り組んできた。リコメンデーション、サプライチェーンの予測、ロボットのピッキングルートの最適化などもリアルタイムに進化改善を行なっている。Alexaは毎月10億件のやりとりを処理している。

生成系AIについても取り組んでいる。LLMを使うことで検索機能を改善し、Alexaは最小限の入力情報から多言語応答を実現し、Amazon CodeWhispererは推奨コードを自動生成できる。

生成系AIによるAmazonのイノベーション

長崎氏は「Amazonは機械学習を民主化し、10万人を超える技術者が機械学習に簡単にアクセスできるように努めてきた。投資と技術革新を進めており、数ヶ月間のあいだに多くの顧客と対話を続けてきた」と語り、顧客事例も紹介した。グローバルでは1億USドルを投資して「生成系AIイノベーションセンター(AWS Generative AI Innovation Center)」を立ち上げて、プロセス設計から立ち上げまでの加速を支援している。

AWSの顧客の事例

そして今回、日本独自の支援プログラムを開始する。人材育成も視野に入れる。長崎氏は「日本発で発表させてもらった。グローバルの支援プログラムもあるが、今回の支援プログラムは日本に拠点を置いた日本顧客に特化したプログラム」と強調した。

経産省も「時宜を得た取り組み」と評価、国内政策とも連動

会見には経済産業省 商務情報政策局 情報産業課 ソフトウェア・情報サービス戦略室長の渡辺琢也氏も登壇した。渡辺氏は「生成AIが話題にならない日はない。だが今は黎明期。大きな可能性と共にリスクもある。そこで可能性を最大限大きくしていくために政府としては5月にAI戦略会議を立ち上げて議論を開始した。とにかくスピードが大事なので5月内に論点整備を行なった。リスク対応については規制に留まらず、活用可能性を広げていくためにも各社へのガイドを示す。個人情報や著作権においては透明性の確保を中心に各省庁とも連携してルールメイキングを行なう。年内にAIのガバナンスに関わる一定の成果を得ていき、国際協調をとっていく」と国の取り組みを紹介した。

LLMの活用については「生産性を上げていくことは日本において喫緊の課題。日本では日常生活においてAI、ロボットが共存することに共感している国民性もあって、生成AIの登場を多くの人が前向きに捉えている。プロンプトエンジニアリングの活用を促進し、行政も率先して使っていく。日本語性能の向上、ハルシネーション対策、マルチモーダル化などが追求されている」と述べた。

そして「将来にわたってイノベーションを生み出すためにはLLMを使いこなすだけではなく、開発力も重要。将来にわたるイノベーション創出のみならず原理の解明、理解を進めることで安全安心な活用にも繋がる。LLMは内燃機関の発明ともよく比べられる。自動車産業は日本を支える産業になり世界的にも貢献してきた。生成AIにおいても日本が貢献し、育てていけるかが問われている。幸い、挑戦しようとしている国内スタートアップは複数ある。開発環境は非常に良い。しかしコンピューティング・リソースは十分ではない。AWSのプログラムでインフラを提供していただけるのは時宜を得た取り組み。AWSの逸早いプログラムが貢献してくれることを祈念する」と語った。

生成系AI開発におけるAWSの強みは5つ

AWSジャパン プリンシパル機械学習 量子コンピューティングソリューションアーキテクト 宇都宮聖子氏

AWSにおける生成系AIの取り組みについては、AWSジャパン プリンシパル機械学習ソリューションアーキテクトの宇都宮聖子氏が話した。AWSでは基盤モデルを扱うプレイヤーには3種類あると分類している。モデルを開発する「プロバイダー」、公開済みのLLMをアプリに組み込むときにモデルをカスタムしていく「チューナー」、そして公開済みモデルやAIサービスを使って、自社や他社向けの実際のアプリケーション開発を行なう「コンシューマー」だ。AWSはそれぞれに対して支援を行なっている。

基盤モデルを扱う3種のプレイヤー

生成系AI開発において、なぜAWSなのかについては5つの強みがあるという。一つ目は柔軟性だ。AWSは幅広い生成系AIのラインナップ、様々な基盤モデルを提供している。基盤モデル API サービスのAmazon Bedrockでは各種基盤モデルと単一APIから活用できる。

Amazon Bedrock

いまは4種類の基盤モデルを提供している。Amazonの「Amazon Titan」、AI21Labs「Jurassic-2」、Anthropic「Claude」、そしてStability AIの「Stable Diffusion」だ。

Amazon Bedrockで使える4つの基盤モデル

セキュリティにも対応しており、VPC(Amazon Virtual Private Cloud)の外に出ないかたちで安全安心に使える。

データは暗号化され、VPCの外には出ない

基盤モデルを開発するための環境としてLLM開発に特化したNVIDIA GPUとAWSが設計したMLチップを搭載したインフラを提供。コスト効率よくスケーリングできる。Amazon EC2は生成系AI開発を加速するAWSカスタムシリコンを提供する。Amazon EC2のラインナップに比較しても、効率が数十%向上している。

LLM開発に特化したインフラでコスト効率良く開発可能

実際にLLMを活用するシーンにおいては、顧客は使い慣れたAmazon SageMakerやAmazon S3など、既存のAWSサービスと容易に連携できる。顧客のアプリケーションとも連動した迅速な提供が可能だ。

いますぐに基盤モデルを活用して取り組みたいという顧客向けにも様々なラインナップを提供する。Amazon SageMaker JumpStartですぐに基盤モデルを活用可能だ。

Amazon SageMaker JumpStartですぐに基盤モデルを活用可能

各種のオープンソースモデルのほか、co:here、Lighton、AI21labsなどのプロプライエタリなモデルもSagemakerから活用できる。宇都宮氏は「モデル提供の幅広さが顧客の選択肢を広げると考えている」と語った。

Amazon SageMaker JumpStartで利用可能な基盤モデル

生成系AIを用いたソリューションもある。Amazon CodeWhispererは、既存コードとコメントに基づいてコードを自動作成する。コードをスキャンして発見の困難な脆弱性を調べ、オープンソースのトレーニングデータに似たコードにフラグを立ててフィルタリングすることもできる。

自動コード生成するAmazon CodeWhisperer

実際に生成系AIをアプリケーションに取り込んだ実活用にも取り組んでいる。宇都宮氏は検索拡張生成(RAG、Retrieval Augmented Generation)を例に挙げた。LLMを使い、社内ドキュメントをもとにFAQを作っていく。そのときにAmazon KendoraまたはAmazon OpenSearch Serviceによる検索を組み合わせることができる。

検索拡張生成(RAG、Retrieval Augmented Generation)

広がる生成系AIの活用とそれを支えるAWS

CanvaはSageMakerで1億人のユーザーにサービスを提供

顧客事例も改めて紹介された。オーストラリアのオンライングラフィックデザインツールCanvaは、Amazon SageMakerを使って、パンフレット等に使用する画像を生成している。たとえば「たくさんの種類のパンがテーブルに載っている画像を作ってください」とプロンプトだけでチラシに使える高品質画像が出力される。これにはStable Diffusionが使われている。1億人のユーザーがスケーラブルに使うシステム運用を支えているという。

さらに生成画像が適切なものであるかをチェックする機能に関しては、従来は人手で数百人が必要とされていたが、Amazon Rekognitionのモデレーション機能を使って3週間以下で一億人のユーザーへ画像生成機能を提供できた。

出力結果のチェクにAmazon Rekognitionのモデレーション検査機能を活用

イスラエルの自然言語処理会社 AI21 LabsではAmazon EC2のP4DインスタンスとPyTorchを使って、1,780億パラメータの言語モデルを学習させている。GPU間のネットワーク速度は効率のため重要だ。Amazon EC2のP4DインスタンスではEFA(Elastic Fabric Adapter)上で400Gbpsの高性能ネットワーキングを提供している。

AI21 Labsは1,780億パラメータの言語モデルを学習

日本の事例も紹介された。リコーはAmazon Machine Learning Solutions Labと連携し、60億個のパラメータを持つ日本語モデルを開発した。Amazon SageMakerを使って分散学習を実現、言語モデル学習時間を30%以上短縮することに成功した。

リコーは60億パラメータの日本語モデルを開発

LLM開発に必要な4つの支援を提供

AWSジャパン スタートアップソリューションアーキテクト シニアマネージャー 塚田朗弘氏

本題のAWS LLM開発支援プログラム提供内容についてはAWSジャパン スタートアップソリューションアーキテクト シニアマネージャーの塚田朗弘氏が紹介した。

LLM開発に必要な4つの支援を提供するプログラム

LLM開発の4つの支援とは以下のとおり。一つ目は計算機リソースと確保のガイダンス。顧客それぞれのヒアリング・プランニングを行ない、利用モデル、深層学習フレームワークなど各社ごとに異なるビジネス要件や技術要件に合わせて、適したインスタンス種類の選定、計算機リソースの確保などについてガイダンスを提供する。

2点目は技術相談やハンズオン支援。AWS上でどのように分散学習を実装するのか、そのときにネットワークの性能をいかに最大化・最適化するのか、そのノウハウを提供する。顧客はより効率的にLLM開発に専念できる。

3つ目はLLM事前学習用のAWSクレジット。総額600万USドルのクレジットを投資する。事前学習用のワークロードに必要な計算機リソースのコストを支援することで、LLM自体を独自に開発するプロバイダーを支援する。

必要な規模はビジネスユースケースやモデルパラメータ数によって変わるので、状況に応じた金額を支援する。

4つ目はビジネスプラン及びユースケースに関する支援。開発したLLMをアウトプットに結びつけるための支援を行なう。AWS Marketplaceを活用し、作ったLLMの公開や販路拡大を助ける。また申し込んだ会社が他の会社とBtoBの関係を作りたいのであればそれも支援する。VCとのコミュニケーションも支援する。

今後、募集開始後、7月中には選考結果を各社に通知する。8月中旬から本番規模の開発をはじめ、12月には成果発表会を行なう。開発期間には様々な支援を実施する予定だという。

今後のスケジュール。12月には成果発表を実施予定

参加対象者は、LLM開発を行なう国内の企業・団体。数10億~1千億パラメータ規模のLLMの事前学習を既にしている、あるいはこれからする企業・団体。また12月に成果発表を予定しているので、今年11月末までに本番環境でのローンチ等開発成果を出すことを目指している会社が対象となる。選考は総合的に判断する。

参加対象は国内のみ。選考基準は総合的に判断

プログラムの追加情報や期間中の情報は随時AWSブログで発表する。支援プログラムの通年サービス化も検討する。

最新情報はAWSブログで公開される