ニュース
Google、ロボットが「行動する前に考える」AIモデル ゴミの分別も可能
2025年9月26日 15:31
Googleは、汎用ロボット実現に向けた2つの新しいAIモデル「Gemini Robotics 1.5」と「Gemini Robotics-ER 1.5」を発表した。
ロボットが何かの仕事をするとき、状況を読み解き、実現するまでの手順を理解して行なう必要がある。例えば「この地域のルールに合わせて、目の前のゴミを分別して」とロボットに頼んだ場合、ロボットはインターネットで地域の分別ガイドラインを検索し、目の前のゴミの理解、ルールに基づいた分別方法を判断する必要がある。
そのうえで実際に正しいゴミ箱へ捨てるという一連の行動を実行する。こうした複雑な工程をロボットが行なえるよう設計されたのが、今回開発された2つのモデルになる。
「Gemini Robotics 1.5」は、ロボット全体の頭脳のように機能し、全ての活動を統括する。人間と自然な言葉で対話し、タスクの成功率や進捗を予測するほか、必要に応じてGoogle 検索のようなツールなどを使い情報を集める。
「Gemini Robotics-ER 1.5」は導き出した計画をステップごとに自然言語の指示に変換し、Gemini Robotics 1.5へと伝えるモデル。指示を受けたGemini Robotics 1.5は、視覚と言語の理解能力を用いて、具体的なアクションを直接実行する。
Gemini Robotics 1.5は自らの行動について思考することで、複雑なタスクを実現するだけでなく、その思考プロセスを人間に言葉で説明することもできる。これにより、ロボットの意思決定の透明性が高まる。
従来の視覚・言語・行動モデルは、与えられた指示や計画について、ロボットの動きに直接的に変換するだけだった。Gemini Robotics 1.5では、単に指示を変換するだけでなく、行動前に自ら思考することが可能。複数の手順や深い意味の理解が必要なタスクに対して、内的な推論と分析による思考プロセスを組み立て、実行する。
例えば「洗濯物を色分けして」という指示を与えられると、ロボットは異なるレベルで思考。「色分け」とは白い服は白いカゴへ、それ以外の色は黒いカゴへ入れる、という目的を理解する。次に、「赤いセーターを拾い、黒いかごへ入れる」という具体的なステップも思考。さらに、「セーターを掴みやすくするために、一度手前に引き寄せる」など、手順を実行するための細かな動作まで自分で考えることができる。
これにより、より長いタスクを、ロボットが確実に実行できるようなシンプルで短い単位へ分解することを自らの判断で行なえる。これはモデルが未知のタスクや状況に対応する能力を高めることにも繋がるという。
また、これまでロボットは形状やサイズ、センサー等の違いから、異なるロボット同士で学習したスキルを共有することは難しかった。Gemini Robotics 1.5では、異なるロボットで学習したスキルをそのまま他のロボットに移行することが可能になる。


