ニュース

AIで動く自動実験ロボット。成長する植物に合わせ自分で考え対応

理化学研究所(理研)と大阪大学は、「周りを見て考えて手を動かす自動実験ロボ」のためのAIシステム開発に成功したと発表した。従来の実験ロボットが、ロボットに合わせた環境でしか作業できなかったのに対して、規格化されていない実験環境で周囲を認識、ロボットアームの動作を自動的に生成して自律実験を遂行する。植物のような個体ごとにかたちの異なる対象も扱える。また、ロボットの動きを数値やコマンドではなく「容器1の溶液をサンプルAに100μリットル滴下」というような形式で実験条件を指示できる。人とロボットが一緒に作業する新しい実験室の実現に向けた基盤技術となるものだとしている。

規格化されてない環境で自律動作する実験用AIロボット

植物自動栽培観察システム「RIPPS」とAIロボットを接続

植物自動栽培観察システム「RIPPS」とロボットを接続

理研と大阪大学の共同研究グループが開発した今回のシステムは、自律実験作業ができる手先にカメラとピペットを取り付けたロボットアームと、その実験環境をコンピュータ上で再現したデジタルツイン(実験環境の3次元モデル)、そしてロボットアームが周囲と衝突せずに適切な作業が行なえる動作を生成するAIから構成されている。

さらにそれを理研独自の技術である植物自動栽培観察システム「RIPPS(RIKEN Integrated Plant Phenotyping System)」と接続した。「RIPPS」は100個以上の植物サンプルを温度や湿度などがコントロールされた環境で一カ月以上自動栽培し、成長を観察できるシステム。ロボットとRIPPSを組み合わせることで多数の植物サンプルに対して、植物の形状を個体ごとに識別し、個別の葉に溶液を添加するなどきめ細やかな実験が自動化できることを実証した。

開発したのは、理研 生命機能科学研究センター バイオコンピューティング研究チームの張竣博研修生(大阪大学大学院基礎工学研究科システム創成専攻博士後期課程1年)、万偉偉客員研究員(同准教授)、田中信行上級研究員、高橋恒一チームリーダー、環境資源科学研究センター質量分析・顕微鏡解析ユニットの藤田美紀上級技師、大阪大学大学院基礎工学研究科システム創成専攻の原田研介教授らの共同研究グループ。成果は科学雑誌『IEEE TRANSACTIONS ON AUTOMATION SCIENCE AND ENGINEERING』オンライン版(11月27日付)に掲載された。

「RIPPS」は100個以上の植物サンプルをコントロール環境で一カ月以上自動栽培可能
「RIPPS」に今回のAIロボットを組み合わせて稼働を検証

ラボにある汎用装置で自動化可能

理化学研究所 上級研究員 田中信行氏

会見では、共同研究の取りまとめを行なった理研 上級研究員 田中信行氏がポイントを紹介した。昨今、生命科学では大量のデータを扱うことが増えており、人間の能力を超え始めている。そこでロボット実験が制約を超えるために期待されている。いっぽうロボットは人間の言葉を理解しないので、ロボットに合わせた実験環境を整備し、数値で動作を教える必要がある。だが、ロボットを扱える高度デジタル人材を十分にキープすることは難しい。

そこで研究グループでは、手先にカメラとピペットを備えて液体ハンドリングを自律で行なえ、事前登録した3Dモデルを使って実験環境を認識して作業できるロボットを開発した。今回のロボットは「葉っぱ」のモデルを認識して、狙った葉やその中心の成長点に、液体をうまく滴下できるようになった。

これまでのロボットは主に工場での定型動作を行なう「ファクトリー・オートメーション」で使われている。しかし植物は時々刻々と変化する。中心と外側では育ち方も違い、一つとして同じ個体はなく、動的に変化する。また、従来人が行なっている作業の自動化も難しい。たとえばピペット作業ではピペットチップを取り替える作業がある。これはロボットでは「ペグ・イン・ホール」と呼ばれる「力制御」を必要とする作業に該当する。そこで実際の作業を分析し、一連の作業をロボット技術にうまく置き換えた。

人作業を分析してAIとロボットで置き換え(提供:理化学研究所)

今回は人と一緒の空間で作業することを前提としたため、安全柵を使う必要のない「協働ロボット(デンソーウェーブ製のCOBOTTA)」を使い、先端に2方向が見られるカメラをつけた。ピペットは汎用の製品に、3Dプリンター製のパーツでガイドを作って取り付けた。「どこのラボにある装置でも自動化できる」点が一つの特徴だという。

汎用のピペットと3Dプリンターを使ってエンドエフェクターを作成(提供:理化学研究所)

もう一つの特徴はモデルを活用したデジタルツイン化だ。環境を見て、内部モデルと実際の作業の位置ずれを検出し、事前に学習した位置ずれ補正のデータを使って、正しい位置にピペット先端を持っていくことができる。

デジタルツインで位置ずれを補正(提供:理化学研究所)

ロボットプログラミングも工夫した。直接ロボットを動かす「ダイレクトティーチング(直接教示)」で大まかな動作を教え、そこから先はロボットが自ら動作を生成するようにした。こちらには理研 客員研究員で、大阪大学大学院 基礎工学研究科 システム創成専攻 准教授の万偉偉(ワン・ウェイウェイ)氏が独自開発しているライブラリ群である「WRSシステム」を活用した。ロボットは内部に持っているデータとカメラ画像を参照して、必要な動作を自律的に生成する。

大まかな動作は直接教示、細かい部分はロボットが自動生成(提供:理化学研究所)

理研・田中氏は「人間の感覚に与えるような情報だけではなく、ロボットが適切に動くための生成AIも実験科学の自動化には必須となる」と語った。精密天秤やディスプレイ上の数値など、外部の様々な機器との連携も可能だと述べ、実際のデモを紹介した。ロボットは自分で実験ブースの扉を開けてピペットから液を定量滴下する。

外部機器との連携も可能(提供:理化学研究所)

葉っぱを認識して狙ったところに滴下

植物の環境王等の研究を行なっている理研 環境資源科学研究センター 質量分析・顕微鏡解析ユニット 上級技師 藤田美紀氏

この機器を使って、さらに現実的な研究に応用するために、植物の栽培と観察の自動化を進めていた「RIPPS」との接続を行なった。理研 環境資源科学研究センター 質量分析・顕微鏡解析ユニット 上級技師の藤田美紀氏は、植物が刺激に対してどのような応答を示すかについて研究を行なっている。たとえば特定の液体を植物に滴下することで刺激を与えて、その反応を見る。

RIPPSは100以上の植物個体を自動栽培可能。中央列の黒い土を使ったものは会見用のダミーだが、それ以外は実際に実験で用いられている試料

どの物質を植物にどれだけ与えるかは人手を使うとミスもある。また、植物に対して人間が操作する上では光が必要であり、呼気の影響が出る可能性もあることからも、ロボットで自動実験を行なうほうが望ましいと語った。

今回のシステムを使うことで、植物のもっとも大きな葉っぱ一枚に液体を滴下したり、成長点を狙って滴下するということができた。なお、ロボット作業の結果は記録も自動で残せる点も利点となる。

生命科学の研究の加速に貢献

理研 客員研究員、大阪大学大学院 基礎工学研究科 システム創成専攻 准教授 万偉偉氏

なお、この研究でいう「生成AI」は実際には3つの仕組みからなっている。一つは画像認識モデルの「Vision Transformer(ViT)」を活用したピペットの認識と位置補正。エラーを離散化することで簡単に補正できるようになり、要するに、カメラと先端の位置関係を何度も計算し直さなくてもよくなった。二つ目は深層学習の一種である「Mask RCNN」を使った葉っぱの認識。3つ目のロボットの動作生成は、万偉偉氏が独自に開発しているロボット開発プラットフォームWRSのなかで事前に大量に生成しておいたデータをもとにしたモデルベースの条件探索が使われている。

Vision Transformer(ViT)でピペット位置を認識・補正(提供:理化学研究所)
Mask RCNNを使った葉の認識(提供:理化学研究所)
実際の認識結果

自動培養装置と栽培装置を組み合わせた仕組みはこれが初めて。規格化されていない実験環境でロボットアーム動作を自律的に生成できるこの技術を使い、今後は、ロボットとの新しい実験のあり方を探索できると考えて研究を進めていく。具体的には植物の「葉の個性」を明らかにする研究や、化学反応を定期的にサンプリングする実験、細胞から個体が発生するような現象に対しても細胞モデルを取り込むことで、適切な実験条件を自律的に探索・生成させるシステムの開発が可能になると考えて、研究を進める。「生命科学の研究の加速に貢献できる」ものだという。

ロボット制御のソフトウェア開発を担当した、万偉偉氏は「動的変化を捉えて、その変化に応じて生命科学の仕組みを探索したい」と語った。

実際にロボットシステムを実装した理化学研究所 生命機能科学研究センター バイオコンピューティング研究チーム 研修生で、大阪大学大学院 基礎工学研究科 システム創成専攻 博士後期課程1年の張 竣博(チャン・ジュンボ)氏は「実験を最後まで完遂できるシステムができてよかった。効果的に使われていることがとても嬉しい。他のサイエンスにも応用していきたい」と語った。

理研 生命機能科学研究センター バイオコンピューティング研究チーム 研修生、大阪大学大学院 基礎工学研究科 システム創成専攻 博士後期課程1年の張 竣博氏