Science Tokyo AIシステム医科学分野 (清水研) では医療や生命科学と数理情報科学の融合領域の研究を行っており、その領域における最新の科学技術動向を日本語で概説しています。今回は2025年7月にNature誌にオンライン先行公開された「The Virtual Lab of AI agents designs new SARS-CoV-2 nanobodies」(AIエージェントのバーチャルラボによる、新型コロナウイルス新規ナノボディの設計) という論文をご紹介します。米国スタンフォード大学のJames Zou博士のチームによるAIと、Facebook創設者のマーク・ザッカーバーグ夫妻によって設立された非営利の研究機関Chan Zuckerberg Biohubのチームによる実験検証からなるコラボレーションです。
忙しい方向けのSummary
この研究は、大規模言語モデル(LLM)を基盤とした複数のAIエージェントがチームとして機能するバーチャルラボ(Virtual Lab) という新しいAI-人間協働の研究手法を提案するものです。バーチャルラボでは、人間の研究者が大まかな研究方針を示すだけで、AIエージェントたち(研究責任者、免疫学者、機械学習専門家など)が自律的に会議を開き、研究計画の立案、具体的な手法の選定、プログラムコードの作成まで行います。この手法の実証として、新型コロナウイルス(SARS-CoV-2)の最新変異株(KP.3など)に結合する新しい「ナノボディ」の設計という、現実的で重要な課題に取り組みました。その結果、バーチャルラボは既存のナノボディを改良するための計算ワークフローを迅速に構築し、92種類の新しいナノボディを設計しました。
実際にこれらのナノボディを作製して実験で検証したところ、その多くが安定して作れることが確認され、特に2種類のナノボディは、標的である新しい変異株(JN.1およびKP.3)に対して、元々のナノボディにはなかった結合能力の向上が見られました。この成果は、バーチャルラボが、多様な専門知識を要する複雑な科学研究を、人間の専門家チームを編成することなく迅速に実行できる強力なツールとなる可能性を示しています。
コードはこちらにあります。
これまでの研究とその課題の概要
現代の科学研究は、コンピュータ科学、生物学、機械学習といった多様な専門知識を必要とする学際的な性質がますます強くなっています。例えば、AlphaFold 2を開発した論文には34名もの研究者が関わっていました。しかし、このような大規模な専門家チームを組織し、連携させることにはいくつかの大きな課題がありました。専門分野が異なると、研究者間のコミュニケーションが難しくなったり、研究の優先順位が異なったりする問題が生じます。また、特に資金や人脈が限られた研究グループにとっては、多様な専門家を集めること自体が困難です。ChatGPTのようなLLMは、科学論文の要約や特定の質問への回答、コード作成など、研究者を補助する能力を示してきました。多くの研究で、LLMが科学的な質問に人間と同等かそれ以上の精度で回答できることが示されています。しかし、これまでのLLMの応用は、単一の質問に答えるといった限定的なタスクにとどまっていました。複数のステップや分野をまたぐ、未知の要素が多いオープンエンドな研究(答えが一つに決まっていない研究)を遂行する能力はありませんでした。ChemCrowのようなフレームワークは化学分野に特化しており、学際的な問題には対応できませんでした。Coscientistも主に化学合成の計画など、比較的定型的なタスクに適用が限られていました。これまでのAI研究は、特定の狭い領域に限定されていたり、現実世界での実験による検証が伴わなかったりするケースがほとんどでした。これらの課題を克服するため、本研究では人間とAIエージェントが協働し、複雑で学際的な研究を遂行する新しいフレームワーク「バーチャルラボ」が提案されています。
Figureの読み解きポイント
- Figure 1: バーチャルラボのアーキテクチャ 新しく提案されたAI-人間協働の研究フレームワーク「バーチャルラボ」の基本構造と動作原理が示されています。aでは、人間の研究者が大枠のAIエージェント(研究責任者PI、科学評論家)を定義し、PIがプロジェクト内容に応じて必要な専門家チーム(免疫学者など)を自動で編成する様子が描かれています。bはチーム会議のワークフローで、各専門家が意見を述べ、評論家が批評し、PIが議論を統合して結論を導き出す流れです。c はコード作成などの個別タスクにおけるワークフローで、専門家エージェントが評論家のフィードバックを受けながら回答を改善していく様子を示しています。
- Figure 2: ナノボディ設計のプロセス バーチャルラボをSARS-CoV-2のナノボディ設計という具体的な研究プロジェクトに適用した際の、全5フェーズのワークフローを示しています。aのチーム選定から始まり、bのチーム会議で「既存ナノボディを改良してKP.3変異株への結合を改善する」というプロジェクトの仕様を決定します。cでは使用する計算ツール(ESM, AlphaFold-Multimer, Rosetta)を選定し 、dの個別会議で各ツールの実装コードを作成します。最終的にeで、PIエージェントがこれらツールを組み合わせたナノボディ設計・選抜のための統合ワークフローを決定します。
- Figure 3: Nb21ナノボディの解析結果 バーチャルラボが構築した計算ワークフローによるナノボディ改良の過程を、Nb21というナノボディを例に示しています。aは、ESM、AlphaFold-Multimer、Rosettaを順に適用してスコアリングするワークフローの模式図です。b, c, dのグラフは、変異導入のラウンドが進むにつれて、各種スコア(ESM LLR、RS dG、AF ipLDDT、WS)が着実に改善していく様子を視覚化しています。e, f, gでは、最終的に選抜された変異体ナノボディが、元の野生型と比較してスコアが大幅に向上していること、そして標的タンパク質との良好な結合構造が予測されていることを示しています。
- Figure 4: 設計されたナノボディの実験的検証 バーチャルラボによる計算上の設計が、現実世界で有効な結果をもたらすことを実験的に証明した結果です。aのヒストグラムは、設計された92種類のナノボディの多くが十分な量で安定して生産できたことを示しています。bはELISA法による結合試験の結果で、元のナノボディ(黒)と比較し、
緑色で示された2つの変異体(Nb21由来とTy1由来)が、標的である新しい変異株JN.1やKP.3への結合能を示したことを明確に捉えています。cのグラフは、これら有望な変異体が、元のナノボディ(点線)では見られなかったJN.1への結合能(実線)を新たに獲得・向上させたことを定量的に示しています。 - Figure 5: バーチャルラボの議論の分析 バーチャルラボ内部でのAIエージェントと人間の貢献度を分析した結果です。aは実際のチーム会議での発言の抜粋で、各エージェントが自身の専門性(免疫学者、機械学習専門家など)に基づいた独自の視点を提供し、学際的で質の高い議論が生まれていることを示しています。bの円グラフは、プロジェクト全体を通して人間が記述した単語数が全体のわずか1.3%であり、残りの98.7%はAIエージェントによるものであったことを示しています 。これは、研究の立案から実行までの大部分がAIによって自律的に推進されたことの強力な証拠です。
手法の概説
バーチャルラボのAIアーキテクチャ
この研究の核となるのは、人間の研究者と協働するバーチャルラボというAIシステムです。このシステムは、大規模言語モデル(GPT-4o)を搭載した複数のAIエージェントで構成されています。 各エージェントは、(1) 称号、(2) 専門性、(3) 目標、(4) 役割、という4つの要素をプロンプトで与えることで定義されます。人間の研究者はまず「研究責任者(PI)」と「科学評論家」の2つのエージェントを定義します。その後、PIエージェントが研究テーマ(今回は「SARS-CoV-2変異株に対するナノボディ設計」)に基づき、必要となる専門家チーム(免疫学者、機械学習専門家、計算生物学者)を自律的に編成します。研究はAIエージェント間の「会議」を通じて進行します 。会議には、全員で広範な方針を議論するチーム会議と、特定のタスク(コード作成など)を1人の専門家が進める個別会議の2種類があります。会議では、PIが議論を進行・統合し、各専門家が意見を述べ、科学評論家が批判的なフィードバックを与えることで、多角的で質の高い意思決定が行われます。より創造的で質の高い回答を得るため、同じ議題の会議を複数回並列で実行し(並列会議)、それぞれの結果を最終的にPIエージェントが統合する、という手法が採用されています。
ナノボディ設計の計算ワークフロー
AIエージェントチームは、ナノボディを設計するために以下の計算ツールを選定し、それらを組み合わせた独自のワークフローを自律的に構築しました。新規データセットを学習させるのではなく、既存のツールと公開情報を基盤としています。使用した主要ツールはESM (タンパク質配列の言語モデル。アミノ酸変異を導入した際に、その配列が生物学的にどれだけ「確からしいか」を対数尤度比(LLR)というスコアで評価し、有望な変異候補を絞り込む)、AlphaFold-Multimer (タンパク質複合体の立体構造予測モデル。変異させたナノボディとSARS-CoV-2のスパイクタンパク質との複合体構造を予測し、その結合界面の信頼性をipLDDTというスコアで評価)、 Rosetta (計算生物学ソフトウェア。AlphaFoldが予測した構造をさらに精密化し、ナノボディとスパイクタンパク質の間の結合エネルギー(RS dG)を計算)。
PIエージェントは、上記3つのツールから得られる指標を統合し、最も優れた変異ナノボディを選抜するための独自の数理モデル(加重スコア、WS)を設計しました。その式はWS=0.2×(ESM LLR)+0.5×(AF ipLDDT)−0.3×(RS dG)。この式では、結合エネルギー(RS dG)が低い(より負の)値ほど良いため、係数が負になっています。この加重スコア(WS)を用いて、以下の反復的な最適化が4ラウンドにわたって実行されました。ESMを用いて全ての単一アミノ酸変異を評価し、LLRスコア上位20件の変異体を選出する。選ばれた20変異体について、AlphaFold-MultimerとRosettaでスコアを計算する。加重スコア(WS)を算出し、上位5件の変異体を次のラウンドの出発配列として選択する。このプロセスを繰り返し、最大4つのアミノ酸変異を導入しています。
最終的に、全ラウンドで生成された変異体の中から、改良版の加重スコア(WSWT)を用いて最も有望な候補が92種類選抜され、実験による検証に進みました。
この研究のキモはどこ? (私見)
「これまでの研究とその課題」に書いた内容を踏まえ、それを乗り越えトップジャーナルに掲載される大きな研究成果になったのは何かポイントがあるはずです。私見ですが先行研究にはないこのような工夫が挙げられると思います。
- マルチエージェント・アーキテクチャ: この研究の最大の技術的ブレークスルーは、マルチエージェント・アーキテクチャの導入です。これにより、単一のLLMでは不可能だった、複雑でオープンエンドな研究遂行が可能になりました。これまでのAIは汎用的なアシスタントでした。しかし「バーチャルラボ」では、「免疫学者」「機械学習専門家」「計算生物学者」といった明確な専門性を持つAIエージェントを定義しました。これにより、各エージェントが自身の専門知識に基づいた独自の視点を提供し、人間さながらの多角的で深みのある議論が生まれました。チームをまとめる「研究責任者(PI)」エージェントと、各エージェントの提案を批判的に検証する「科学評論家」エージェントを設置しました。PIが議論を統合して方向性を決定し 、評論家が誤りや安易な結論を指摘することで 、研究全体の質と一貫性を担保する自己修正メカニズムを構築しました。
- 「会議」による高度な推論: 研究プロセスをAIエージェント間の「会議」という形式で行うことで、単一のプロンプト応答では不可能な、反復的で複雑な推論(Reasoning)を引き出しました 。これは、複数の視点がぶつかり合いながら結論を洗練させていく、現実の科学研究のプロセスそのものを模倣したものです。
- 賢明な研究戦略の採用: AIチームは、全くのゼロから新しい分子を設計する(de novo設計)のではなく、既存の有望なナノボディを改良するという、リスクが低く成功率の高い現実的なアプローチを選択しました。これは、AIが単に計算能力が高いだけでなく、研究戦略においても優れた判断を下せることを示しています。
研究のLimitationとPerspective (私見)
本研究の課題は、AIが現実の物理的な実験系から切り離されており、静的かつ不完全な知識に依存している点です。AIエージェントは自ら実験を行うことはできず、その意思決定は知識カットオフ時点までの情報に基づいています。例えば、論文で言及されているように、AIはAlphaFold 3のような最新ツールの存在を知らない可能性があります。また、LLMが誤った情報(ハルシネーション)を生成するリスクも存在するため、人間の研究者による事実確認が常に必要となります。このため、計算上の設計と実験室での検証の間に人間の作業が介在し、研究全体のボトルネックとなっています。
それを踏まえたうえで、今後の研究ではバーチャルラボを物理的な実験自動化システムと接続し、自律的な科学発見のサイクルを構築することが期待されます。AIエージェントがコードを書き、デバッグし、実行するための環境を開発することで、計算から実験までをシームレスに繋ぐことが可能になります 。さらに、検索拡張生成(RAG)の技術を導入してAIエージェントが最新の科学文献にリアルタイムでアクセスできるようにすれば、知識の鮮度の問題も克服できます。この研究で示されたフレームワークは特定のドメインに依存しないため 、このような改良を加えることで、創薬、酵素設計、個別化医療など、より広範なバイオメディカル領域での研究開発を劇的に加速させることができると考えられます。
