米Physical Intelligence、新モデル「π0.7」発表—ロボット汎用知能への転換点か

Photo: Physical Intelligence

汎用ロボットAIへの「初期的ブレークスルー」

米スタートアップのPhysical Intelligenceは2026年4月、新たなロボット基盤モデル「π0.7」を発表した。研究によれば、このモデルは事前に学習していない作業でもロボットに実行させることが可能で、同社はこれを「汎用ロボット知能」への重要な一歩と位置付けている。
従来のロボットAIは、特定の作業ごとに個別データを収集し訓練する“専門特化型”が主流だったが、π0.7は異なるスキルを組み合わせて未知の課題を解決する「合成的汎化(compositional generalization)」を実現。未知環境でも自然言語による指示を受けながらタスクを遂行できる点が特徴とされる。

未学習タスクを実行、研究者も驚く性能

論文およびデモでは、π0.7がほぼ学習経験のない調理器具(エアフライヤー)を使い、食材調理を試みる事例が示された。モデルは断片的なデータとウェブ由来の知識を統合し、機器の使い方を推論したとされる。また、衣類の折りたたみやコーヒー抽出など複数の作業でも、従来の専用モデルと同等の性能を示した。特に注目されるのは、人間が逐次的に言語で手順を教えることで成功率が大幅に向上する点で、追加の再学習なしに現場で能力を改善できる可能性が示唆された。

期待と課題—「ロボット版ChatGPT」への距離

一方で、π0.7は完全自律的に複雑タスクを実行する段階には至っていない。抽象度の高い指示だけで作業を完結することは難しく、詳細なステップ指示が依然として必要とされる。さらに評価は主に社内比較に基づいており、標準化された外部ベンチマークも存在しないため、性能の一般化には検証が必要と指摘されている。それでも、言語・視覚・行動を統合した「ロボット基盤モデル」が未知環境で機能し始めた点は、生成AIにおける大規模言語モデルの登場に匹敵する転換点との見方もある。今後、実運用環境での検証が進めば、物流や製造、家庭分野でのロボット活用が大きく前進する可能性がある。

A Steerable Model with Emergent Capabilities
A steerable robotic foundation model that exhibits a step-change in generalization.
タイトルとURLをコピーしました