Metaは、触覚認識と人との協働を視野に入れたロボティクス分野での最新AIツール「Sparsh」「Digit 360」「Digit Plexus」、および評価ベンチマーク「PARTNR」を発表した。これらの新技術は、ロボットに対する触覚認識の付与や人間のような操作性を強化することを目的とし、触覚情報を収集する触覚センサーや、人とロボットの相互作用を評価するための標準を提供する。

Sparshは視覚ベースの触覚認識モデルであり、自己教師付き学習によって従来のラベル付きデータへの依存を減らしている。また、Digit 360は高精度な触覚ピクセルによる感知機能を備え、物体とのリアルなインタラクションを可能にするデバイスである。

これらは今後、Metaのメタバース領域においても大きな役割を果たす可能性がある。また、協働評価用のPARTNRはシミュレーション上で家庭内タスクの評価を実施するもので、Metaの基盤AIがどの程度人間の指示に適応できるかを測定する。

MetaのSparshによる触覚認識の進化がもたらすロボティクスの新境地


Metaが発表した「Sparsh」は、ロボットに触覚認識を付与する新たな視覚ベースのエンコーダーモデルであり、これにより従来のラベル付きデータの依存を大幅に削減している。ワシントン大学やカーネギーメロン大学と共同で開発されたこのモデルは、自己教師付き学習(SSL)を活用し、触覚情報の収集と解析を可能にしている。このアプローチによって、触覚認識の一般化が可能となり、異なるロボットや環境間でも高いパフォーマンスを発揮できるようになった。

特に注目すべきは、Sparshが46万以上の触覚画像データを通じて訓練された点である。これにより、多様なデータに基づいた識別精度が向上し、平均で95.1%もの精度向上を達成した。これまでのロボティクス分野では、個別のタスクやセンサーに依存するモデルが主流であったが、Sparshは汎用性の高いアプローチを実現した。

この技術は、ロボットが物理的な操作を行う際に触覚を通じた判断力を持たせる基盤となる可能性がある。Metaが提供するこの基礎モデルは、エンボディードAIの発展における新たなステージを示しており、触覚認識の標準的手法の変革を促すことが期待される。

触覚センサー「Digit 360」が生み出す次世代のインタラクション体験


Metaが新たに開発した触覚センサー「Digit 360」は、従来の触覚デバイスを大きく進化させるものである。人工の指形状を模したこのセンサーは、指先表面に8百万以上のタクセル(触覚ピクセル)を搭載し、全方位での触覚認識を実現している。これにより、ロボットが触覚情報を通じて周囲の環境や物体の状態を細やかに把握できるようになった。

Digit 360は、オンデバイスAIモデルを内蔵し、触覚データをローカルで処理する設計となっている。これにより、クラウドへの依存を減らし、迅速なリアクションが可能となる点が評価される。このリアクションは、人間の反射弧に似た低遅延での応答を実現するため、物理的な操作性をよりリアルな形でロボットに提供できる。

Metaの構想として、Digit 360が仮想空間のインタラクションにおいても効果を発揮し、メタバースでの応用も視野に入れている点が興味深い。特にGelSight Inc.との提携により、触覚センサーの技術力を引き上げるとともに、ロボティクス分野での新たな可能性を切り開く基盤としての役割が期待される。

人とロボットの協働を評価する新ベンチマーク「PARTNR」の役割と未来


Metaが発表した「Planning And Reasoning Tasks in humaN-Robot collaboration」(PARTNR)は、人とロボットがどの程度協力してタスクを実行できるかを評価するためのシステムである。このベンチマークは、Metaのシミュレーション環境「Habitat」を基盤とし、60の家屋と5800を超えるユニークなオブジェクトに加え、10万件の自然言語タスクが組み込まれている。

これにより、家庭内での人とロボットの協働を再現し、現実的な場面でのAIとロボットの適応力を評価することが可能となった。

このベンチマークは、大規模言語モデル(LLM)やビジョン・ランゲージモデル(VLM)が人からの指示にどれだけ正確に従えるかを測定するものとして機能する。これにより、ロボティクス分野におけるAIの実用性を高める一助となることが期待される。Metaは、このベンチマークによって人とロボットが効率的に協働できる未来を見据えており、AI技術が物理的な世界でどのように応用されるべきかの指針となり得る。

Reinforz Insight
ニュースレター登録フォーム

最先端のビジネス情報をお届け
詳しくはこちら

プライバシーポリシーに同意のうえ