Day: April 2, 2025

AI news (4/2)AI news (4/2)

Google; https://blog.google/products/gemini/how-we-built-gemini-robotics/ Google DeepMind、ロボット向け「Gemini 2.0」ファミリー発表 — ロボティクスの未来へ大きく前進 Google DeepMindが最近発表した、ロボット向けに特化した新たな「Gemini 2.0」モデル群の準備の中で、ロボティクス部門責任者のカロリーナ・パラダ氏は、チームとともにその技術力の最終確認を行った。 チームは、複数の関節とピンセットのような手を持つ研究用ロボット「ALOHA」の両腕に、見たことのない物体を使って初めての作業をさせた。「たとえば、私の靴をテーブルに置いて“この中にペンを入れて”と指示したんです」とカロリーナ氏。「ロボットは少し考えたあと、その通りに作業をこなしました」 さらに、おもちゃのバスケットボールとゴールを使い、「スラムダンクして」と頼んだところ、本当にやってのけたという。「あれはまさに“わお”という瞬間でした」と彼女は語る。 これを実現したのは、Gemini 2.0の進化版「Gemini Robotics」モデル。テキストや動画、音声などを扱うマルチモーダル出力に加え、ロボット特有のデータでファインチューニングされており、物理的な行動が可能となっている。Google CEOのサンダー・ピチャイ氏は「この技術は、次世代ロボティクスの基盤になる」とX(旧Twitter)上で語っている。 汎用性・対話性・柔軟性を備えた次世代モデル Gemini Roboticsモデルは、高度な器用さ(dexterity)、対話能力、汎用性を兼ね備えており、追加の訓練なしでも新しい物体や環境、指示に反応できる。 「私たちのミッションは、日常生活で人を助ける“具現化されたAI”を搭載したロボットを開発することです」とカロリーナ氏。彼女は子どもの頃に見たSFアニメに影響され、自動で家事をこなすロボットに憧れていたという。「将来的にロボットは、スマホやPCのようにAIと接するためのインターフェースの一つになります」 ...