トレーナを畳むデモ動画(10倍速)
科研基盤A(H22-H25) |
「柔軟物連続操作のための視覚認識とアクションの双方向連動に関する研究」 |
(科研B(H19-H21)「アクションと連動する衣類状態の視覚認識に関する研究」)
研究成果 |
研究概要 |
|
ロボットが日常的な環境でも活躍できるよう、衣類のような柔らかな対象物も的確に取り扱えるための研究を行っています。
衣類を扱う場合の難しさは、「扱っている間に形が変わること(柔軟性)」と「形状(サイズ、デザイン)や柔軟性のバリエーションが大きいこと(多様性)」の2点あります。この研究期間では、前者の柔軟性に対処できる基本手法を開発し、任意の状態の衣類を右のデモのように指定された状態に畳むことが可能であることを示しました。
方針:
任意形状から特定の形状へ持ち込むタスクを、大きく次の3段階に分けています。
I. 認識支援、 II. 状態認識、III. タスク遂行
I. 認識支援
任意の状態の対象を取り上げ、状態をより確実に認識するため、形状をできるだけ限定し、かつ、多方向から観察するような認識支援動作を行います。
(→技術詳細)
II. 状態認識
起こり得る衣類の形状候補を把持位置により分類してシミュレーションにより予測し、観測形状と照合することにより状態を認識します。 (→技術詳細)
III. タスク遂行
一度、対象の状態が認識できれば、後は、その情報に基づき、次に把持すべき位置やその時のハンドの姿勢を算出してアクションを行うと同時に、そのアクションによりどのような形状になるかを予測、この予測形状をもとに観測形状を処理し、最新の状態に更新します。
(→技術詳細)
|
支える技術 |
*形状照合に適したZバッファ画像(EZ buffer)
*広視野ステレオによる近接作業場の3次元計測
*目標把持の実行可能アクションへの自動変換
*高精度のリアルタイム3眼立体視 |
基盤となる研究 |
広視野ステレオカメラ
|
メンバー |
|
公開資料 |
発表文献・特許 |
E-mail: y.kita@aist.go.jp
Last Updated