トレーナを畳むデモ動画(10倍速)
科研基盤A(H22-H25)
「柔軟物連続操作のための視覚認識とアクションの双方向連動に関する研究」

(科研B(H19-H21)「アクションと連動する衣類状態の視覚認識に関する研究」)

研究成果 研究概要

衣類ハンドリングのための可変形状モデルを核とした全体戦略
***机上未知形状からのトレーナを畳む一連動作デモ1(モデル既知)
***机上未知形状からのトレーナを畳む一連動作デモ2(モデル既知)

複数方向観測データを用いた状態推定

アクションを活用する衣類状態推定
***アクション活用状態推定デモ

可変形状モデルを用いた特定部位把持アクションの自動算出
***肩把持動作デモ1
***肩把持動作デモ2(最初、見えていない場合)

距離画像を用いた衣類状態推定

実験システム


 ロボットが日常的な環境でも活躍できるよう、衣類のような柔らかな対象物も的確に取り扱えるための研究を行っています。

衣類を扱う場合の難しさは、「扱っている間に形が変わること(柔軟性)」と「形状(サイズ、デザイン)や柔軟性のバリエーションが大きいこと(多様性)」の2点あります。この研究期間では、前者の柔軟性に対処できる基本手法を開発し、任意の状態の衣類を右のデモのように指定された状態に畳むことが可能であることを示しました。
   
方針:
 任意形状から特定の形状へ持ち込むタスクを、大きく次の3段階に分けています。
 I. 認識支援、 II. 状態認識、III. タスク遂行
 I. 認識支援
  任意の状態の対象を取り上げ、状態をより確実に認識するため、形状をできるだけ限定し、かつ、多方向から観察するような認識支援動作を行います。 (→技術詳細
 II. 状態認識
  起こり得る衣類の形状候補を把持位置により分類してシミュレーションにより予測し、観測形状と照合することにより状態を認識します。 (→技術詳細
 III. タスク遂行
  一度、対象の状態が認識できれば、後は、その情報に基づき、次に把持すべき位置やその時のハンドの姿勢を算出してアクションを行うと同時に、そのアクションによりどのような形状になるかを予測、この予測形状をもとに観測形状を処理し、最新の状態に更新します。 (→技術詳細

支える技術
 形状照合に適したZバッファ画像(EZ buffer)

広視野ステレオによる近接作業場の3次元計測

目標把持の実行可能アクションへの自動変換

*高精度のリアルタイム3眼立体視
 基盤となる研究

変形モデル駆動型衣類状態推定手法

リアルタイム3眼ステレオビジョン

広視野ステレオカメラ

ヒューマノイドHRP2

メンバー

喜多泰代
植芝俊夫
金広文男
喜多伸之

森澤光晴

公開資料
発表文献・特許

E-mail: y.kita@aist.go.jp
Last Updated