ハンドリングのための衣類状態推定

                 共同研究者:齋藤史倫、喜多伸之(産総研) 

概要

近年、ロボットには、より日常的な環境で活躍することが期待されており、そこでは柔らかな対象物も的確に扱えることが望まれる。柔らかな対象物を自立的に扱うためには、変形する対象を視覚認識する技術も重要である。本研究では、ハンドアイシステムで衣類を取り扱う課題を想定し、対象の変形予測に基づいて観測画像を解析することにより、マニピュレータによって保持された対象の状態を推定する手法を提案する。

原理

あらかじめ計算機内部で右図のように衣類の形状変化を予測する。任意の一点で衣類を把持し観測した画像上の衣類領域の形状とこの複数の予測形状の一致度を算出することにより、対象がどのように把持されているかを推定する。推定された状態に基づき、次にハンドリングする部位の3次元位置を計測し、その部位の法線方向を推定する。

実験

2種類のトレーナを対象とした実験において、約80%の正解率で状態を推定することができた。正しく状態推定さえ行えれば、次のハンドリング動作を可能とする3次元情報の抽出が可能である。下に、トレーナを肩で広げる課題の実験結果を示す。

参考文献

1) Y. Kita、F. Saito, N. Kita: “A deformable model driven method for handling clothes",Proc. of Int. Conf. on Pattern Recognition(ICPR04), 2004/8.

2) Y. Kita、F. Saito, N. Kita: “A deformable model driven visual method for handling clothes",Proc. of Int. Conf. on Robotics and Automation (ICRA04),4,pp.3889-3895、2004/4.

3) Y. Kita、N. Kita: “A model-driven method of estimating the state of clothes for manipulating it”, Proc. IEEE Workshop on Applications of Computer Vision(WACV02), 2002.