センサデータ統合にあたって,LiDAR・カメラ・IMU などのセンサの内部・外部パラメータを正確に知ることは重要です.これらのセンサ統合のための高精度かつ簡便なキャリブレーションシステムを開発しています.
LiDAR・カメラ間の相対姿勢を求めることは応用上重要である一方,既存手法は特殊なキャリブレーションターゲットや多数のデータ計測が必要であったり,特定の種類のLiDARにしか使えないなどの問題があります. この研究では,2D-3D対応付による自動初期値推定とNIDによる点群・画像アラインメントを組み合わせることで,任意の点群センサに使用でき,キャリブレーションターゲットを必要とせず,自動でキャリブレーションを行えるフレームワークを提案しました.
General, Single-shot, Target-less, and Automatic LiDAR-Camera Extrinsic Calibration Toolbox, ICRA2023
詳細を開くロボットアーム座標とカメラ座標の相対姿勢を求めることを Hand-eye キャリブレーションといい,検査ロボットなど産業的な応用に求められる技術です. イタリア・パドヴァ大学ではEU産学連携検査ロボット開発プロジェクト SPIRIT に参画し,通常のRGBカメラ,赤外線カメラ,X線カメラなどあらゆるカメラに適用可能な再投影誤差最小化に基づく Hand-eye キャリブレーション技術を開発しました.
General Hand-eye Calibration Based on Reprojection Error Minimization, IEEE RA-L/ICRA2019, 2019
General Robot-Camera Synchronization based on Reprojection Error Minimization, ARS2019
カメラの内部パラメータはあらゆる画像処理に必要である一方で,そのキャリブレーションはターゲットの画像を何十枚も撮る必要があり手間と時間がかかります. ここでは,多数のタグから作られる立体形状のキャリブレーションターゲットを用いることで,最小で画像一枚から内部パラメータキャリブレーションが可能なシステムを開発しました. 様々なカメラモデルに対応可能です (Pinhole, Unified omnidirectional, Plumb-bob, Fisheye, Atan). ターゲット上のタグ姿勢はバンドル調整によって求めるため特殊な制作設備は不要です.
詳細を開く小出健司@AIST (k.koide [at] aist.go.jp)