マルチエージェントと協調計算ワークショップ(MACC'95)


複数自律ロボット環境におけるフォーカルポイントの形成
-- 複数自律ロボットシミュレーターMARSによる実験評価 --
Formation of the Focal Point in an environment for Multiple Autonomous Robots
本村陽一 麻生英樹 國吉康夫 原功 赤穂昭太郎 松原仁 開一夫

ABSTRACT


In this paper, "Focal Point"(Sheiling 1960) is discussed as a method of sharing information without explicit communication between cooperative multiple autonomous robots. We consider cooperation behavior as multiple robots arriving at the same target object at the same time. The question is how to dispatch multiple robots to a common object reactively. We provide a framework that embodies the focal point concept in the context of cooperative multiple robots, and some focal point algorithms are applied. In order to evaluate cooperative performance quantitatively, multiple autonomous robots simulator(MARS) has been developed by our group. In two dimensional environment, each robot move around and observes objects using an eye-sensor with limited field of view. So, a robot can only observe part of all objects until it explore completely. For this reason, some focal point algorithms using complete observation are not sufficient in this problem. A simple focal point algorithm, which doesn't need complete observations is proposed. Using our simulator, some experimental results show that this algorithm can improve cooperation performance efficiently. Then, some other experiments show that sharing observing experience with other robots can also solve the requirement about complete observations.


アブストラクト


同一環境内で同一の目的を持ったエージェントの間で明示的に通信をすることなく 環境を介在した情報共有を行うことを考える。例えば適応的な協調行動を実現する ために各エージェントが複数の処理対象の中からどれに注目すべきかをそれぞれが その場の環境に応じて選択する場合、複数のエージェントの選択結果をできるだけ 一致させたい。このような集団における共同注視点は焦点(フォーカルポイント)と 呼ばれ古くから研究されている(Sheiling1960)。最近ではマルチエージェントシステム に適用する研究も報告されている。我々は実環境を模擬した2次元空間内を複数台 の自律ロボットが協調してタスクを処理するという設定を考え、協調動作の定量的 評価を行うために複数台ロボットシミュレーター(MARS)を開発した。 ここではある特定の物体に同時に複数のロボットが到達するとタスクが処理されると 考える。すると適応的な協調動作を行うためには各ロボットがどのように対象物体を 決定するかが問題となる。このための枠組として我々はフォーカルポイントの適用法を 示し、実験的評価を行う。各ロボットは環境内を動き回りながら有限の視野を持つ 視覚センサで観測を行うためにロボットは環境内の情報を完全には観測できない。 これまでに報告されているフォーカルポイントアルゴリズムは完全観測を前提 としているため本タスクに直接用いるとフォーカルポイントの一致性が低下する。 そこで完全情報を必要としない単純なフォーカルポイントアルゴリズムを考え、 これの有効性を実験的に示す。また他のエージェントと観測経験を共有する方法 が完全観測に関する要請を解消する可能性があることを実験により示す。


Paper(PostScript)


[HOME] | [Research page] | [Neural Networks]