ロボカップ@ホームの紹介
以下の文章は人工知能学会誌におけるロボカップ特集号に投稿した原稿を著者自らが改稿したものです。
おそらく、元論文の著作権は人工知能学会にあるので転載許可等の手続きが必要なんでしょうけど、著者による改稿ということで許して下さい。
詳細は論文誌をご覧ください。
特集:「ロボカップ12 年」、人工知能学会誌、Vol. 25 No. 2 ( 2010 年3 月)
ロボカップ@ホームでは毎年毎年ルールが改正されるので、ルールなどに関する記述は過去のものである可能性が大です。文章中に出てくるタスクはすべて2009年度のオーストリアでの世界大会の時点のものです。
ロボカップ@ホームリーグとは?
目的と意義
ロボカップ@ホームリーグ(@ホームリーグは”あっとほーむりーぐ”と読む.以下、@ホームリーグと省略する.)では,人と共に作業を行うロボットが,キッチンやリビングルームなどの家庭環境において様々な課題に取り組み,その達成度により勝敗が競われる.
日常生活で人間を支援する自律ロボットによる競技を通じて,人とコミュニケーションしながら,より役に立つ仕事を行う実用的なロボットの実現を目指している.
いずれ日本が世界に先駆けて突入することが確実な高齢化社会においては,家庭環境で人間を支援するロボットは問題の軽減化に向けての重要な手段と考えられている.
この競技で優秀な成績をおさめることのできるロボットは,社会のニーズに対する一つの答えとなる可能性もあるという意味で,@ホームリーグは人工知能の重要なテーマの一つを体現していると言えよう.
@ホームリーグはいくつかの共通の課題とそれぞれのチームが独自に設定するオープンチャレンジ,デモチャレンジ,ファイナル競技から構成され,共通課題はテクニカルコミッティーの主導でメーリングリストなどで協議を重ねた上で毎年,様々な視点で難度の高い課題に変更される.これは,技術の進歩と課題の難易度を適切に制御するためである.
また,競技会において勝敗は単純に課題の成功・失敗だけで決まるのではなく,以下に挙げるような様々視点から採点されることになっており,純粋にロボット技術を競うのではなく、現実の家庭で使うという実用性を重視した競技であることがわかる.
また,動作の信頼性・確実性もまた評価の対象とするため競技は基本的に一発勝負であり,再試行は減点の対象となる.
ロボットと人が自然なコミュニケーションを行っているか?
アプリケーション志向であるか?
技術的に新しい事に挑戦しているか?
セットアップに時間をかけていないか?
観客が見ていて楽しいか?
実用的な時間で動作するか?
これらの評価基準を満たしつつ,以下に述べるような課題を一発勝負で確実に実行できるロボットは,家庭用ロボットとしてはレベルが高いところにあると言えよう.
共通課題のいくつか
2009年度版のルールブックによると,競技は9つの共通課題と2つのチャレンジ種目および決勝のファイナル競技からなる. ここでは,共通課題の中から代表的な課題を紹介する.他の共通課題の詳細はルールブックを参照されたい.
Introduce
すべての競技の初めに行われるタスクである.
このタスクはチームの紹介をロボットが行い,他のチームのリーダ全員が評価を行う.ロボットはタスクの開始から終了まですべて自律で動作することを要求されるため,部屋への入場や退場などの指示は基本的に音声で行う.会場に備えられた大型スクリーンを使ってスライドを提示したり,ロボットが身振り,手振りで自らの機能を紹介したりと各チームが趣向を凝らしたプレゼンテーションを行う.
我々のチーム(eR@sers)はメンバーの学生とロボットが会話しながらプレゼンテーションを進めるという形式で高評価を得ている.
2009年世界大会(ウィーン)でのIntroduceタスクの様子を示す。
Who Is Who ?
リビングの中にいる人を見分けるタスクである. リビングには既知の人物\footnote{例えば,チームメンバーから選ばれる}が1名と他のチームや観客から選ばれた未知の人物2名が審判の指示に従った場所に立っている.ロボットはそれらの人々を見つけ,予め顔と名前を覚えている既知の人物であれば,「誰々さん,こんにちは」と挨拶をし,初対面の人物だと思えば名前を尋ねて名前と顔を記憶する.
リビング内にいるすべての人物を見つけたら,ロボットは自ら出口に移動し,一人一人退場する人の顔を見て,「誰々さん,さようなら」と見送りの挨拶をする.
すべての人物の見送りが終わったら,ロボットは自ら出口より退場する.
このタスクではリビングルームを隈なく探すナビゲーション機能,ビジョンを主にした人物発見と顔認証,さらには対話により名前を聞き出して覚えるといった技術を要求される.
Walk & Talk
このタスクは前半の未知環境の地図を作るガイドフェーズとロボットが作った地図に従って部屋を移動するナビゲーションフェーズから構成される.
初めに,ロボットはチームメンバーの後を付いていくことで部屋にあるランドマーク(ソファー,キッチンテーブル,テレビなど)の位置や部屋の形を覚える.
チームメンバーはランドマークの側にロボットを誘導したら,その場所の名称を音声で与え,ロボットは位置と場所の名称を記憶し地図をアップデートする.
予め審判が示したランドマークを記憶したらガイドフェーズは終了し,ナビゲーションフェーズに移る.
ナビゲーションフェーズでは審判からナビゲーションすべきランドマークが示される.
チームメンバーは審判から与えられたランドマークを順番に訪れるよう,ロボットに音声でランドマークの名称を指示する.
ロボットはランドマークの位置に到着したら,音声あるいは他の手段でどこのランドマークに到着したかを示す必要がある.
例えば,キッチンテーブルへの移動を指示され,目的地に到着したら,音声で「キッチンテーブルに到着しました」のようにアピールをすることで得点が加算される. その際,実際のキッチンテーブルから1m以内の場所に近づいていない場合は,得点が認められない.
Cleaning up
\ref{fig:Cleaning}に示すのは、リビングに落ちているゴミを集め,予め決められた収集場所に持っていくCleaning upタスクの様子である.
タスクでは、ゴミは次の3種類に分類される.
審判団により競技前に示された”既知のゴミ”
コップや空き箱のように,色や大きさなどの詳細は指示されない”クラスを知っているゴミ”
上記に分類されない”未知のゴミ”
ロボットはゴミを見つけたら,上に示したゴミの分類を音声あるいはその他の手段で告げなければならない.つまり,床に落ちている物を分類しながら収集することが要求される.
本タスクでは,前述したWho Is Who?と同様,部屋を隈なく探すナビゲーション機能,ゴミを分類するビジョン,さらには見つけたゴミを収集場所まで捨てに行くマニピュレーション技術が必要となる.
チャレンジおよびファイナル課題
オープンチャレンジとデモチャレンジ,ファイナル課題はそれぞれ与えられた時間の中で,チームが自由に設定した課題を見せ,審判団が採点する形式の課題である.
いずれの課題も制限時間をプレゼンテーション,デモンストレーションおよび質疑応答の時間に自由に割り振り,チームが自分たちの技術を審判団にアピールする.
予選第一ラウンド(ファーストステージ)の最終種目であるオープンチャレンジは研究的要素が重視され,機構の斬新さやアルゴリズムの新規性などを問われる.
他のチームのチームリーダーが採点に参加することで,より専門的な視点から課題遂行の優劣が下されることになる.
予選第二ラウンド(セカンドステージ)の最後に行われるデモチャレンジは大会ごとに設定されるテーマに従ったデモンストレーションを行う.
デモチャレンジでは観客が見ていて楽しいデモンストレーションが評価される.
例えば,2009年度の世界大会では "In the bar"というテーマが設定され,各チームが様々な趣向を凝らしたデモンストレーションを行った.
\ref{fig:demochallenge}の写真は我々のチーム (eR@sers)のデモチャレンジの様子である.
バーでの接客を想定し,2台のロボットがウェイトレスとバーテンダーに扮した.ウェイトレス役のロボットは客の飲み物の注文を聞いたり,音楽の好みを聞いて自らが演奏をする.
一方,バーテンダー役のロボットはカウンターに座った客の注文に従って飲み物を作って渡すことができる.
これらの課題で我々は,騒音下でのロバストな音声認識技術やコップや飲み物を掴んで相手に渡すマニピュレーション技術に挑戦した.
チームeR@sers
チームeR@sersは玉川大学,電気通信大学,(独)情報通信研究機構の合同チームで2008年度の大会から@ホームリーグに参加している.
ジャパンオープンでは2008年沼津大会,2009年大阪大会,2010年大阪大会と3連覇を達成し,
世界大会においても2008年中国大会で優勝,2009年オーストリア大会で準優勝と常に上位の成績を収めているチームである.
以下に,チームeR@sersの技術を紹介する.
ハードウェア
@ホームリーグのルールでは各チームは最大2台までのロボットをエントリーすることができる.
我々のチームeR@sersは玉川大学が中心になって開発したロボットeR@serと電気通信大学が開発したロボットDiGOROの2台で出場したが,ここではeR@serの紹介を行う.
\ref{fig:eRaser}にeR@serの主な
ハードウェアを示す.
移動機能はMobile Robotics社のPioneer 3-DX\cite{mobilerobots}にSICK社のレーザレンジファインダLM200\cite{sick}を搭載することで,超音波とレーザによる距離測定に基づく高精度の地図作成や障害物を回避しながらの経路探索などを実現した.
Pioneer 3-DXは外寸が$44cm \times 38cm \times 22cm$と比較的小柄ながら安定した走行には定評があり,付属の
ソフトウェアも充実し,自律移動ロボットの入門用のプラットフォームとして適している.
音声対話のためのマイクロフォンはSANKEN社製の超指向性ショットガンマイクCS-3e\cite{sanken}を使用している.ロボカップの会場のように周囲の騒音が大きい環境で,安定した音声認識性能を実現することはそれだけで研究の対象になりうる程の難しい課題であるが,我々は超指向性のマイクを使うことで雑音を排除する方針を採用した.
カメラはUSB2.0経由で高速なキャプチャーが可能な東京エレクトロンデバイス社製のTD-BD-SCAMv2を使用した.SXVGAの高解像度で30fpsの高速度なキャプチャーが行えるステレオカメラであり,3次元の物体検出や対象物までの距離測定を実現した.
ロボットの本体上部には5自由度のアーム,Pioneer 5-DOF Arm\cite{arm}を搭載し,オブジェクトのマニピュレーションやジェスチャーによるコミュニケーションを行った.
音声対話技術
@ホームリーグが想定するような日常生活環境でロボットが人と自然に対話し,作業をするためには様々な課題が山積している.
ここでは,我々のロボットで使用している音声対話技術について述べる.
音声認識および合成システム
eR@serの音声処理は(株)国際電気通信基礎技術研究所 (ATR)が開発した隠れマルコフモデル (HMM)に基づく音声認識システム ATRASRを用いた.
高指向性ショットガンマイクから入力された音声は,パーティクルフィルタに基づく非定常ノイズの逐次推定と,MMSE(Minimum Mean Square Error)推定に基づくノイズ抑制を行う\cite{fuji2006}.
それに続く,発話期間の切り出しは,フレーム内のエネルギーに基づき,endpoint detection(EPD)を行う.
音声認識では無ノイズ下で作成された音響モデル(clean AMs)とノイズを重畳した音声により学習されたモデル (noisy AMs)の二つを使うことで,大会会場のような雑音下であっても安定した音声認識性能を実現した.
未登録語の学習
@ホームの課題では,ペットボトルを見せながら「これの名前は”ペットボトル”」のように名前を教えることで,物の名前を記憶する
ことが要求される.
従来の方法では,「ペットボトル」が内部辞書に登録されている場合にのみ,ロボットに対してこのような発話をすることができた.しかし,その場合,ユーザは教える単語が辞書に登録されているかどうかをあらかじめ知っている必要があるが,専門家ではないユーザが辞書の内容を確認するには大きな労力が伴う.
これに対し,eR@ser に搭載した未登録語学習機能では,全く新しい単語であっても記憶することができる.
我々は音声対話を「イレイサー,私の名前は”岡田”」のような予め決められた定型文で行っている.ここで,「イレイサー」は音声認識開始のキーワードであり,「私の名前は」は以下に続く音声を発話者の名前として登録するためのキーワード
である.
この場合,切り出された名前(未登録語)をデータベースに登録することになるが,この時点では上記の「岡田」という音声はユーザの声による音声であり,ロボットが確認のため,「あなたの名前は”岡田”さんですね?」と発話させる時,「岡田」の部分だけがユーザの声になり不自然である.
そこで我々は,切り出された未登録音声をロボットの合成音に変換して,データベースに登録することにした.
この,不特定のユーザの声を特定の声(ロボットの合成音)に変換する技術として,eigenvoice Gaussian mixture model(EGMM)に基づく声質変換\cite{toda2007}を採用した.
画像認識技術
@ホームリーグのタスクでは、画像認識の技術が非常に重要になる.
例えば、Lost \& Found タスクは,審判団によって部屋の中の任意の場所に置かれた物体(ペットボトルやティッシュボックスなど)を探し出し,見つけた物体の名称を音声で示す課題であり,物体の発見と認識に高精度の画像認識が要求される.
また,Who Is Who?タスクでは,人の顔を認識し,未知の人であれば名前を尋ねて顔を覚える必要がある.従って,@ホームリーグではロボットの機動性だけでなく,画像認識技術が勝敗を大きく左右する.
画像認識のためのハードウェア
開発当初,eR@serの頭部は,パンチルト台にステレオカメラとガンマイクを搭載した比較的シンプルなものだった.しかし,Who Is Who?タスクなど人とのインタラクションを中心としたタスクでは,ロボットに顔がある事が重要になって来る.
\ref{fig:face}に,eR@serの現在の顔を示す.この顔は,サーボモーターを5つ使い,まぶたや眉毛,口を動かし基本的な表情の表出やリップシンクなどができるようになっている.
この顔は,カメラとは別のモジュールになっており,ステレオカメラにはめ込む形でパンチルト台に固定している.大会では,瞬きや人の顔を見つけると喜んだ表情をさせるなどの単純な表情表出を行ったところ,このような単純なものであっても,人とのコミュニケーションを円滑にする作用があることを実感した.
また,ロボットが人の顔を抽出しているかどうかが外見で分かることは,ロボットの内部状態を知る手がかりとなるため,ソフトウェアのデバッグなどにおいても非常に有用であった.
物体学習と認識のアルゴリズム
物体学習と認識の具体的なアルゴリズムについて説明する.
未知物体の学習タスクではまず,物体をロボットに見せて学習させる必要がある.
物体を見せて学習させる際に問題となるのは,画像中のどの領域が学習すべき物体かという,物体の切り出しの問題である.この問題は,動きアテンションを用いることで解決している\cite{nakazato2004} .
これらのタスクでは,人が物体を持ちロボットに見せることで教示するので,その際に物体を動かすと仮定し,画像中の動いている塊が物体であるという事前知識を与えることになる.
つまり,画像中の動きを検出し,その領域の色や奥行きの情報を基に最終的な物体領域を確率的に推定するもので,ステレオの計算を含めても10fps程度で動作する.
物体認識の際にも,シーン中のどこに認識すべき物体があるかを抽出する必要がある.
但しこの際は必ずしも人が物体を持っている保証がないため,動きに注意を向けた抽出手法を用いることができない.
そこで,認識時の領域抽出には,色ヒストグラムと奥行き情報を併用した高速なアクティブ探索による領域抽出手法を利用している.
特に,Cleaning upタスクや,部屋に置かれた物体を探し出し,見つけた物体を音声で示すLost\& Foundタスクでは,部屋の中のどこにあるか分からない対象物体をまず探す必要があるため,高速化したアクティブ探索によって候補位置を広い範囲から高速に探し出し,その物体に近づくことで最終的な認識を行う.
最終的な認識には,SIFT(Scale Invariant Feature Transform)を用いた局所特徴のマッチングを利用する.この際,色情報を用いて候補を絞った上で,学習時に様々な方向から見た物体のSIFT情報とのマッチングを行い最終的な認識結果を得る.
未登録語の学習・認識タスクにおける音声処理を含めたアルゴリズム全体の流れを\ref{fig:vision}に示す.
Lost\&Foundは,非常に難しいタスクであり,世界大会では多くのチームが挑戦したが,物体を発見し,最終的に認識することができたのは我々のロボットeR@serだけであった.
それでも時間内に発見し,認識までできた物体は3個中1つだけであり、まだ多くの課題を残していると言える.
顔の学習と認識のアルゴリズム
Who Is Who?タスクは,部屋の中にいる人を検出し,その人の名前と顔を覚える.従って,このタスクでは,人の検出,顔と名前の学習が非常に重要になる.
eR@serでは,まず人の検出のために,レーザーレンジファインダの情報を用る.レーザーレンジファインダの情報は,地図に基づく位置推定に用いるが,地図情報には人が含まれていないため,現在の情報から地図の情報を引き去ることで大まかな人の候補位置を推定することができる.
ロボットはこの情報をもとに人に近づき,画像を用いた顔検出を行う.顔の検出では,色情報と奥行き情報による候補の絞込みと,OpenCVの顔検出アルゴリズムを併用することで抽出のスピードと精度を向上している.
画像による顔検出は人から約2m以内で機能するため,ロボットはレーザーレンジファインダによって得られた人の候補位置を見ながら人に近づいて行く.このとき,画像上で顔が検出されればその位置の約80cm手前まで移動し顔の認識と
学習を行うことになる.また,近づくことによって顔検出ができなかった場合は,次の候補位置を探索する.
顔の学習や認識には,2次元隠れマルコフモデルを用いた手法を用いている.ただし,顔の向きや位置を正規化するために,両目と口の位置を検出し,その3点が形成する三角形が一定となるようにアフィン変換を行っている.また,輝度の補正を行うことで,照明条件の影響を抑えている.我々のチームの顔の学習や認識は非常に安定して動作しており,Who Is Who?のタスクでは,常に高得点を得ている.
@ホームリーグにおける今後の課題
ビジョンシステム
@ホームリーグでは研究室のような閉じた環境ではなく,人とロボットが共存できる自然な環境で競技を行うことを前提としている.そのため,会場の照明が不十分で照度不足が生じたり,逆に取材カメラの影響でスポットライトが当たるような場合でも特に対策は行わないのが普通である.
そのような,従来のロボットビジョンには適さないような環境でも安定して動作するビジョンシステムが特に必要とされる.
昨年度の大会までは,ほとんどのチームがCMOSあるいはCCD方式のステレオカメラ画像を使い,3次元空間の計測や対象物の探索,識別を行っていた.
しかし,照明が安定せず,時には外光が射すような環境では高精度の認識が難しいのが現状であった.
そこで,2009年の世界大会では筆者らのチームを始め数チームがスイスmesa社のTOF方式3次元距離測定カメラSwissRangerを使用していた. SwissRangerは強度変調して発光された赤外線が対象物で反射して戻ってくるまでの時間を計測することで,物体までの距離を測定する装置で,最高50フレーム毎秒の高速で距離画像を得ることができる.照明の影響がほとんど無いことが特徴で,オブジェクト把持の際の正確な位置決めや人物追跡に有効なことが大会でも示されたが,176ドット(水平43.6度)×144ドット(垂直34.6度)と画角が狭いのが難点である.
また,赤外線を発光する方式のため,他チームのカメラの影響を受け,画像を全く取得できなくなる状況も見られた.自然な環境においても安定した画像認識を行えるハードウェアおよびソフトウェアの更なる改良が必要である.
@ホームリーグのタスクでは顔認識を必要とするタスクが数多く存在する.顔認識は各チームが様々なアルゴリズムを駆使して行っているが,筆者の見たところ人種の違いによって認識率が大きく低下するチームが多かった.本年度,優勝したドイツチームは”黒髪のアジア人”の認識が苦手だとのことであった.一方で,中国チームはアジア人以外の肌の色は認識不可能だと話していた.
世界大会では普段,学習データに無いような特徴を持った顔を認識する必要があり,何らかの方策が必要だと感じている.
音声対話
音声対話の課題の第一は騒音への対策である.
ご存じのように,ロボカップの会場は様々な理由で音声認識とっては非常に”騒がしい”環境である.
騒音も場内アナウンスの放送であったり,ロボカップジュニアのダンスチャレンジで使われる大音量のダンスミュージックであったりと様々である.そのようなノイズの環境下で安定した音声認識を行うには上述した画像認識同様,
ハードウェア,ソフトウェアの両面での工夫が必要であろう.
ハードウェアの面では,我々も使用している超高指向性のガンマイクが有効である.
ロボットとの音声対話ではユーザはロボットの顔を見て話しかけてくれる場合が多いので,顔の部分にガンマイクを装着しておけば比較的容易に騒音を除去した音声を得られる.
逆に,複数のマイクをロボットの周囲に配置したマイクロフォンアレイシステムにより,ノイズの除去を行おうとしたチームもあった.
ソフトウェアの面では外国語への対応が重要な課題である.
世界大会は英語が標準語であり,ロボットとの会話も英語で行うことが原則である.
大会では我々チームメンバーの話す,拙い英語から,アメリカチームの標準英語,ドイツ訛りの英語など,非常にバラエティに富んだ不特定話者の英語を認識する必要がある.
また,今後は英語だけでなく,マルチリンガルの言語を認識する場面も想定されている.
例えば,来年度の世界大会はシンガポールで開催されるが,@ホームリーグの公式語である英語に加え,中国語による観客との対話場面が想定されている.
マニピュレーション
オブジェクトの発見や人物追跡などの課題に比べ,マニピュレーションを必要とする課題の成功率は相対的に低いのが現状である.
本年度の世界大会で実験的に行われた,ドアを開ける課題ではどのチームも成功することができなかった.マニピュレーション系の課題の成功率が低い原因の一つに,@ホームリーグで使われるような小型移動ロボットに搭載可能なロボットアームが少ないことが挙げられる.
参加チームのロボットを見ても,市販品では,スイスNeuronics AG社のロボットアームKatanaを使うチームが多いが,最大把持重量が450gと小さめのペットボトルを持ち上げるのが精一杯でノブを回してドアを開けるまでには至っていない.
小型のサーボモータを複数個組み合わせた自作のアームを搭載したロボットも見られるようになったが,動作速度や把持可能重量の制限など更なる改良が必要であろう.
ロボットプラットフォーム
ロボカップ@ホームに新規参入するにあたって,ロボットを製作し,環境認識による地図作成や,経路探索機能,ビジョンシステム,音声対話システムなどを実装するのは大変な労力を必要とする.
そのため,市販のロボットにフリーのロボット開発
ソフトウェアを組み合わせた,標準ロボットプラットフォームのようなものを提案し,@ホームリーグ参入の壁を低くすることの重要さが指摘されている.
ここでは,プラットフォームとなり得る
ハードウェアおよびソフトウェアの紹介を行う.
ハードウェア
筆者らのチームが使うPioneer 3-DXを始めとするMobile Robotics社の小型移動ロボットは,超音波距離センサやレーザレンジファインダーを標準でサポートする開発環境により,オンラインでの地図作成や経路探索などが比較的容易にプログラミング可能であり,今後新しく@ホームリーグに参加しよう考えているチームにとって使いやすいロボットであろう.
その他にも,セグウェイジャパンが取り扱うRMP(Robotic Mobility Platform) シリーズは最大積載量が大きいことや狭い旋回半径や倒立振子による自律走行により機動性に富んだ移動性能を示す.
また,Willow Garage社が開発中のロボットPR2は移動機能に加え,双腕によるマニピュレーション,ステレオカメラなどを備えた自律ロボットである.同社のデモンストレーションでは部屋のドアを開けたり,コンセントにプラグを挿しこんだりなどのタスクを実現しており,@ホームリーグのタスクを実行するのに十分な機能を有していると思われる.また,
ハードウェアと同時にROS(Robot Operating System)と呼ばれるオープンソースのロボットライブラリを開発しており,統合的なプラットフォームとしての可能性を思わせる.
@ホームリーグでは家庭と同じ程度の広さのリビングやキッチンを走行することを想定しているので出来るだけ小型で小回りが利くロボットが要求される.一方,マニピュレーションのためのアームやステレオカメラ,レーザーレンジファインダーなどかなりの重量を積載する必要があり,小型でありかつ可搬重量の大きいロボットの開発が必要とされている.
ソフトウェア
ロボットシステムの開発を共通化し効率化を実現する手段として,RT(Robot Technology)ミドルウェア(以下,RT ミドルウェアと記す)の概念が提唱されている .RT ミドルウェアはロボット機能のソフトウェア要素をモジュール化された部品とし,これらの部品を通信を介して組み合わせることによってシステムを構築できるようにするもので,@ホームリーグのように多様なタスクを要求されるロボットシステムに適していると考える. RTミドルウェアの実装の一つとして,OpenRTM-aistがある.OpenRTM-aistは産業技術総合研究所で開発が進められているオープンソースのロボット用モジュール開発フレームワークであり,画像処理やセンサ処理などの要素機能をモジュール化されたRTコンポーネントとして実装したり,RTコンポーネント間の通信を管理したりする機能を提供する.
前節で紹介した,Willow Garage社のROSもOpenRTM-aistと同様に,様々なコンポーネントを結合してより上位のタスクを実行するという,同様な考え方で開発が進んでいる.
その他,移動ロボットの開発環境として歴史があり多くのユーザに使われているものとして,Player/Stage/Gazeboプロジェクトがある.Playerは実機ロボットとシミュレーションロボットの抽象化を行い,センサ処理から障害物回避をしながらの経路探索など幅広い機能を提供する.また,二次元 (Stage)および三次元 (Gazebo)のシミュレータが提供され,Player/Stageを利用して書いたロボットの制御プログラムはプログラムを変更することなく,実機でもシミュレーションでも実行することができる.
おわりに
本稿では,@ホームリーグの背景と現状,そして今後の展開に関して述べた.
ロボカップ世界大会における@ホームリーグへの参加チームは2007年のアトランタ大会の15チームから本年2009年のオーストリア大会は20チームと年々増加の一途とたどっている.
2008年の中国大会の参加チームを国別に見ると、最多はイランの5チーム,続いてドイツが3チーム,地元中国やメキシコも複数のチームが世界大会に選抜されている.これらの国々は近年になってロボット研究に力を入れてきた所謂ロボット新興国であり,彼らがロボットの総合的な応用技術が試される@ホームリーグに積極的に参加し始めていることは大変興味深いことである.
謝意
チームeR@sersのメンバーの日頃からの精力的な活動に対して感謝の意を表する.
本研究の一部は、科学研究費補助金(基盤研究C 課題番号 20500186 研究課題名「生活支援ロボットの対話と行動のユーザー適応化技術の研究」および基盤研究C 課題番号 20500239 研究課題名「語意獲得における推論の対称性に関する研究」)により実施した.
本研究は文部科学省グローバルCOEプログラム(社会に生きる心の創成-知情意の
科学の再構築-)の支援を受けた。