DAS06_2_1Inami_j

デバイスアートCRESTシンポジウム

「簡単ロボット制御システム」

プレゼンテーション:稲見昌彦(電気通信大学 知能機械工学科/後に慶應義塾大学大学院メディアデザイン研究科)

2007年5月18日@秋葉原UDX4F:アキバ3Dシアター

稲見:研究項目グループとしては「先端的インタラクティブガジェットの開発によるデバイスアートの高度化」になるわけですが、今回の成果のひとつとして、電気通信大学の稲見の「簡単ロボット制御システム」について紹介させていただきます。

まず電気通信大学の方では、今回のプロジェクトにおいて「ガジェットリウム」の電気通信大学サテライトを構築しております。その電気通信大学サテライトでは(先ほど岩田先生がお話しになられましたように)先端的インタラクティブガジェットの開発を行なっていまして、メンバーとしては、私・稲見、そして児玉幸子、土佐信道が研究を行なっております。そこで今回の「簡単ロボット制御システム」に私が携わった中で、まずはきっかけとなる技術があります。それは、このCREST以前にJST「さきがけ」での研究によって私が開発した技術で「Augmented Coliseum」というものです。

2.1●「Augmented Coliseum」

[NHK-BS2『デジスタ』ビデオ上映]これはプロジェクターがロボットにぴったりと合わせて映像を投影しているシステムなのですが、もうひとつ技術的なバックグラウンドとして、プロジェクターの映像そのものを使ってロボットの位置を計測しようというシステム……これがキーテクノロジーとなっています。その中で、この「Projector-based Tracking System(指標画像追従による計測システム)」というものを開発しました【動画1】。これは普通のプロジェクターを利用できるのですが、ロボット側にこのように5つの光センサーを取り付けることによって、プロジェクターが投影した画像の中での明るさのパターンをこちら側の光センサーで読み取り、結果的にセンサーの位置を計測するという仕組みです。

例えば、左下に黒い影が見えますが、その影のところにちょうどセンサーがあります。この黒い影がきちんとセンサーの位置を測っている。左上にある数値が座標になるのですが、センサーの位置座標が映像の中で即座に計測できていることがご覧いただけると思います。

こうしたシステムによって、映像とロボットの動きを組み合わせていくことができます。例えば、このようにロボットが4台あって、こちらにCGの物体がある。このCGの物体をロボットにぶつけると……ロボットの位置はコンピュータの中できちんとリアルタイムで測っていますので、CGによってロボットを押してあげるようなこともできてしまう。当然ながら、ロボットがCGのオブジェクトを押すこともできます。また一方で、例えばこういうふうにロボット同士がぶつかりあった時、実際に物理的な接触が存在していなくても、コンピュータの中で接触計算をしてあげることで、バーチャルな接触というものを演算することができるようになります。

2.2●ディスプレイによる移動ロボットの制御

こうした技術を色々と開発研究しているうちに……もともと最初は、ロボットの位置をピタリと計測することをめざしていたのですが、考え方を逆にすると、実は映像そのものでロボットの制御も可能ではないかと思い至りました。それで開発したのが、今回の「簡単ロボット制御システム」のキーになる、ディスプレイ自体による移動ロボットの制御ということです。

今、画面に出ていますのは普通のノートパソコンです[スクリーン]。そのノートパソコンの画面上に風車のようなパターンが表示されています。まず、ソフトウェアでこの風車のようなパターンを動かします。そこに、このように小さなロボットを乗せてあげますと……実はこのロボットの底の部分に光センサーがついていて、この風車のようなパターンにぴったりくっついていくように、ロボット自体がプログラムされている。そういうことによって、画面上の映像を動かしてあげるだけで、このロボットの位置や姿勢をきちんと制御することができるわけです。【図1】

昔、マジックで白い紙の上に黒い線を引きますと、その線の上をロボットが動いていく「ライントレーサー」という玩具があったこと、ご記憶にある方もいらっしゃるかもしれません。その「ライントレーサー」のラインを、固定したマジックペンではなくて画像で色々と描いてあげれば、もっと複雑なことができるのではないか……という辺りが、この発想の原点にあります。

2.3●「誰もが」「簡単に」使える移動ロボット

最初はふと、ただ単に逆に考えて、ロボットが(モニタ上に表示された映像に)ついてくるのは簡単なのではないかと考えたのですが、実はこの技術自体が(一番最初に申し上げました)「簡単ロボット制御システム」……誰もが簡単にロボットを使うことができるような枠組になるのではないかと思い至りました。どういうことかと申しますと、まずロボットそのものを大変安価に構築することが可能になる。昔は、例えば先ほどと同様に、何かある一定の軌跡をロボットが辿り、角度も決めて、どこかで止まるようなことをさせようとした場合、普通そのロボットの位置をカメラか何かで計測して、それを座標変換して、さらに今度はデバイスドライバを書いて、さらにワイアレスのプログラムを書いてあげて、ワイアレスの装置をロボットにつなぐ……といったことを色々とやらなくてはいけなかった。

でも、これはロボットに光センサーをつけて、その明るさの和と差をうまく計算するだけで……つまり「足し算と引き算」だけで、ロボットは自分自身を制御してしまう。非常に簡単な回路で、頑張ればトランジスタでもできる。そのくらい、非常に廉価で構築可能で、しかも複雑な動きができる。

また(先ほど申しあげましたように)ロボットは底面についている光センサーで自分自身の運動を制御しますので、通信デバイスもデバイスドライバも一切いらない。

もうひとつには、結局ロボットは明るさのパターンしか見ていませんので、ディスプレイなら何でも利用可能です。どういうことかと申しますと、例えばここにあるプロジェクターでも、ノートパソコンの液晶でも、プラズマディスプレイでも、CRTでも、皆さんの携帯のディスプレイでも使うことができます。そういうふうに、ディスプレイなら何でもいい……つまりデバイスに依存しないということが言えます。

そしてまた、これは繰り返しになりますが(実はこれが一番面白いと思っている点なのですが)、画像を移動してあげるだけで、ロボットが制御できる。これはどういうことかというと、例えば「Adobe Flash」のようなソフトを使って、先ほどの風車のようなパターンを動かせば、誰もが簡単にロボットを制御することが可能なわけです。これはどういうことかというと、インタラクティブ・ウェブ・コンテンツの作成とほぼ同じぐらいの難易度で、ついにロボット(移動ロボット)を自由に制御することが可能になるということです。つまり、ロボットの位置や動きをここまで簡単に制御できるのだったら……今まではそういうことを行なおうとする場合、技術系の修士学生が半年ぐらいかかってようやくできたか、場合によってはできないか……くらいのものだった。でも、この技術を使うことによって、普通に「Flash」を使える程度の技術があれば、簡単にロボットを動かせる。つまりこれは、今まではエンジニアだけだったロボットを、より幅広いデザイナーやアーティストの人たちにも使えるようにする技術だというふうに捉えることもできるわけです。

2.4●「移動ロボット」アプリケーション例

もうひとつ実例をご覧いただきますと、例えばこれ[スクリーン]は「Adobe Flash」で、当研究室のマスターの学生がたった一晩で作りました【動画2】。アヒルの位置はカーソルで動かしてあげます。そこに、このようにロボットを乗せると、簡単にアヒルの後をついていって、群れのように行動するものを作ることができてしまう。これと同じことを他の技術でやろうとしたら、これはもう、半年でも終わらないほど大変な作業が待っています。

また、このように人がわざわざ入力してあげるだけではなくて、決まった動作もあります。これ[スクリーン]【動画3】。も学生が二晩ぐらいで作りました。このような形で、ロボットたちにシンクロしたダンスをさせることもできる。これは工学系の学生が作った作品ですが、よりデザインセンスが優れた人が作れば、もっと面白いものができるでしょう。

これは実際に海外でも展示しています。こんな感じ[スクリーン]【動画4】で子供も非常に喜びながら遊んでいます。当然ながら、これは移動ロボットだけではなくて、もっとスケーラビリティがあります。例えばこのような……秋葉原で部品を調達できますけれど、こういった人型ロボットも色々とインタラクションをすることができる。これはまだ物理モデルがちゃんと入っていないので、押すことしかできないのですが、もう少しきちんとモデルを入れると、このCGのボールを蹴ることもできる。そうすると、CGに合わせたロボットサッカーが簡単にできたりする。日本対ブラジルで対決したりと、そういうことも今後この技術を使うことで可能になるわけです。

以上で、この稲見担当の「簡単ロボット」についてのプレゼンを終わります。ありがとうございました。

前の講演へ 次の講演へ