投稿日: Jan 09, 2014 12:50:35 AM
人の動きを分析できたら…
CESではウェアラブルとかインテルが“NII=Natural・Intuitive・Immersive”と呼んでいるような、機器操作ではなく自然で直感的で没入的だそうである。こういうマンマシンインタフェースは3Dの制作やゲームでは使われてきたが、それらが日常のコンピューティングに技術移転しつつあるといういことだろう。特にウェアラブルになるとキーボードやマウスは使えないので、どうしても自然インタフェースが必要になる。
しかし私たちが紙と鉛筆を使うような使い心地を実現するには多くの課題があり、NIIがすぐにでも職場や家庭にやってくると期待するのは早計だろう。ゲームユーザのようなコンシューマ用にこういう技術が使われているとはいっても、ゲームのクリエーター側ではまだこういったインタフェースで制作するようにはなっていないところがあるので、そちらの課題解決が優先するはずだ。
とりわけスケッチなどの2次元情報をクリエイトする側のツールはそれほど進歩していない。描画タブレットなどを購入して、なぜ紙と鉛筆に代わるものがそれほど難しいのかを考えていたことがあった。結論は筆記具と紙の間の摩擦抵抗の感触が重要であるということだった。たとえばタブレットで筆圧ペンのような仕掛けでは、力の入れ方を自分の手で感じることが微妙な表現をするには効果的だった。紙に鉛筆で字を書くときも摩擦によるひっかかりが、点画ハネなど文字のメリハリをつけるうえで必要だったのである。ペンなどのツールに力を入れたときの反撥感が得られないマウスで文字を描くというのは大変やりにくいのは誰もが感じたことだろう。
だから空中で手や体を動かすような、まったく何の反撥もなりインタフェースは、力の加減という情報が欠落しているので、微妙なコントロールはできにくい。スポーツをシミュレーションしてトレーニングに使うとなると、人間に何らかの負荷をかけるデバイスが必要になるようなことに通じるものがある。つまり体へのフィードバックがないと人の能力は向上しないのである。
スマホやタブレットのタッチインタフェースも同じことがいえて、文字入力ではケータイの親指操作の方が達人を生み出すことになるのだろう。
モーションキャプチャや自然インタフェースは既存のアナログインタフェースやデバイスのインタフェースの代替をさせるよりも、むしろ今まではキャプチャのやりようがなかった分野で応用が広がっていくのではないかと思う。スポーツの場合は動画で運動の動作の分析が行われているが、そういうところが発達して新しいコーチ方法があらわれるようになるだろう。
人の唇の動きから文字化できれば、聴覚障害者には字幕の代わりになるだけでなく、発音の訓練にもよいかもしれない。もし過去の映画からモーションキャプチャが可能になったなら、CGでリメイクして、有名シーンの素材化が出来るかもしれないな、など空想は尽きない。