このページでは研究活動などをまとめています。 (日本語 | English)
研究内容各種センサーから得られた情報から得られた情報を基に人の状態を推定し、その人の状態に合わせて行動することで、実世界の人間と人間らしくインタラクションするロボットを開発しています。またその開発のために、人間らしさを工学として利用できるようにする研究も行っています。現在は、画像認識や音声認識、音声合成などの機械学習技術を連携制御することで実現しています。 本研究の目的は,ロボットの前を通りかかった歩行者がそのロボットが提供するサービスを利用するか、その意志決定を予測する方法を実現することです。また、その手法がもたらす心理的影響を明らかにすることです。 この目的に達成するために、サービスを利用する人間の行動を従来の研究から数理モデル化し、センサデータから人間の行動をモデルに合致するかシミュレートする方法を取りました。具体的には、センサデータから歩行者の位置や顔向きを推定し、その位置や顔向きから人間の状態を予測、人間の状態が利用している状態にあると予測し、そうでない場合、利用しないと予測する方法を取ります。 検証実験の結果、統制された環境では、利用意志をすべて正確に予測でき、実環境に基づいたシミュレーションでは他の手法に比べ高い精度で利用意志を予測できることが統計的にわかりました。また、この手法に基づいて、利用意志があると推定される歩行者に音声で呼びかけた結果、他の手法に比べ、不快感を与えにくい特徴があることが新たにわかりました。 通行者の行動モデルに基づいてサービス利用を促すバーチャルエージェント[2][8]本研究の目的は,サービス利用を促すバーチャルエージェントを備えたインタラクティブサイネージを実現することです。この目的に達成するために、バーチャルエージェントが通行者に利用を音声にて呼びかけるインタラクティブサイネージを構築しました。サイネージを利用する割合とサイネージに対する通行者の印象の二つの観点からサイネージの有効性を現場にて実験により検証しました.検証実験の結果,エージェントが呼びかけを行わない場合に比べ,エージェントの横を通過している通行者に対してエージェントが呼びかけを行うとエージェントとインタラクションする通行者の割合は多くなる傾向が見られました。 視線情報と画像特徴に基づくマルチメディアの選好推定(修士課程)[3][4]本論文ではマルチメディアコンテンツの選好を推定する方法を実現しました.この目的を達成するアプローチとして,視線と画像の情報とそれに関連付けられた選好の情報から機械学習を用いて機械的に推定する手法を用いました. 本論文は3つの研究で構成されます.1つは並列提示した場合における画像の選好を推定した結果を分析し議論しました.ここで選好とは対象物が好きか好きでないかを表す情報とします.実験の結果,画像の情報よりも視線の情報が推定に有効である場合が有意にあると認められました.次に順次提示した場合における画像の選好を推定した結果を分析し議論しました.実験の結果,画像のみで推定した時と比べ画像と視線情報を組み合わせて推定したときのほうが精度が平均的に向上しました.最後に順次提示した場合における動画の選好を推定した結果を分析し議論しました.実験の結果,画像のみで推定した時と比べ画像と視線情報を組み合わせて推定したときのほうが精度が平均的に向上しました. 印象属性に基づく顔画像検索(学士課程)[1]
本研究では、「オタクっぽい」、「家庭的」、「男らしい」などの印象に基づいた検索クエリと検索対象である顔の画像群から、 コンピュータによる検索を行いました。本研究の利点として、「男性」、「メガネあり」などの従来の具体的なクエリだけでなく、 顔の印象からも顔の画像を検索できることがあります。目的を達成するために、検索対象である画像それぞれから顔の輪郭などの特徴を抽出し、 事前に学習した検索システムがその特徴を基に検索結果を作成するという手法を実現しました。 検索性能を評価した結果、 「オタクっぽい」などのクエリに対して検索性能が高いことがわかりました。
(from pixabay.com)
リアルタイム表情認識(準学士課程、高専)
(from pixabay.com)発表文献[10] Ozaki, Yasunori; Ishihara, Tatsuya; Matsumura, Narimune; Nunobiki, Tadashi; Yamada, Tomohiro, "Decision-Making Prediction for Human-Robot Engagement between Pedestrian and Robot Receptionist", IEEE RO-MAN 2018 (Oral, acceptance rate: 40-50%) [9] 尾崎安範, 石原達也, 松村成宗, 布引純史, "受付ロボットに対する通行者が抱く対話意志の予測とその心理的効果", CNR 2018 [8] 尾崎安範, 石原達也, 前田航洋, 鏡明彦, 松村成宗, 望月崇由, 布引純史, 山田智広, "通行者の行動モデルに基づいてサービス利用を促すバーチャルエージェントを備えたインタラクティブサイネージ", CNR 2017 [7] Ozaki, Yasunori, Aoki, Ryosuke, Kimura, Toshitaka,.Takashima, Youichi Yamada, Tomohiro, "Characterizing Multi EMG Channels Using Non-Negative Matrix Factorization for Driver Swings", IEEE EMBC 2016 (Poster, acceptance rate: 30-50%) [6] 尾崎安範、青木良輔、木村俊貴、高嶋洋一、山田智広、"ゴルフスイングにおける筋活動センサデータからの非負値行列因子分解による特徴抽出" MBE, 2016 [5] 尾崎安範, 青木良輔, 松村成宗, 高嶋洋一, 山田智広, "運動学習を促進する力触覚インタラクション技術に関する検討", クラウドネットワークロボット研究会(CNR), 2015 [4] 尾崎安範, 菅野裕介, 佐藤洋一, "視線情報と画像特徴に基づく画像の選好推定", パターン認識・メディア理解研究会(PRMU), 2014 [3] Yusuke Sugano, Yasunori Ozaki, Hiroshi Kasai, Keisuke Ogaki and Yoichi Sato, "Image Preference Estimation with a Data-driven Approach: A Comparative Study between Gaze and Image Features," Journal of Eye Movement Research, vol. 7, num. 3, 2014. [2] 尾崎安範, "目と目で通じ合う初音ミク -視線と微笑みのインタラクション-," あの人の研究論文集, Vol.3, No.1, 2012 (ネタ論文ですが、査読付きで採択率は約30%でした。投稿者はほぼ東大生でした。) [1] 尾崎安範, 出口大輔, 高橋友和, 井手一郎, 村瀬 洋, "印象に基づく属性による顔画像の検索に関する検討," 電子情報通信学会 総合大会, 2012 [特許5] 尾崎 安範 他, "筋活動可聴化装置、筋活動可聴化方法およびプログラム", 特開2018-023445 [特許4] 尾崎 安範 他, "筋活動解析装置、方法およびプログラム", 特開2018-015405 [特許3] 尾崎 安範 他, "筋活動推定装置、方法およびプログラム", 特開2018-015408 [特許2] 尾崎 安範 他, "力感フィードバック装置", 特開2018-020002 [特許1] 杉山 弘晃, 目黒 豊美, 大和 淳司, 山田 智広, 望月 崇由, 松元 崇裕, 尾崎 安範, 吉川 雄一郎, 石黒 浩, "対話方法、対話システム、対話装置、およびプログラム", 特開2017-207693 作品集学生時代や社会人で作成した主な作品の概要をスライドにまとめました。
|