Research
研究内容
研究内容
本研究室では,「人・ロボット・空間の共生」を基盤とし,人を中心として「空間」「関係性」「認知」「協働」の4つの観点から,人とロボットが共生する知能システムの実現に取り組んでいます。
Our research is structured around four perspectives—space, relationship, cognition, and collaboration—centered on humans, to realize human–robot symbiosis.
Click each section to view the English version.
空間理解に基づく空間知能化とロボットナビゲーション
人・物・空間の状態の計測・理解に基づき,環境とロボットが協調する知的空間の実現を目指します。3D LiDARを用いた人流計測や行動解析に基づき,空間の可視化およびロボットナビゲーションへの応用を行います。「記憶に残したい」写真を能動的に撮影するロボットフォトグラファーや,人の移動履歴や空間利用を蓄積・活用する空間メモリの構築に取り組みます。
This group aims to realize intelligent environments where humans, objects, and environments are sensed and understood, enabling seamless collaboration between environments and robots. Based on human flow measurements and behavioral analysis using 3D LiDAR, we develop methods for spatial visualization and robot navigation. We also focus on constructing spatial memory systems that accumulate and utilize histories of human movement and space use.
社会的関係性に基づく人–ロボットインタラクション
社会的関係性や行動特性に基づき,人と関係性を築くロボットのインタラクションの実現に取り組みます。人の行動や相互作用の特性を捉え,関係性の形成や変化に応じて適応的に振る舞う行動生成手法を研究します。動物行動学に基づくアプローチに加え,PCITロボットなどのソーシャルロボットを通じて,人の発達や対人関係に働きかけるインタラクションの設計に取り組みます。また,Virtual-Animal Assisted Activityを通じて,人の心理や行動に働きかけるインタラクションを探究します。
This group aims to develop human–robot interactions that enable robots to build relationships with humans based on social relationships and behavioral characteristics. We study behavior generation methods that capture human interaction patterns and adapt to the formation and evolution of relationships. In addition to ethology-inspired approaches, we design social robotic systems, including PCIT-based robots, that support human development and interpersonal interaction.
センシングとアクチュエーション(情報提示を含む)を統合し,人の認知を支え,活動を支援する技術の実現を目指します。人の状態や環境を理解し,適切な情報提示や支援を行うことで,人の意思決定や行動を支えるシステムを構築します。視覚障害者の歩行支援,小型探査ロボット群運用のためのVR共創空間の構築,酪農作業の最適化,ドライバーの疲労推定,幼児の表情認識,PCIT支援など,多様な応用に展開しています。
This group aims to develop technologies that support human cognition and activities by integrating sensing and actuation (including information presentation). By understanding human states and environments, we design systems that provide appropriate information and support human decision-making and behavior. Our applications include assistive systems for visually impaired individuals, optimization of dairy farming operations, driver fatigue estimation, facial expression recognition for infants, and PCIT-based support.
人とロボットの協働において,安全性・効率性・信頼性・受容性の向上を目指します。生理信号計測などにより人の内部状態を推定し,状況に応じた適応的な支援を行う協働システムを構築します。溶接作業を想定したロボットティーチング支援など,実環境での応用を見据えた研究に取り組みます。
This group aims to enhance safety, efficiency, reliability, and acceptability in human–robot collaboration. We develop adaptive collaborative systems that estimate human internal states through physiological sensing and provide context-aware support.
We also work on practical applications such as robot teaching support for welding tasks in real-world environments.