Social-Service Robot
We design robots that can communicate and interact effectively with people and develop related technologies. Robot technology that can even exchange emotions with humans is the most necessary and important technology for robots to become partners in human daily life. To implement this, we need not only the ability to implement it but also the ability of design to effectively express it.
Social robots are designed to interact with people in a natural, interpersonal manner - often to achieve positive outcomes in diverse applications such as education, health, quality of life, entertainment, communication, and tasks requiring collaborative teamwork. The long-term goal of creating social robots that are competent and capable partners for people is quite a challenging task. This requires a multidisciplinary approach where the design of social robot technologies and methodologies are informed by robotics, artificial intelligence psychology, neuroscience, human factors, design, anthropology, and more. (from Handbook of Robotics)
우리는 사람과 원활하게 의사소통하고 상호작용할 수 있는 로봇을 디자인하고 관련 기술을 개발합니다. 인간과 감정 교류까지 가능한 로봇 기술은 로봇이 인간의 일상 생활의 동반자가 되기 위한 가장 필요하고 중요한 기술입니다.
이를 구현하기 위해 구현 능력 뿐 아니라 효과적으로 표현할 수 있는 디자인 능력도 필요합니다.
소셜 로봇은 자연스럽고 누구나 이해할 수 있는 방법으로 사람과 상호작용할 수 있도록 개발됩니다. 가끔은 교육, 건강, 삶의 질, 재미, 의사소통, 팀웍이 필요한 작업과 같은 다양한 적용 분야에서 긍정적인 결과물을 얻기 위해서도 개발됩니다. 사람을 위해 유능하고 능력있는 동반자같은 소셜 로봇을 만드는 장기적인 목표는 매우 도전적인 과제입니다. 이를 위해 로봇공학, 인공지능 심리학, 신경과학, 인적 요인, 디자인, 인류학 등을 통해 이루어지는 소셜 로봇의 기술과 방법론에 대한 다학제적인 접근이 필요합니다.
Robot Emotion Engine
(로봇의 감정 생성 및 표현)
In order for robots to communicate effectively with humans, the technology to understand and respond to human emotions is very important in long-term interaction. We research and develop technologies that allow robots to understand a person's emotional state, respond immediately accordingly, and express emotional state in various forms depending on the surrounding situation or long-term memory.
로봇이 사람과의 원활한 의사 소통을 하기 위해 사람의 감정을 이해하고 거기에 맞게 반응하는 기술은 장기적인 상호 작용에 있어서 매우 중요한 기술이다. 우리는 로봇이 사람의 감정 상태를 이해하고, 거기에 맞게 즉각적인 반응을 보일 수도 있고, 주변 상황이나 장기적인 기억에 따라 다양한 형태로 감정 상태를 표현할 수 있는 기술을 연구하고 개발한다.
Human-Robot Interaction
(사람과 로봇간의 상호 작용)
We analyze voices, facial expressions, gestures, and postures used by humans to communicate. We also study and develop technologies that express robots' facial expressions, sounds, light, and gestures accordingly. Multi-layered situation analysis and emotion recognition are implemented by attempting low-level sensor fusion in the signal and data stages and utilizing the results. Based on these, the robot can generate affective states and emotions, and it can express emotions immediately and intentionally accordingly.
사람이 의사 소통을 위해 사용하는 음성, 표정, 제스처, 자세 등을 분석하고, 거기에 맞게 로봇의 얼굴 표정, 소리, 빛, 제스처 등으로 표현하는 기술을 연구하고 개발한다. 신호와 데이터 단계의 low-level sensor fusion을 시도하고, 그 결과를 활용해서 다층적 상황 분석과 감정 인식이 구현된다. 이를 바탕으로 로봇은 정서와 감정을 생성하고 그에 맞게 즉각적인 감정 표현과 의도적인 감정 표현을 할 수 있다.
Robot Design
(로봇 디자인)
We research the optimized shape and structure of robots that can maximize emotional expression and interaction with minimal functions. The human-friendly appearance and natural functional implementation are critical factors that make people feel more familiar with robots.
최소의 기능으로 감정 표현과 상호 작용을 극대화할 수 있는 로봇의 형태와 구조에 대해 연구한다. 사람에게 친근한 외형과 자연스런 기능 구현은 사람이 로봇에게 더욱 친근함을 느끼게 하는 중요한 요소이다.
Researchers
박하은(HE Park), 권용섭 (YS Kwon), 권민지(MJ Kwon), 성민재(MJ Sung), 황선준(SJ Hwang)
정승빈(SB Jeong), 이지연(JY Lee), T. Dzhoroev, 김병헌(BH Kim)
Related Material
김성운, 이희승, "이동 로봇을 위한 환경 적응형 코스트맵 기반 경로주행," 제39회 제어로봇시스템학회 학술대회(ICROS2024), pp. 896-897, 7월, 2024.
Dabin Lee, Haeun Park, Hui Sung Lee, "Book-Toki: A Rabbit-Shaped Reading Companion Robot that Enhances Children’s Reading Concentration," The 21st International Conference on Ubiquitous Robots (UR), pp. 520-524, June 2024.
권민지, 김성운, 박하은, 이희승, "실내 반려 로봇의 시나리오 기반 이동 경로 연구," 제19회 한국로봇종합학술대회, pp.337-338, 2월, 2024.
박하은, 이지연, Temirlan Dzhorev, 김병헌, 이희승, "로봇의 표정과 움직임을 동시에 제어 가능한 동적 표현 모델 개발", 제어로봇시스템학회 논문지, 30호, 1권, pp. 8-12, 2024.
성민재, 정승빈, 문진영, 김나눔, 권용섭, 이희승, "독서활동을 위해 아이들과 상호작용하는 강아지 형태의 소셜 로봇," 2023 한국디자인학회 가을 국제학술대회, pp. 72-73, October, 2023.
Yongseop Kwon, Seungbin Jeong, Haeun Park, Hui Sung Lee, "Design of a Dog-type Social Robot to Support Children’s Reading Activities and Development of a Touch Sensor Module for Users’ Touch Interaction," The 23rd Inter. Conf. on Control, Automation and Systems (ICCAS 2023), pp. 1683-1688, October, 2023.
Haeun Park, Jiyeon Lee, Temirlan Dzhoroev, Byounghern Kim, Hui Sung Lee, "Expanded linear dynamic affect-expression model for lingering emotional expression in social robot," Intelligent Service Robotics, online published: 27, September, 2023.
Temirlan Dzhoroev, Haeun Park, Jiyeon Lee, Byounghern Kim, Hui Sung Lee, "Human Perception on Social Robot's Face and Color Expression Using Computational Emotion Model," the 32th IEEE Int. Conf. on Robot and Human Interactive Communication (RO-MAN), August, 2023.
박하은, 이지연, 이희승, "감정 엔진을 활용한 표정과 움직임 기반 로봇 감정 표현 시스템 개발", 제38회 제어로봇시스템학회 학술대회(ICROS2023), pp. 42-43, 6월, 2022.
이지연, 박하은, Temirlan Dzhoroev, 김병헌, 이희승, "소셜 로봇의 표정 커스터마이징 구현 및 분석," 로봇학회 논문지, 제18권, 2호, pp. 203-215, 6월, 2023.
장우인, 정승빈, 권용섭, 문진영, 김도희, 최지영, 이희승, "어린이의 독서활동을 지원하는 강아지 형태의 로봇 컨셉," 제18회 한국로봇종합학술대회, pp.27-28, 2월, 2023.
Temirlan Dzhoroev, Sooyoung Park, Ha Eun Park, Ji Yeon Lee, Hui Sung Lee, "An Expressive Eye Interface for Pedestrian Interaction with Indoor Mobility," The 37th ICROS Annual Conference, pp. 267-268, June, 2022.
김병헌, 박하은, 박수영, 곽윤정, 이희승, "실내 공유형 스마트 모빌리티의 비언어적 피드백을 이용한 상태 표현," HCI Korea 2021, pp. 508-511, 1월, 2021.
J. W. Park, Hui Sung Lee, M. J. Chung "Generation of Realistic Robot Facial Expressions for Human Robot Interaction," Journal of Intelligent & Robotic Systems, Vol. 78, pp. 443~462, 2015. [link]
박정우, 김우현, 이원형, 이희승, 정명진, "Facial Actions과 애니메이션 원리에 기반한 로봇의 얼굴 제스처 생성," 제어로봇시스템학회 논문지, 20(5), pp. 495~502, 2014.
이원형, 박정우, 김우현, 이희승, 정명진, "사람과 로봇의 사회적 상호작용을 위한 로봇의 가치효용성 기반 동기-감정 생성 모델," 제어로봇시스템학회 논문지, 20(5), pp. 503~512, 2014.
W. H. Kim, J. W. Park, W. H. Lee, Hui Sung Lee, M. J. Chung, "LMA based Emotional Motion Representation using RGB-D Camera," 8th ACM/IEEE International Conference on Human-Robot Interaction (HRI2013), Tokyo, Japan, March 4-7, 2013
M. G. Kim, Hui Sung Lee, J. W. Park, S. H. Jo, M. J. Chung, “Determining Color and Blinking to Support Facial Expression of a Robot for Conveying Emotional Intensity,” 17th IEEE Int. Symp. on Robot & Human Interactive Communication, Munich, Germany, pp. 219~224, August, 2008. [link]
J. W. Park, Hui Sung Lee, S. H. Jo, M. G. Kim, M. J. Chung, “Emotional Boundaries for Choosing Modalities according to the Intensity of Emotion in a Linear Affect-Expression Space,” 17th IEEE Int. Symp. on Robot & Human Interactive Communication, Munich, Germany, pp. 225~230, August, 2008. [link]
Hui Sung Lee, J. W. Park, S. H. Jo, M. G. Kim, W. H. Lee, M. J. Chung, “A Mascot-Type Facial Robot with a Linear Dynamic Affect-Expression Model,” Proc. the 17th World Congress of International Federation of Automatic Control (IFAC) Seoul, Korea, p. 14099, July, 2008.
W. H. Lee, Hui Sung Lee, j. W. Park, M. G. Kim, M. J. Chung, "Reactive Emotion Generation Model in Four Phases," (in Korean) Proc. of Conf. on Korea Intelligent Robot, pp. 454~455, June, 2008.
S. H. Jo, Hui Sung Lee, J. W. Park, M. G. Kim, M. J. Chung, “The Emotional Boundary Decision in a Linear Affect-Expression Space for Effective Robot Behavior Generation,” (in Korean) Proc. of Human Computer Interaction, pp. 540~546, 2008.
M. G. Kim, Hui Sung Lee, J. W. Park, S. H. Jo, M. J. Chung, “Color and Blinking Control to Support Facial Expression of Robot for Emotional Intensity,” (in Korean) Proc. of Human Computer Interaction, pp. 547~552, 2008.
Hui Sung Lee, J. W. Park, and M. J. Chung, “A Linear Affect-Expression Space Model and Control Points for Mascot-Type Facial Robot,” IEEE Trans. on Robotics, Vol. 23, No. 5, pp. 863~873, Dec. 2007. [link]
Hui Sung Lee, J. W. Park, S. H. Jo, and M. J. Chung, “A Linear Dynamic Affect-Expression Model: Facial Expressions According to Perceived Emotions in Mascot-Type Facial Robots,” 16th IEEE Int. Conf. on Robot & Human Interactive Communication, Jeju, Korea, pp. 619~624, August, 2007. [link]
Hui Sung Lee, J. W. Park, and M. J. Chung, “An Affect-Expression Space Model of the Face in a Mascot-Type Robot,” Proc. of IEEE/RAS Int. Conf. on Humanoid Robots, pp. 412~417, Dec. 2006. [link]
D. H. Kim, Hui Sung Lee, and M. J. Chung, “Biologically Inspired Models and Hardware for Emotive Facial Expressions,” Proc. of IEEE Int. Workshop on Robots and Human Interactive Communication, pp. 679~685, 2005. [link]