JST ERATO 石黒共生ヒューマンロボットインタラクションプロジェクトでは、人間と親和的に対話することができる自律型ロボットの実現に向けた研究を行っています。第四回シンポジウムでは、多数のセンサ情報を統合して認識し、視線やジェスチャなども活用して表現を行うアンドロイドのためのマルチモーダル対話制御システムなど、本プロジェクトの成果を紹介します。
※ ビデオ会議システムの都合上、先着250名様までの参加に限らせていただきます。
7月31日12:00 を締め切りとさせていただきます。
ご登録いただいた方に、Zoom の情報をメールにてお知らせします。
2020年7月31日 9:30頃までにご登録いただいた方にアクセスのための情報を送信いたしました.
いくつかエラーメッセージを受け取っておりますので, まだ受け取っておられない方は再度ご登録いただければと思います.
※ 12:30 ビデオ会議システム接続開始
石黒 浩 (大阪大学 教授)
吉川 雄一郎 (GL: 大阪大学 准教授)
"複数体で連携して人と話すロボット"
概要:本研究グループでは、実社会での実用に耐える対話能力を持つロボットの実現を目指した研究開発に取り組んできた。具体的には、そのためのハードウェアとして、社会的対話ロボット「CommU (コミュー)」と呼ぶロボットを開発し、その対話感の評価、また特にこれを複数体連携させることで人との対話継続を図る対話システムを開発してきた。本発表では、日本未来館や高齢者施設等で実施した実証実験を紹介しながら、これらの成果について報告する。
仲田 佳弘 (大阪大学 助教)
"人と共に行動する車輪移動型子どもアンドロイドの研究開発"
概要:人と親密な関係を築くためには、行動を共にし、対話を行う、すなわち体験を共有することが有効であると考えられる。そのような人との関わりを実現するロボットとして、移動機能を持つ新たなアンドロイドibukiのハードウェアの研究開発を行ってきた。本発表では、移動中の全身動作による感情表出、敵対的生成ネットワーク(GAN)を用いた人間らしい動作の自動生成、人と手つなぐことで実現されるインタラクションなど、これまでに子どもアンドロイドを用いて実施してきた研究について報告する。
河原 達也 (京都大学 教授)
"アンドロイドERICAによる人間レベルの音声対話 "
概要:本研究グループでは、アンドロイドERICAを用いて、人間どうしが行うような長く深い音声対話に取り組んできた。ここでは、音声対話を手段でなく、雑談でもなく、それ自体が明確な目的を有したものとして捉える。アンドロイドに適した具体的な社会的状況を想定し、傾聴・就職面接・研究紹介・お見合いなどのタスクを設定し、対話コーパスを収集し、システムを構築している。本講演では、就職面接システムに焦点をあてて紹介する。
井上 昂治 (京都大学 助教)
"アンドロイドERICAによる傾聴対話システム"
概要:傾聴対話システムは、聞き手として相槌などのフィードバックを的確に行うことで、「理解」「共感」を示しながら、話し手の語りを促進することを目指す。具体的な応用例として、高齢者や入院患者に対する傾聴が想定される。人間のような相槌を生成する上でERICA のようなアンドロイドが自然である。本講演では、傾聴システムの構成と多数の高齢者による評価について報告する。
港 隆史 (ATR 客員研究員)
"人と日常対話を行う自律型アンドロイドの研究開発"
概要:人と社会の中で共生する人のパートナーとしての存在となるロボットを目指して、日常場面で人と自然に対話可能なアンドロイドの研究開発を行ってきた。アンドロイドの欲求・意図・感情などの内部状態や、推定した対話相手の感情に基づいて、対話相手との関係性を考慮しながら対話するシステムについて、デモを交えながら説明する。
石井 カルロス 寿憲 (ATR グループリーダー (客員))
"アンドロイドロボットシステムにおけるマルチモーダル表出・認識の研究開発"
概要:人らしく振る舞うことができるアンドロイドロボットの実現に向けて、発話内容や音声の特性や発話意図などに適した動作(口、頭部、表情、身振り手振りなど)を表出できる手法を、人同士のインタラクションデータを基に提案・評価してきた研究成果について報告する。また、テキストや音声、動画などのマルチモーダル情報から談話機能や感情状態を認識する研究成果についても報告する。
登壇者
・石黒 浩 (研究総括)
・河原 達也 (音声対話研究グループ GL)
・吉川 雄一郎 (自律型ロボット研究グループ GL)
・港 隆史 (実証研究グループ研究員)
プロジェクトホームページ https://www.jst.go.jp/erato/ishiguro/
問い合わせ: event@irl.sys.es.osaka-u.ac.jp