高齢者生活支援ロボットの研究

高齢者生活支援ロボットの研究

高齢者生活支援ロボットSITTER(付き添い人という英語と湘南工科大学(SIT,Shonan Institute of Technology)をかけています)を2013年から研究しています。科研費平成28年度 基盤研究(C)「在宅・高齢者施設における高齢者の移動型見守りロボットに関する研究」を取得し、研究を行っています。

SITTER3(2022~)

SITTER2(2019~)

SITTER1(2013~)

・追従ロボット(SITTER-1’)

人の位置を検出し,人との距離を一定に保って付いて行くことが出来るロボットを開発しています。この追従機能を利用すれば,高齢者に付き添い,高齢者がお風呂やトイレに入られたらドアの外で待ち,一定の時間が過ぎても出て来られないときには家族に連絡するなどの見守りが可能となります。

follower.avi

追従の様子(動画) follower 

・高齢者見守りロボット

高齢者の見守りのため、人の認識機能、歩容認証機能、転倒検出機能、車椅子の認識機能などの機能研究を行っています。

人の認識機能はRGB-Dセンサ(Kinectなどの2次元画像と深度情報を得られるセンサ)を用いて人を識別し、人の顔位置を算出し、ロボットがその方向を向くための回転情報が計算出来ます。ロボットは人毎にその位置を認識します。

歩容認証機能は高齢者施設などの大部屋での入居者の出入りを確認し、出ていった人が認知症を患っているなどケアを必要とする人かどうかを認識するための機能です。夜間では部屋は暗いので、画像処理による顔認識では人物認識がうまくいかない可能性が高いです。そのため夜間でも利用できる赤外線カメラにより人体の関節位置を計測し、その関節位置から計算される歩容(歩き方)により人物を特定する技術を研究しています。退出者がケアの必要な人であればナースステーションなどに連絡することで見守りを実現できる。本研究ではディープニューラルネットワーク(Deep Neural Network)を用いて、人物ごとの歩行のデータを学習し、人物の識別実験を行いました。基礎実験では7名の人物を畳み込みニューラルネットという技術を用いて、95%以上の精度で認識できています。但し、基礎実験では被験者に同じ方向に直進歩行を依頼し、認識精度を確認しました。

高齢者施設や家庭では、人は必ずしも一定方向に直進するわけではありません。人が自由に部屋の中を歩き回る場合に対処できるよう、RGB-Dセンサのデータを変換し、人の動きをその場での足踏み(骨格中心である腰位置からの相対距離)状態に変換し、人が直進せず自由に歩いている場合にも対応出来るようにしました。このデータをDNNを利用して研究室の学生8人の歩容認証を行い、90%程度の認識率を得ました。

人に追従するための研究として人の認識および距離計測の研究を実施しました。従来法のRGB-Dセンサによる骨格検出では顔や体の一部が画像上に写っていない場合に人を取り逃すことが多いのを克服するためです。深層学習を使うことでロボットと人の間が60cmくらいの近距離においても人を認識できることが分かりました。実際のロボットと人との関係において、人の全身像を常にロボットへの入力画像として捉えることは不可能ですので、骨格検出に加えて画像処理による人検出機能を検討し、その有用性を示しました。

転倒検出においても同様にDNNを用いた手法を使って検出器を作成しました。人の典型的な転倒の仕方6種類(前、後、左、右、こける、滑る)に対して学習し、83%の精度が得られました。高齢者の転倒の確実な検出のためにはまだデータが少ないおよび識別すべき転倒の種類など今後さらなる検討が必要です。

実ロボットに搭載するため、エッジコンピューティング(ロボット本体の計算能力の充実)に対応させ、ロボット本体で上記のような技術を処理する必要があります。消費電力が少なくかつ深層学習の計算を高速に回すことが出来るニューラルネット用チップ(Intel Neural Compute StickやOrange Pi AI Stick)を使った実験を行っています。ロボット搭載のCPUだけでは実用的な計算時間を達成できない物体認識などを実時間で計算できることが確認できました。

今後は上記技術をシステムとしてまとめ、高齢者生活支援ロボットとして実証実験を行っていきます。

発表論文など