各発表に対してたくさんのコメントをいただきありがとうございました。
いただいたご質問への回答を掲載しておりますので、ご確認ください。
※質問をクリック(タップ)すると回答が表示されます。
周波数の検出だけではあまり精度はよくない?
周波数データにした理由は、異常音を異常と判断するために使った特徴量が周波数であるため今回は周波数で検出しました。
異常音発生場所の推定精度はどの程度出たか?
反射・回析などが無い環境では、100%の精度で場所の推定ができました。
外部環境音の影響はどの程度あるか?
今回開発したシステムでは、環境音を正常音として学習させているので、工場で発生する環境音も正常音として学習させれば影響は出ないと考えております。
実物で試すような実験は行ったか?
実際にマイクでの異常音の検知はできました。
AIを活用した場合と活用しない場合で、開発工数の差はあるか?
工場で発生する環境音を正常音として学習させるため、他の工場でもデータを変更すれば同じプログラムが適用できると考えています。
活性化関数にReLuを選定した理由は?
ReLuの他にLinear,eLu,SeLu,SoftpLus,の4つを検討しましたが、ReLuを採用した理由に関しては収束率が一番良かったからです。
センサーの認識を考慮しつつ、アームの動作速度は計算上どこまで上げられるか?
物体の認識はアームの動作スピードにほとんど影響はないのですが、最高速にすると、ピッキング時にアームが開ききらない。という問題が起こります。ですのでスピードを最高速にしますと、アームを開く動作に待ち時間を付けて、開ききってから降ろすように対策しなけければなりません。このことからデモでお見せした現在のスピードが今出せる最高速になっていると考えます。
同じ対象物の縦画像と横画像は、同じクラスに分類したのか?
そうであれば、縦画像と横画像を別々のクラスに分類すると、対象物で見たときの分類精度は上がるか?
縦のみの画像で3種の画像を学習を行った結果、誤認識があったため、縦横別々なクラスにしても誤認識があると考えられるため、縦横別々のクラスにしての学習は行いませんでした。
引き出しと一致しない色や動物があると、どのような挙動になるか?
一致しない色や動物があると、学習した三種類のクラスの中から無理やり判別して、選別作業を行います。
苦労した点は何か?
ホストPC検討期間で本来PCではなく、JetsonNanoで動作させようと考えていたのですが、Jetson Nanoでの環境構築がうまくいかず、とても苦労しました。
色の違いによる分類に誤りがなく、形の違いによる分類に誤りがあったのはなぜか?
恐らく、頭上から見た画像が複雑で分かりにくいのと、学習不足だと考えられます。そのため本システムの前提条件で頭上からの判別は無いものとさせて頂いております。
アームで掴むときに、対象物に合わせて掴む方向を変えることはできるか?
対象物に合わせて掴む方向を変えることは、今回のシステムでは実現することができませんでした。
この課題は重要な要素になると思うので、解決できるようにしたいと考えております。
箱に入れるとき、対象物を落とさずに置くことはできないか?
可能です。
ですが、今回使用した引き出しの幅がアームの幅より小さいため、物を置く際にぶつかってしまうため、今回は落とすような形でシステムを構築しました。引き出しの幅をアームよりも大きくすれば置くような形で動作させることは可能だと考えております。
アーム以外にも物を運ぶ手段を試したか?
アーム以外にもバキューム(吸盤)も試しましたが、今回使用する対象物の関係上アームを使用することとなりました。
発表中に紹介された既存製品と比較して、機能やコスト面での違いは?
機能面おいては既存製品がセンシング面やバッテリー面において優れていますが、コスト面において私たちが研究しているWIMOSの方が優れていると考えております。
M5StickCのバッテリーはどのくらい持続するか?
実用を意識した場合にどれくらい稼働できるか?
本研究では、モバイルバッテリーを使用し機能実現を目指して開発しておりました。実際の動作時間としては1時間でした。バッテリーの駆動時間は実際に導入するときは重要な課題であると認識しておりますので、継続検討していきます。
結露等でM5StickCや磁気センサーが故障することはあるか?
結露等のタフネス設計、実際導入するときに必要な視点であるため、今後検討していきます。
M5StickCが取得する磁気センサーのデータの更新頻度は?
現在は5秒で設定していますが、プログラム変更にて変更可能です。
24時間運用の場合、M5StickCの電源の確保方法は?
コンセントから電源供給する場合と、電源が確保できない場合に、大型バッテリー、ソーラーで電源等、駆動時間と容量を今後検討していきます。
センサーが故障している場合の処理などは検討したか?
本研究では、検討いたしませんでした。
窓が開いた状態で鍵が締まっている場合はどのようになるか?
現段階で窓がずれていて鍵が閉まっている状態でも閉と表示されます。実際の使用勝手を想定して、処理を追加していく予定です。
最大いくつまで窓の確認が可能なのか?
今回は部屋窓6個分での検討をしました。
運転終了後の指摘だけでなく、危険行為をした時点でアラームがなると、より効果が期待で来るのではないか?
ご質問ありがとうございます。
今回検出する苛立ちを与える運転はリアルタイムでわかるようにすると、苛立ちを与えてしまうと判断したため、今回はwebで確認できるようにしました。
白い色の車の場合は、ナンバープレート内の文字認識でプレートの位置確認ができるのではないか?
ご質問ありがとうございます。
文字認識を使用してナンバーの座標位置を特定できればナンバー位置を確認できると思います。
今後の研究活動に活かしていきたいと思います。貴重なご意見ありがとうございました。
場所によって危険運転の定義が変わる可能性があると思うが、危険運転の定義の設定を変えることは容易なのか?
ご質問ありがとうございます。
急な割り込の検出は機械学習を使用しているため変更には新たな学習が必要となり容易とは言えません。短い車間距離の検出はルールベースで定義した基準であるため変更すること自体は容易ですが、ユーザが変更できるシステムは現状組み込んでいません。いずれはユーザが変更できるようにすることでユーザビリティの向上につながると思いました。
今後の研究活動に活かしていきたいと思います。貴重なご意見ありがとうございました。
どのような状況で誤認識するのか?
ご質問ありがとうございます。
割り込みは、舗装された市街地の走行を学習させたため凹凸のある路面や山道のような市街地とは大幅に違った場所では誤認識やうまくいかない状況になる可能性があります。この誤認識は市街地以外の学習を増やすことで減らせるのではないかと考えます。
短い車間距離は、カメラへの映り込みや、ライト等の影響により誤認識やうまくいかない状況になる可能性があります。
無理な割り込みではなく、急な割り込みに焦点をあてた理由は?
意図的に焦点を絞っているならばなぜ絞ったのか?
ご質問ありがとうございます。
割り込みにも色々な種類の割り込みが存在するなか、班員と討論したところ、一番迷惑な割り込みが今回定義した割り込みだと判断したため今回は卒業研究の時間の関係もあり急な割り込みだけを検出する形となりました。
検出手法の検討において採用されなかった手法の理由は?
ご質問ありがとうございます。
割り込みでは、ルールで判断する手法が採用できませんでした。
ルールで判断する手法は加速度の変化が小さい急な割り込みの波形を読み込ませた際に、急な割り込みではない波形であると判断する等の問題が発生してしまうことがありました。
この問題はプログラム中の条件文を増やすことで軽減することができると考えられますが、天候や路面状況など多くの条件をもれなく網羅する必要性があり現実性がないと判断しルールで判断する手法から、機械学習で判断する手法へと切り替えることになりました。
短い車間距離では,AIで判断する手法が採用できませんでした。
AIで判断する手法では、物体認識を使用して車を検知しようと試みたが位置精度が悪く、毎回正確に車を認識することができず、距離が変化してしまうため、正確な距離を算出できるナンバープレートを認識する手法に切り替えることになりました。
急な割り込みの検出手法で使ったモデルは何か?
ご質問ありがとうございます。
本研究では急な割込みの検出にはニューラルネットワークの中でもシンプルな順伝播型ニューラルネットワークというモデルを使用しています。順伝播型ニューラルネットワークは、入力を受け取ると入力それぞれに対して重み付けをした値とバイアスを合計する単純パーセプトロンを並べたものを一つの層とし、隣接した層を全結合したものです。
質疑応答で説明された「5.6 km/hを超えると上手く走れない」という結果は、車両の限界性能や、応答遅れなどのハードウェア性能に依存するのか?
貴重なご質問ありがとうございます。
限界速度の検討にて5.6km/hを超えると白線を逸脱したり、壁にぶつかってしまったことから、今回私たちは、5.6km/hが車両の限界速度であるとしました。限界速度はハードウェアの要因だけではなく、ソフトウェア全体の処理負荷の増大などの要因が考えられ、ハードウェア、ソフトウェア両面からシステムの限界を見極める必要があります。今回の場合は、4つの車体を作成しましたが、4つとも限界速度はあまり違いがなかったため、マイコンの性能とソフトウェアの設定が支配的であると考えられます。
チーム開発では特にどのような点に留意すべきと感じたか?
貴重なご質問ありがとうございます。
チーム開発における留意点は以下のことであると強く感じております。
作業の変更や進捗状況を常に共有すること
開発の目標を見失わないこと
特に私たちの班では、開発後半に個別で車両製作や学習を行いましたので、どこが遅れているのか?どこの部分が上手くいかないか?といった認識を合わせることにかなり苦労しました。
また、開発後半になり、隠れていた問題点が見つかった際に、それぞれが担当した内容を総合して、問題点の解決にあたることができました。個人の力だけでは解決できないことも、チーム開発では解決できるということを強く感じることができました。
車体と学習枚数の条件を入れ替えても同じ結果が得られるか?
貴重なご質問ありがとうございます。
それぞれの車体でカメラの位置や角度、車両の速度などが異なっているため、学習枚数を入れ替えてもまったく同じ結果になることはないと考えております。
速度を変えたときも追従できるか?
貴重なご質問ありがとうございます。
追従走行についてのご質問であると想定し、回答させていただきます。それぞれの車両の限界速度を越えなければ速度を上げても、下げても追従走行を行うことができると考えています。また、手動走行で学習データを撮影する際に、それぞれの車両がぶつからないように走行した正確なデータであることが必要です。なお、追従走行は前方画像の変化(ブレーキランプ)と、距離センサの値を学習し、制御されています。
雨や雪が降っている場合や霧がかかっている場合はどうなるか?
貴重なご質問ありがとうございます。
雨や雪、霧がかかっている場合の走行ですが、今回はそのような気候に対応する機能を搭載していないため、そのような気候に正確に対応するには、白線が見えない時でも白線を認識するために新たなセンサーを追加して制御を強化したり、さらなる学習が必要があると考えています。
画像から特徴量を抽出して保存しているのではなく、画像を保存して撮影画像と比較しているのか?
画像比較だと処理が重くなるような気がするので、画像の特徴量を保存して、特徴量比較をすると早くなるのではないか?
貴重なご質問、ご意見ありがとうございます。
学習時に撮影された画像は丸ごと保存されています。特徴量の抽出に関しては、今回私たちは実装していませんでしたが、システムの発展につながる貴重なご意見ありがとうございます。次の研究に生かせるよう努めて参ります。
10~15周程度の学習を実施したのは、過学習を防ぐためか?
30周、50周を実施するとどうなるか?
貴重なご質問ありがとうございます。
DonkeyCarの学習プログラムには学習効果の改善が見られなくなったった場合、学習途中でも学習を中断し終了する機能があります。ですので、30周、50周実施しても過学習になり動作に影響を及ぼすことはあまりないと考えています。
以下のURLに記載されているソースコードの81行目が学習を中断する機能を使用するかの選択になっており、デフォルトの設定では機能を使うこと(True)が選択されております。
参考:https://github.com/adison/donkey-car/blob/master/config.py
前回ステアリング値や撮影風景をINPUTすると、推定精度は高くなるのか?
RNNでも実験してもらいたい。
貴重なご質問ありがとうございます。
下記のURLに記載されている通り、DonkeyCarは8つの学習モデルが使用可能となっていますが、モデルを使用するために新たなセンサが必要であったり、プログラムを大きく書き換えなければいけないなどの理由から、実際に標準のプログラムで動作する学習モデルは、発表内でも紹介した「linear」、「categorical」、「rnn」に加え「3D」というモデルの4種類でした。そこから初期検討として、その4種類で実際に学習を行い走行させてみたところ、「3D」を使用した走行はほかの3種類に比べ、白線のはみ出しや、カーブをうまく曲がれないなどの動作が目立ったため、カスタマイズ要素から外し、カスタマイズ要素として選択できる学習モデルを「linear」、「categorical」、「rnn」の3つとしました。
「rnn」の実験に関しては、発表内では説明できませんでしたが、検討は行っておりました。結果としては、今回のコースでは大きな違いがみられませんでした。より複雑なコースであれば効果が見えるようになるのではないかと考えられます。
※質問はありませんでした
3つの表情は、中間的な表情も可能か?
今はできないが今後追加していく予定です。
メガネに付けたセンサーが6つあるうち、どのセンサーが反応したらどのパターンのときに笑顔・怒り顔になるのか?
今回想定した怒り顔は、眉間にしわを寄せている表情と考えているので、眉間付近の上部にあるセンサーに値が出た場合に怒り顔になります。また、笑顔に関しては下部にある計4つのセンサーどれか1つにでも値が出れば笑顔になります。
直立以外の姿勢は可能か?
今はできないが今後実装する予定です。
最大何人まで同時にコミュニケーションがとれるか?
今回は無料版のもの使用しているので、最大でも20人までなら可能ですが有料版のものを使用すれば、最大100人まで可能になります。