過去の研究会情報

過去の研究会・ワークショップなどの情報や活動記録などを掲載しています。

研究法研究部会 第3回研究会

心理学者でも機械学習がしたい! 

研究会概要

     近年の機械学習の成果にはめざましいものがあり,心理学の研究にとってもさまざまな点で興味深いものがあります。たとえば,実験刺激を用意する際に,実物を撮影するのではなく,多数の事例をもとに生成したものを使うことができるようになってきました。こうした技術を用いることにより,実際には存在しない中間値の特徴を持った刺激を作ることもできます。また,人の行動を予測するのに役立つ未知の特徴やパターンを探索的に調べることにも役立つ可能性があります。さらには,機械学習のモデルから人のこころのメカニズムについて理論的に迫ることもできるかもしれません。本研究会では,機械学習に関心のある心理学者に向けて,各分野の先生方に話題提供をお願いしました。 

参加方法(終了しました)

     研究会の動画をご覧いただくためには,以下の参加申込フォームより参加登録してください。登録いただくと自動返信で配信動画のパスワードをお送りいたしますので,そのパスワードを動画画面に入力して視聴してください。日本認知心理学会および研究法研究部会の会員の方に限らず,どなたでもご参加いただけます。

     参加者の皆さまは発表動画を期間中何度でも視聴することができます。ご質問やコメントがある場合には,本ページ最下部の質問フォームから受け付けております。動画の公開期間,およびご質問の受付と回答の掲示期間は以下の通りです

動画公開期間:2022年3月1日(火)〜3月31日(木)

質問受付期間:2022年3月1日(火)〜3月21日(月)

回答掲示期間:2022年3月25日(金)〜3月31日(木)

     ご不明な点がございましたら,「お問い合わせ」よりご連絡ください。

講演概要(敬称略)

講演1:児童虐待対応業務への機械学習技術の活用可能性

坂本 次郎・髙岡 昂太(国立研究開発法人産業技術総合研究所 人工知能研究センター)

本発表では、児童虐待事例データを機械学習モデルで解析し、実務応用に適用した事例を中心に、「心理学と機械学習」に関する簡易的な文献レビューの要約や、基本的な機械学習モデルの仕組みをご紹介させていただきます。皆様の研究手続きを一部補強したり、発見のための気づきを得たりすることに貢献できると嬉しく思います。

講演2:臨床コミュニケーションにおける機械学習の可能性

横山 仁史(広島大学大学院医系科学研究科 精神神経医科学)

臨床心理学的介入の多くは言語を用いることから,臨床コミュニケーションの測定,評価,形成は当該領域における主要な研究テーマといえる。これまでの研究や実践報告では,非言語的特徴量を含む膨大な情報の中で,特定要因やノイズを抽出することが難しく,実験環境と日常環境には大きな隔たりがあったが,こうした多次元かつ人による判別(弁別)が困難なデータに対する機械学習への期待は高い。当日は発表者らの研究事例をいくつか紹介し,心理学における機械学習活用の可能性について議論したい。

講演3:画像深層学習の実力とその利用

大森 宏(東京大学大学院農学生命科学研究科)

近年、AIの一つである画像深層学習が急速に進展し、そのプログラムが公開されていて誰でも利用可能になっている。この講演で、これを手にする手順を解説するとともに、画像認識能力の実際をみてみる。また、見た目の類似度で写真のMDS配置を行い数量化を行う手法に、深層学習を利用した私たちの研究事例を紹介する。

質疑応答

坂本 先生・髙岡 先生

Q1. 虐待の再発の予測や性被害の発見など,思った以上に現実的な状況に踏み込んだ研究がなされていることがわかり,たいへん興味深く思いました。臨床の現場や相談所の方々の機械学習技術に対する感覚や温度といったものはどのような雰囲気なのでしょうか。

A1. ご質問、誠にありがとうございます。

 機械学習は「間違うことが前提(精度が100%ではないことがわかっている)」技術ゆえに、全ての結果を完全に信じることができないものですが、潜在化する性被害を見抜いたり、見えない将来を予測したりするなど、使いどころと使い方が適切であれば、大きな力を発揮する技術だと考えています。

 私の個人的な感覚となりますが、利用される方々の温度感について整理します。大きく、(1)機能以上の期待を持たれる方、(2)戸惑う方、(3)抵抗や拒否感を覚えられる方がいらっしゃる印象です。機械学習の仕組みや特徴を理解して実務に組み込んで応用できる…という段階は、まだ先だと思われます。

 機械学習(あるいはデータ解析結果)を「現場に」実装するとなったとき、その大部分はこういったご意見等への対応や、説明・調整のお仕事になります。機械学習を用いた解析作業は、全体の数パーセントにも満たないかもしれません。一方、「数値上の誤差ではなく、現場で起こっている誤差を最小化する」という見方からお仕事に取り組ませていただいているところは、私にとってやりがいを感じるところでもあります。

Q2. ご発表ありがとうございます。機械学習に加え,児童虐待対応という専門分野にも馴染みのない者ですが,大変わかりやすく勉強させていただきました。質問としては,ご発表で提示されたモデルで予測された数値というのは実際に現場でどのように活用されているのでしょうか。また,理論研究への適用は不向きと述べられていましたが,現場にいらっしゃる専門家が再発予防などで注意すべき点と思っている点が実際にモデル内でも重み付けが高いなど,人の感覚とパラメータの対応性のようなものは検証することができるのでしょうか。

A2. ご質問、誠にありがとうございます。

 予測の数値は、様々な対応判断を講じる際の「参考情報として活用する」というのが基本的な利用方法になると思われます(申し訳ありません、具体が伝えられず、この表現になります)。

 機械学習を対人支援等に利用する(Predictive Risk Modeling: PRMと呼ばれたりします)際の考え方や、「特定の人種や性別等によって公的サービス利用の実質的不平等が生じないように配慮する」などを含めた倫理規定などもあります。一例を参考までに共有させていただきます。各分野でこういったガイドラインが出ていたりしますので、機械学習を実践活用する際には、ご確認いただくと安心かと思います。

 また、現場で特に注視している点と、実際に機械学習で重要視される観点は経験的に似通っていると感じることが多々あります(確証バイアスかもしれませんが…)。これは、現場支援者の方々が経験値を元に作成したアセスメントツールの素項目が、子ども虐待の本質に近いところをうまく捉えているから…といったことが背景にあったりするのかもしれません。またその一方で、予想外な情報が予測に高く貢献する場合もあります(時間や季節など)。

 モデル内での重み付けや予測貢献度の評価について、最近はShapley Additive Explanations(SHAP)という指標がよく用いられています。機械学習モデルの種類に依存せず使える点や、ある事例における各項目のSHAP値の和を取ると予測値に一致するといった性質から、高い解釈性があると言われています(ここでの解釈とは、機械学習モデルが何故その予測を出力したか、であって、なぜ予測対象となる現象が起こるのかではありません)。いくつかわかりやすいWeb記事なども出ております(原典: https://arxiv.org/abs/1705.07874)。よろしければ、ご確認ください。

 ヒトの感覚との対応関係をどう検証するか…に関連するところとして、SHAP値を利用すれば、毎回の予測で各項目(入力)がどのように予測(出力)に寄与したかを定量化・可視化することもできます(waterfall plot)。そういった技術を使って、ヒトの感覚とモデル内部の重み付けとの対応を照らし合わせることもできるかと思います。ただし、これらは実践的な話の範囲となります。研究レベルでの使い方は…、すみません、私の理解と想像力が及びません。次のご質問へのお返事に、少しヒントがあるかもしれません。

Q3. 機械学習の性質について,色々な表現をしてくださったことで,応用の可能性について夢が広がりました。ご発表の中で,機械学習モデルと心の仕組みとの対応関係について言及されていましたが,機械学習に基づくモデルと心的メカニズムのギャップを埋めるには,どのようなことが必要でしょうか。お考えをお聞かせいただければと思います

A3. ご丁寧なお言葉、とても嬉しく思います。個人的な見解となりますがご容赦ください。

 思考実験のようではありますが、仮に、ヒトと同じ20億の神経細胞(ノード)と60兆個のシナプス(エッジ)を与え、ヒトの脳機能を完全に再現したニューラルネットワークモデルが作れたとします。それによって、ある個人の意思決定などを完全に復元できたとしても、「心の仕組みがわかった」「心的メカニズムが説明された」という状況には至れないと想像します。

 私たちが心を理解し、説明するということを目指す上では、モデルをより複雑にしてゆく方向ではなく、「本質をシンプルに切り取って抽出する」という方向に向かうことになるのではないかと考えております。

 この方向で考えを進めてゆくと、「統計モデリング」「認知モデリング」「計算論アプローチ」と呼ばれる分野に近いものになってゆくかもしれません。比較的シンプルな、解釈可能な、あるいは理論に基づき、心的メカニズムを表現した数理モデルなどを組み入れたりしながら、刺激と反応の関係を記述してゆく…といったところに、(うまく発展してゆけば)機械学習を使った心理学研究も合流してゆくのだろうかと想像します。

 空想上の一例ですが、「ヒトの脳にある特殊な神経構造を模したニューラルネットワークモデルを構成することで、ヒトの意思決定を再現できた。神経構造を模した数式は、展開して変換すると一本の指数関数になる。ヒトの脳には膨大な神経細胞とその繋がりがあるが、畢竟、その機能はシンプルな美しい数式一本に集約され、そのパラメータの値を持って、意思決定が解釈・説明できるかもしれない」というような、そんな研究論文を見てみたいな、といった思いを馳せます。

 研究上の厳密さ、理論に立脚して批判と検証を繰り返す科学の営みと、上述の方法論がどのように整合するのかは想像できておりませんが、この領域に、何かとてもスマートなアイデアが眠っていそうな直感を抱きます。

 明確なお答えができず恐縮ですが、「心のメカニズムをシンプルな数式で表現する」という指向性を持って研究を進めてゆくことが、機械学習モデルと心の仕組みのギャップを埋めてゆくことに繋がるかもしれません。

横山  先生

Q1. たいへん興味深いお話をありがとうございました。将来的には個別ケースのレベルで機械学習に基づく治療状況の推定などが可能になるのでしょうか。

A1. 可能だと思います。ご紹介した我々の研究は1事例(個別ケース)の治療内容を推定したものです。

 他にも機械学習を使ってセラピストのスキルを判断したり、それをトレーニングに利用しようとする試みが報告されています。それらの手法で定量化された(or ラベル化された)治療状況がどのように患者のベネフィットに影響するかまではまだ完全に示されていませんが、すくなくとも個別ケースの中で治療者が何をしようとしていたか、どれだけスキルフルであったかなどの評価は可能になっていると思います。

Q2. モデルの解釈をしていこうという流れがあることが大変良くわかりました。抽象的な質問になりますが,例えば,ヒトの意思決定と同じ結果を出力することのできるモデルがあるときに,貢献度の高い特徴量が見出だすことができた場合,それはヒトにとっても同じといえるといった考え方になるのでしょうか。ご発表のスライドで紹介いただいた文献などに説明があるのかもしれませんが,心理学に近い場で研究されている先生方がどのように考えていらっしゃるのか伺ってみたいです。

A2. とても重要かつ機械学習の初期からのモチベーションを再考するご質問だと感じました。

 意思決定プロセスが一致することはあり得ると思いますが、現状では必ずしも「いつも(どれも)同じ」とは言えないと思います。

 「1という入力をつかって、3を作って下さい」とある場合、人はコンピュータほど処理速度が早くないので、「1+1+1」ぐらいがおそらく効率的に出力を得るモデルとなるでしょう。

 しかし、コンピュータは「1+1+1-1+1-1+1x1」でも素早く出力を返すことができますので、これも3という答えを出すことができる「賢い」モデルであり、人とは異なるプロセスをもつこととなります。

 ただ、こういった機械が学習した入出力の依存関係が複雑で人が解釈できないものであっても、その学習アルゴリズムはあくまでも人が構築しています(そうとは限らない例も最近ありますが)。

 そのため、人が行っている”まだ明らかになっていない”学習モデルがある場合、それを現状の機械学習モデルが表現できていない可能性もあります。

 モデルの解釈性はあくまでその機械学習モデルの解釈性(モデルがなぜその決定をしたのかの説明)であり、人における意思決定の仕組みとの類似度を知ることはまだこれからの課題かもしれません。

Q3. ”治療同盟”やコミュニケーションの印象のような抽象概念を,いっそ機械学習で扱おうというアイデアが新鮮でした。言語化が難しい概念の方が,機械学習との相性が良いのかもしれませんね。実践例のご紹介の中で,過学習が生じた際の対処法は色々あると仰っていましたが,「まずこれを試す」という一般測のようなものがあるのでしょうか。それとも試行錯誤的に行うのでしょうか

A3. 現状は試行錯誤かと思います。このあたりがドツボにはまっていくと、データで遊んでいるだけで理論や仮説がぐちゃぐちゃになるような感覚になることがあります。。

 機械学習があくまで予測を重視していることを念頭におきつつ、心理学者としてはモデルを適切に解釈する視点が重要かと思います。

大森  先生

Q1. 機械学習技術は認知心理学の実験に使用する画像刺激の選定や生成にも利用できそうです。一方で,機械学習から生成した画像が自然な画像と同じ特性を持っているといえるのかも気になります。この点に関してご存じのことなど教えていただけましたら幸いです。

A1.  AIが生成する画像は、GAN (Generative Adversarial Network)、敵対的生成ネットワーク、として知られています。これは、画像データから特徴を学習して、実在しない(フェイク)画像を生成する技術です。GANは、Generator(生成ネットワーク)で偽の画像を作成し、これと本物の画像と付き合わせて識別するDiscriminator(識別ネットワーク)から構成され、互いに学習を繰り返してより本物に近い画像を生成します。参考文献として、

A. Creswell et al. Generative Adversarial Networks: An Overview. IEEE Signal Processing Magazine, 35(1), 53-65, 2018. https://doi.org/10.1109/MSP.2017.2765202

をあげておきます。

 直近の例として、「偽ゼレンスキー」が投降を呼びかけた例があります。言われてみると不自然ですが、注視しないと本物と見間違えてしまいます。最近では、過去の白黒映像をカラー化したものが放映されています。カラー化はかなり上手く行っていると思います。そのほか、写真から一部の人を消したり、追加したりすることもできます。後は、写真を印象派風の絵画にしたり、漫画風にしたりといったこともできるようです。また、文章から内容に合う画像を生成するといったこともできるようですが、これはものにより出来不出来が大きいようです。いずれにしても、写真や映像は動かぬ証拠と思われていましたが、GANにより怪しくなって来たと言えます。


Q2. 画像深層学習のデモを拝見し,ちゃんと画像の分類がなされていることに素直に驚きました。的外れな質問かもしれませんが,機械学習による画像処理は,人が行っている視覚情報の処理や判断と近い性質を持っているのでしょうか。機械学習による画像認識の過程に基づいて,人の視覚的処理の過程を推論するといったことが可能でしょうか。お考えをお聞かせいただけますと幸甚です。

A2. 機械学習による画像処理は、人が分類した写真を訓練データとして学習するので、人間の認識を真似ることをめざしています。訓練データにあるものなら、認識結果は人間とAIは類似していますが、過程も似ているかはわかりません。しかしながら、Grad-CAM (Gradient-weighted Class Activation Mapping) という技術で、画像の中でCNNが「注目」した部分を可視化することができます。この結果と、視線計測 (eye tracking) を比較すればAIの認識と人の認識過程の関係について調べられるかも知れません。

R. R. Selvaraju et al. Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization, arXiv:1610.02391 https://doi.org/10.48550/arXiv.1610.02391