CLASS 2019

2019年度スケジュール 

4月11日 担当教員によるイントロダクション「人工知能が浸透する社会について考える」

4月18日 國吉康夫(情報理工学系研究科 教授/次世代知能科学研究センター長)「人工知能の将来と人間・社会」

4月25日 米村滋人(法学政治学研究科 教授)「人工知能に関する法的課題」

5月09日 小宮山純平(生産技術研究所 助教)「アルゴリズムによる意思決定と公平性」

5月16日 佐倉統(情報学環 教授)「ロボットは敵か味方か?」

5月23日 城山英明(公共政策大学院 教授)「人工知能と政治」

5月30日 原田達也(情報理工学系研究科 教授)「機械学習による実世界理解」

6月06日 学生WS: 最終レポート課題に向けたディスカッション

6月13日 山田胡瓜(SF漫画家)「SF漫画家が実践している『未来の見つけ方』」

6月20日 今井健(医学系研究科 准教授)「医療と人工知能」

6月27日 唐沢かおり(人文社会系研究科 教授)「人工知能の心を読むことをめぐって」

7月04日 川口大司(経済学研究科 教授)「ロボットと雇用」

7月11日 江間有沙(総合文化研究科/未来ビジョンセンター 特任講師)「人工知能社会の歩き方」

                        ゲスト:柳川範之(経済学研究科 教授)

講義レポート

講義レポートは受講学生による(1) 講義まとめと(2) コメントや感想(2名程度)で構成されています(第2回より)。 

4月11日 担当教員によるイントロダクション「人工知能が浸透する社会について考える」

江間有沙(総合文化研究科 非常勤講師/ 未来ビジョン研究センター 特任講師)

佐倉統(情報学環 教授)

城山英明(公共政策大学院 教授)


第1回授業では、まず江間先生から人工知能技術と社会に関する講義が行われました。1990年代と最近の企業時価総額ランキングを比較すると、産業構造が大きく変化しています。そのような中、日本は伝統的な学問分野の体系に則した研究が多く行われており、新たな学際領域研究や融合研究に臨機応変に取り組むことが遅れ気味だと指摘されています。


また人工知能技術の主要な応用先として画像認識がありますが、最近では学習によって画像認識技術を「だます」ことが問題視されています。他にもMicrosoft社の「Tay」炎上問題や、Google社の「ゴリラ問題」、動画のねつ造を可能にするDeep Fakeなど、機械学習が社会に浸透する際の問題はすでに現出しています。これらの事例は、アルゴリズム側の問題と学習元のデータの質の問題があります。問題に対応するためには、技術だけではなく、人文・社会科学的な知見と政策の在り方など、産学官民での協働が求められています。


このような問題提起を受け、座談会が開催されました。城山先生からは技術決定論に偏ることなく、制度や法律面を含めた「共進化」の必要性についてのコメントがありました。同じ技術でもどのようなシーンでどう使うものと位置付けるか、すなわち「フレーミング」が重要です。佐倉先生からは歴史を踏まえて人間側の変わらなさについてのコメントがありました。機械学習以前も、写真のコラージュや捏造は昔からありました。新しい技術の特性に着目しつつ、どこが新しい問題でどこがそうではないのかについて今一度、考えることが重要です。技術とは人間性を映し出す鏡のようなものであり、結局は人間が抱えている問題に向き合わなければなりません。


またロボットや人工知能技術に対する文化差、特に日本に特有な文化とは何かが論点となりました。佐倉先生は安易なこじつけは危険だと留意しつつも、日本人が伝統的にもつ「アニミズム」が深く関わっているのかもしれないと指摘されました。例えば豊橋技術科学大学の岡田先生の「弱いロボット」に代表される「二人三脚」的な関係性を人と機械が築くことは日本に特有かもしれません。城山先生は人工知能やロボット技術がどんなに新しくなっても、技術への態度にはそれぞれの文化が本来的にもっているフィロソフィーが反映されるとコメントされました。また、国レベルでの文化差だけではなく業界間での文化差も重要です。現在、IT業界に特有の文化と高い安全性を求められる医療や交通分野の意思決定のギャップを埋めることも求められています。


個人の価値観、あるいは業種や産業、学術、国といった様々な観点を持つ人々との協同が重要になる社会において、本授業で必要な視点や方法論を考えてほしい、と最後に江間先生が結び、授業は終了しました。


(文責:ティーチングアシスタント:水上拓哉)

4月18日 國吉康夫(情報理工学系研究科 教授/次世代知能科学研究センター長)「人工知能の将来と人間・社会」

第2回授業を担当されたのは情報理工学研究科の國吉康夫先生です。「これからのAIと人間・社会」というタイトルで機械学習がはらむ技術的および社会的問題について工学系の見地から講義がありました。


最近の人工知能の中心になっているのは機械学習であり、特に深層学習が中核となっていますが、これらの技術には問題点も多く指摘されています。人間の目に見えないノイズを加えることで深層学習による画像認識の結果を歪めるAdversarial Examples(敵対的画像)や強化学習における報酬設計の問題はその一例です。これらは主に技術的な問題ですが、グーグル画像検索で「Grandma」と検索した際に白人女性ばかりが表示されてしまうなど、社会的インパクトをもつ問題にもつながっています。


以上を踏まえて國吉先生は、現代のAIには「想定外」に対応する能力やいわゆる人間の心(常識、共感、倫理など)に相当するものが欠けているのだと指摘し、だからこそロボットやAIは「あえて」人間的な心を持つべきだという見解を提示しました。そのためには人間の知識を記述するアプローチと人間の知能の根源を理解し実装するアプローチの融合が重要で、國吉先生は身体性に基づき具体的行動を指定せずに創発的に運動できるロボットの開発に取り組んでいるそうです。


後半のディスカッションでは、前半の講義を踏まえ、「AIやロボットが人間的心をもつべきだ」という主張の是非について中心的に議論しました。この主張については、AIやロボットが心をもち人間と同等の知的能力をもつことが自動運転プログラムの性能向上や医療分野では難病の治療への貢献につながるという意見があった(公共政策大学院1年 O. S.さん)一方で、人間の心を理解しなくてもその動きにシステマティックに反応することで人間のように機能させることは十分に可能だという意見もありました(工学系研究科1年 F. R.さん)。また、「人間的心」を持つために、人間と同じ間違いをしてしまう可能性やAIが「心」を持ったために本来の目的を達成してくれない可能性(与えられた仕事を嫌がる等)も示唆されました(公共政策大学院1年 T. L.さん)。


コンピュータが人間と同じような心的能力をもてば社会がよりよいものになるとは限らないため、私たちはこのような人工知能研究における基礎的な議論にも労力を割かなければならないでしょう。


(編集/文責:ティーチングアシスタント 水上拓哉、前田春香)

4月25日 米村滋人(法学政治学研究科 教授)「人工知能に関する法的課題」

第3回授業を担当されたのは法学政治学研究科の米村滋人先生で、人工知能に関する法的課題について講義されました。具体的には、人工知能の利用に伴う事故や損害における責任問題について法学の立場からの考察がなされました。


日本において一般不法行為責任については、民法709条で広く規定されています。ここでの特徴は「過失」を要件としていることであり、何かしらの意味での「落ち度」の有無が責任の有無に関わる重要な要素となっています。また、製造物の「欠陥」については製造上の欠陥、設計上の欠陥、指示・警告上の欠陥の3種類があります。いずれの責任についても、複数の主体の責任が問題になる場合、それぞれの主体の責任は原則として独立に判断されます。


米村先生によれば、人工知能の場合、後に人間が改めて判断することが前提であれば、誤作動があってもそれがただちに「欠陥」があるということにはならず、製造物責任法による製造業者の責任は成立しにくいということです。ただし、AIの動作が極めて危険である場合や、AIの判断が極めて不適切で利用者に誤解を生じさせる危険性がある場合などには、欠陥が認められる可能性もあります。欠陥が肯定された場合にも、製品製造時の科学的知見によって認識できない欠陥であれば製造物責任法4条の「開発危険の抗弁」によって責任が否定される可能性がありますが、日本ではこの抗弁はほとんど認められていないというのが現状です。製造物責任が成立しない場合は、人工知能を組み込んだ機器の利用者が責任を負うかどうかのみが問題となります。


最後に、人工知能問題の特殊性として知られるブラックボックス性について言及がありました。米村先生によれば、これは医療事故や原発事故などの損害賠償のケースでも見られる性質であり、事故対策が求められるという点においてはそれほど特殊な問題ではないとのことでした。


授業の後半および終了後のディスカッションでは、人工知能技術のリスクにおける責任のあり方やリスクに対応する方法について様々な意見が飛び交いました。責任のあり方については、(ブラックボックス性の高い)人工知能の製造業者に医療事故や原発損害賠償などのケースと同等の責任を問えてしまうことには違和感があり、予測できない損害に対する賠償を請求されうるのでは研究開発の活動も抑制されてしまうのではという意見がありました(公共政策大学院2年 Y. M.さん)。また、人工知能技術がもたらしうるリスクに対応する方法としては、トピックごとに規制委員会を立ち上げその機関に対して一般人が判断を委任できる状態を実現する方法や(学際情報学府1年 Y. T.さん)、シナリオプランニングにとどまらない実証実験を通じて法整備をする方法が提案されました(公共政策大学院1年 G. L.さん)。


(編集/文責:ティーチングアシスタント 水上拓哉、前田春香)

5月09日 小宮山純平(生産技術研究所 助教)「アルゴリズムによる意思決定と公平性」

第4回授業を担当されたのは生産技術研究所の小宮山純平先生です。機械学習を用いた意思決定における公平性について話されました。


小宮山先生によれば、公平性(fairness)の問題は、大学入試や入社といった人間が関係するシーンで生じる問題です。ここで重要なのが、人間の考える世界の認識が、性別や宗教といった「センシティブ属性」と結びついているということです。そのような結びつきをもつデータから学習すると、そのシステムはデータに内在する人間の認識をも学習してしまうことになってしまいます。これは、アルゴリズムにセンシティブ属性に対する扱いがコードされていなくても起こりうる問題です。例えば、ニュース記事から単語を学習すると、性別や人種に結びついた単語(例えば職業など)があることが知られています。そのため、センシティブ属性を陽に使わない意思決定でも、結果としてセンシティブ属性をもとに行った判断と変わらない結果になってしまうこともあります。例えば、ローンの審査を職業などの情報をもとにして行うと、特定の人種や性別に対して極めて不利な審査結果になる可能性があります。データが豊富になればなるほどこの問題は顕在化します。


機械学習によるものであれ人間によるものであれ、意思決定にはバイアスが入る可能性があります。小宮山先生によれば、統計的機械学習は視点を定義すればバイアスを除去することが可能であり、その意味においては直観が入りがちな人間より「公平」である可能性すらあるとのことでした。したがって、統計的機械学習を公平にするための「公平性基準」を定義するための制度設計が今後の課題となります。公平性基準に学問的に明確な答えはなく、社会の理解や法制度のように社会的なルールが基準を与える必要があります。


後半のディスカッションでは、人工知能による意思決定はどのような場面で許容できるのかについて議論しましたが、参加した学生の立場は様々でした。たとえば、情報理工学研究科のH. C.さんは、人工知能に意思決定を任せてよいか否かの基準は人工知能で評価する・される側の受ける精神的苦痛にあるのではと述べました。意思決定によって精神的苦痛を受ける可能性がある場合、それを人工知能に代替させるメリットがあるかもしれません(情報理工学系研究科D3年 H. C.さん)。しかしその一方で、このような意思決定を人工知能に任せることは本来人間が向き合うべき重大な問題が放置されることに繋がるため、メリットがあるにせよ(公平性の有無にかかわらず)人間が考えるべきだという意見もありました(学際情報学府M1年 S. Y.さん)。また、学際情報学府のK. K.さんは、同じ情報でもパソコンの画面で単に表示されるよりも、人型のロボットから伝えられたほうが納得できるかもしれないということを示唆しつつ、人工知能による判断をどのように伝えるのかも大切だと指摘しました(学際情報学府D3年 K. K.さん)。


人工知能の意思決定を社会に浸透させるには技術的側面だけではなく、それを受け入れる社会側の問題にも取り組まなければならないでしょう。


(編集/文責:ティーチングアシスタント 水上拓哉、前田春香)

5月16日 佐倉統(情報学環 教授)「ロボットは敵か味方か?」

第4回授業を担当されたのは情報学環の佐倉統先生で、人工知能と社会の関係について科学技術社会論の立場から話されました。


現代では広く普及している電話機やラジオなどの技術の現在の使われ方は、開発当初から決められたものではなく大勢のユーザに使われていく過程で形成されたものでした。このように、社会が技術のあり方を決定していくという考え方は技術の社会的形成(SST)と呼ばれます。たとえば、洗濯機の登場は、洗濯の工程の一部が楽になった一方で、洗濯回数そのものが増加し、(乾燥させたり畳んだりといった)といったそれに伴う作業も増加したことによりかえって忙しくなるという現象が起きました。技術というものはある種の「生態系」であり、変化の予測が難しいわけです。


人類が以前から人工知能やロボットのような技術を求めていたことは、西洋のオートマトンや日本のからくり人形からもうかがい知ることができます。また、具体的にロボットに何を求め、何を見出していたのかは、SF作品からも知ることが可能です。佐倉先生は、人は「自分が見たいものをそこに見る」ため、現在の「人工知能観」もそのように出来上がっているのではなかろうかと述べました。


最後に佐倉先生は、人間と自然の二項対立を強調する価値観が、(たとえばキリスト教を起源として)西洋に典型的であることに言及しつつ、それにもとづくシンギュラリティなどの人工知能に関する言説に対して「東洋的」な価値観も有意義かもしれないという可能性を示唆しました。今後佐倉先生は、浮世絵にみられる母子共同注視と、ヨーロッパの宗教画における人物の視線の比較などを通じて人工知能に関する東洋的価値観の内実に迫っていくそうです。


後半の学生によるディスカッションでは、人工知能やロボットと社会の関係性を考える上で、文化差の要素をいかに考慮するべきかについて議論しました。文化差を考慮に入れることの重要性は多くの学生が同意しており、たとえば工学系研究科M1のT. K.さんが指摘するように、文化の異なる国で生まれた技術はそのまま輸入できるとは限らず、文化によっては全く利用できないという可能性も考えられます。


その一方で、その際に参照する「文化」の内実にも留意する必要があります。たとえば学際情報学府M1のY. T.さんが指摘するように、過去の西洋や日本は、現在の西洋や日本とは全く違う視点を持っていたかもしれず、その意味で、社会が過去にどのように変遷してきたのかが参考になるかもしれません。日本の人工知能やロボットに対する価値観は独特であるということはよく指摘されることですが、公共政策大学院M2のH. T.さんが指摘するように、それが日本の昔からある文化によるものなのか、あるいは「敗戦」やその後の「平和主義」といった比較的新しい歴史的背景に由来するものなのかについても慎重に考えていかなければならないでしょう。


(編集/文責:ティーチングアシスタント 水上拓哉、前田春香)

5月23日 城山英明(公共政策大学院 教授)「人工知能と政治」

第6回授業を担当されたのは法学政治学研究科・公共政策大学院の城山英明先生で、人工知能と政治をテーマに講義されました。具体的には、人工知能に関する制度設計をどのように行うのか、人工知能による政治的意思決定をどう扱うべきなのかについて考察されました。


科学技術の発展が社会に与える影響を分析・評価するものとしてテクノロジーアセスメント(TA)があり、ここで展開される社会的影響の整理、制度設計、知識交流の促進といった取り組みは人工知能技術にも適用することができます。TAは日本においては国会、行政府、日本学術会議、研究開発機関などといった場所で制度化はされませんでしたが、TA的な活動は行われてきました。第5期科学技術基本計画でも、科学技術の倫理的・法的問題やTAについて言及されています。国内の人工知能に関してはTA的活動を実施する場として、内閣府の「人工知能と人間社会に関する懇談会」や各省での検討会があるほか、研究開発主体では理研革新知能統合研究センターやJST社会技術研究開発センターでの取り組みがあります。具体的なリスク評価の課題としては、リスクの類型化、アセスメントにおけるフレーミングの決定、政策へのフィードバックなどがあります。


後半では、人工知能の社会的意思決定に対する影響について検討がありました。ここで重要なのが、はたして人工知能の意志決定が新しい課題を提示するのかという問題です。というのも、予想外の事態が生じることは意思決定を人間へ委任する場合でも同じだからです。城山先生はその上で、社会的意思決定の各局面において役割分担をする可能性を示唆されました。たとえば、軍事や介護のシーンでは人工知能の「冷酷さ」が話題にされがちですが、感情のない人工知能こそが行うべきタスクもあるでしょう。実際に意思決定に人工知能を利用する際には、埋め込まれた価値判断、バイアス、責任問題への対応が求められます。具体的なリスク管理としてここではリスク総量の現象と新しいリスクとのバランス、リスク評価に必要な実験を可能にする体制を整えることが重要です。


後半の学生ディスカッションでは、将来的な人間と人工知能技術の役割分担について議論のあり方について議論しました。具体的にどのような議論をするべきなのか、どのような議論の場を設定し、それをどこにフィードバックするべきなのでしょうか。公共政策大学院のC. S.さんが指摘するように、例えば、会計、工業、農業など単純かつ定型的な仕事はAIに任せられるかもしれない一方で、技術開発、製薬、発明などといった新しい発想が必要になる領域や、接客、育児、コミュニケーションなど人間感情とアイデアを含む分野ではやはり人間にしかできない可能性があります(公共政策大学院M1 C. S.さん)。具体的な事例としてはAIによる税率の意思決定は認められるかということについて議論されました。現行では国会で決められているがそのプロセスについて熟知している国民はごく少数派であるため、AIによる意思決定でも変わらないという意見も出る一方で、選挙を経て選ばれた国会議員が国会で議論を交わし決定するというシステムに対して国民が賛成しているということが重要なのではないかという意見も出ました(工学系研究科M1 T. K.さん)。実際の役割分担の決定に際しては、分野の専門家および市民のニーズやそれに伴うリスクが異なるため、制度を作る側と研究開発を行う側が協同した分野ごとの議論がまず必要だという指摘がありました(学際情報学府D3 K. K.さん)。


(編集/文責:ティーチングアシスタント 水上拓哉、前田春香)

5月30日 原田達也(情報理工学系研究科 教授)「機械学習による実世界理解」

第7回授業を担当されたのは情報理工学系研究科の原田達也先生で、「機械学習による実世界理解」というテーマのもとで画像認識を例にとり、機械学習がどのように実世界を理解しているかという講義が行われました。


ディープニューラルネットワークをはじめとした機械学習手法の発展により、人間でも難しい犬種の画像認識なども行えるようになってきました。近年のトレンドとして画像と言語を結びつける研究があり、その一例として機械に画像とその画像に関する質問を自然言語で入力することで自然言語による回答を出力するタスクがあります。これはそこそこの正答率を出しているもののまだ課題はあり、その課題は人間と機械の認識の仕方に違いがあることに由来するものです。人間は現実世界を見た時に二次元情報から三次元形状を推定していますが、微分可能なレンダラーを開発することで、計算機はこの三次元形状推定機能を獲得しやすくなりました。また、その他の問題点として、教師データの作成時の問題があります。例えば、実データが持つ多義性により人間が付与したラベルには曖昧性が出てきますが、それが計算機が学習する際にネガティブな結果をもたらすこともあるわけです。限られた教師データから学習の精度を上げるにはいくつかの方法がありますが、区別したいデータの割合を変えて合成することで教師データを水増しする手法もあります。画像認識の重要な応用先としては医療分野があり、人間にも困難な画像診断を支援することが期待されています(要約:工学系研究科M1 T. K.さん)。


後半の学生ディスカッションでは、計算機に人間のような少数のデータから汎化して考える能力を身に着けさせるにはどのようなアルゴリズム、理論、概念が必要となるかについて議論しました。学生からは、たとえば、計算機が効率よく学習するデータの与え方、例えばキャプションといった違う領域の情報を与えることでより効率よく学習したり、学習したモデルを使って領域観を行き来できるようになったりするという案が出ました(情報理工学系D3 Y. H.さん)。その一方で、機械が人間と同等のレベルでそのような機能をもつことは難しいのではないかという意見もありました。というのも、私たち人間は相手の質問に回答する際、どの程度の抽象度や具体度が求められているかを、他者との関係で推し量りながら、自分自身の回答の内容を考えています。それは、人間のある種、他者への気配りともいった感情的側面によるものであり、その側面はあくまで人間に特有の能力だと考えられるからです(公共政策大学院M2 N. K.さん)。また、講義の中で原田先生からは人間の先入観もあわせて学習させる手法についても言及がなされましたが、実世界には感情や先入観を排した合理性が求められる状況とそうではない状況があり、機械学習を応用する際にはそれらの境界についても考えなければならないという指摘もありました(学際情報学府M1 S. Y.さん)。


(編集/文責:ティーチングアシスタント 水上拓哉、前田春香)

6月13日 山田胡瓜(SF漫画家)「SF漫画家が実践している『未来の見つけ方』」

第8回授業を担当されたのは『AIの遺電子』で知られる漫画家の山田胡瓜先生で、「SF漫画家が実践している未来の見つけ方」というテーマで講義されました。実体験やネットニュースなど様々な情報に触れる中で未来を考えているという山田先生ですが、漫画家は、大衆の理解・共感を得ないと作品を売ることが出来ないため、この世界を普通に生きる人々の価値観や欲望や夢に応えるような要素を作品に盛り込む必要があるとのことでした。そして、離れた価値観を持つ世界を描くためには、なぜ人々がそのような価値観を持つに至ったのかを丁寧に伝えなければ共感を得られないという制約の中で作品を執筆しているといいます。この制約をクリアして作品に共感を集めるには二つの方法があり、一つはディストピアという形式に代表されるように、新しい技術を「敵」として配置することです。ディストピア作品では、新しい技術やシステムの悪い側面を強調し、それに対して昔ながらの価値観を持つ人々が抵抗することで、今現在の人々が共感できるようになっているといいます。そして、もう一つは現代の社会・心情などを前提として、その「半歩先」を描くことです。山田先生の漫画でそれが最もよく出ているとしてよく感心される例として、自動運転を解除して手動運転を行うと保険適用外になるという描写が取り上げられました。(要約:公共政策大学院M1 H. K.さん)


後半の学生のディスカッションでは「今はよいとされていること(許されていること)だが、いずれ悪いこと(許されないこと)になるもの」について起承転結のストーリー形式で考えるというテーマが与えられました。短い時間の中で学生たちは、たとえば代理母ロボットが登場する世界や完璧な翻訳プログラムが登場した世界でどういった物語が生まれるのかについて真剣に議論し、講師の山田先生からも高い評価を受けました。ディスカッションでは小さなグループで個人が考えたアイデアを共有することから始まりましたが、公共政策大学院の遠山さんが指摘するように、共有されたアイデアに近いテーマを扱ったSF作品との関連に言及することで議論が深まったり、広がったりすることがあります。その意味で、人工知能に関するトピックについて考えたり議論をしたりする際には、多くのSF作品に触れていた方が面白くかつ広がりのある議論ができるのではないかと考えられます(公共政策大学院M2 T. T.さん)。今回のディスカッションはいつもとは一味違うものでしたが、公共政策大学院のG.L.さんが指摘するように、SF漫画を描く際に求められるような共感を得られる具体的なシナリオを考える能力は公共政策やビジネスといった観点からも重要なものとなるでしょう(公共政策大学院M1 G. L.さん)。その一方で、大衆の共感が求められるSF漫画には、人々が未来や新しい技術に対して意識的ないし無意識的に持っている印象や考えが反映されているため、そういった作品を分析することで、人工知能に対する私たちの期待や不安を知ることができるかもしれません(公共政策大学院M2 N. K.さん)。


(編集/文責:ティーチングアシスタント 水上拓哉)

6月20日 今井健(医学系研究科 准教授)「医療と人工知能」

第9回授業を担当されたのは医学系研究科の今井健先生で、医療情報学の立場から人工知能技術の応用について講義をされました。医療の分野では、ビッグデータを使えるようにすること、そして、医療人工知能システムの開発と臨床応用が目指されてきました。人工知能医療応用の歴史は1970年代に始まり、応用例としては抗生剤推薦システムや内科診断支援システムなどがあります。2000年代に入るとビッグデータの時代となり、人工知能はいったん衰退します。しかし2010年代の深層学習の登場により、本格的に人工知能技術の医療応用が始まりました。現在では、画像診断をはじめとしてあらゆる分野での人工知能技術の医療応用が目指されています。


人工知能技術の医療分野への応用を目指すうえでの課題は、深層学習がカバーしている知識の範囲がせまく、説明能力に乏しいことが挙げられます。また、医学的知識を工学的に処理できる形にしておくことも必要です。これに対し、オントロジーを用いた知識表現を深層学習と組み合わせて使うことでこのような課題を克服し、様々な場面で医用人工知能応用を進める動きもあります。医療と人工知能のかかわりに関する議論に関しては、ほとんどが画像診断についての議論であり、今後社会でのコンセンサスを醸成するためにはもっと議論を深めていく必要があるでしょう。(要約:学際情報学府M1 S. Y.さん)


授業後半の学生ディスカッションでは、将来的な人間と人工知能の役割分担について、どのような議論をすべきか、どのような場を設定し、どこにそれをフィードバックするべきなのかについて検討しました。もし人間の医者よりも優れた医療人工知能が登場したのならば、医者の役割はどのように変化するでしょうか。たとえば、学際情報学府のO. N.さんが述べるように、対話によって患者の意見を取り入れた人間的診療を担保するために臨床医はカウンセラーとしての役割が強くなるかもしれません。また、人工知能を用いた膨大な量のデータ分析は基礎的な医学研究に新しい知見をもたらすことでしょう。しかしその場合、研究のスタートともいえる「問題意識」の部分は人間が担わなければならず、問題意識を持つこと、あるいは技術の応用可能性を考えるという部分について、多くの研究医の力が投入されるべきでしょう(学際情報学府M1 O. N.さん)。


議論の中で多く見られたのが、人間の医者を補うために医療人工知能を「セカンドオピニオン」として運用してはどうか、という意見でした。しかし、セカンドオピニオンは、それぞれが最大の努力をした上で診断を下すからこそ意義あるものになるため、人間の医師が従来の診察を行った上で人工知能に診断を行わせることは「二度手間」になってしまうおそれがあります。また、人工知能の診断結果に対して責任を持って判断するには人工知能に関する知識も必要になるでしょう(公共政策大学院M2 H. T.さん)。


医療行為に人間同士の信頼関係が求められることも併せて考えると、医療用人工知能によって人間の医師を代替させることにも、「セカンドオピニオン」として利用することにも困難が立ちはだかっています。しかし、人工知能を医療分野での活用することによる医師の仕事の効率化は、医師が患者との関係に集中し、より有効な治療を行うことを可能にするでしょう。そう考えると、人工知能の発展は医師の役割を完全に代替することではなく、医療の効率性と質の向上をもたらすことだと考えることもできます(公共政策大学院M1 G. L.さん)。

6月27日 唐沢かおり(人文社会系研究科 教授)「人工知能の心を読むことをめぐって」

第10回授業を担当されたのは人文社会研究科の唐沢かおり先生で、「人工知能の心を読むことをめぐって」というテーマで講義されました。具体的には、社会心理学の知見をもとに、私たちがなぜ人工知能(やロボットなど)にまるで「心」があるかのように知覚するのかについて検討されました。


Mind Surveyという研究によると、心的機能の知覚はExperience(「感じる」心)とAgency(「行う」心)の2つの次元から構成され、これら二次元を軸にして人間が様々な対象に見出す「心」をマッピングすることができます。また、これらの「心」の知覚次元は、その「心」を持つものへの保護や責任付与といった道徳的な要素や行動と関係しています。


次に、人工知能に人間が「心」を見出すとどうなるのかという論点について論じられました。人工知能のような、本来心を持たない対象について「心」を知覚してしまうことは、擬人化という現象とも通じるものがあります。人間らしい特徴(顔の要素などの視覚的特徴のみならず不確実性の大きさなどの行動的特徴も含めて)を持っているロボットは擬人化しやすく、高齢者介護施設におけるパロなどの実用例も多くあります。数々の実証研究は、人間が人間に対して当てはめている判断・行動規則を、「心」を見出したロボットにも適用していることを示しています。つまり、人工知能やロボットは単なるモノではなく、「心らしいものを持つ」社会的エージェントとして認知され、社会的相互作用の相手になりうるのです(要約:公共政策大学院M1 T. Y.さん)。


授業後半の学生ディスカッションでは、前半の授業内容を踏まえ、心の知覚を促進するようなロボットや人工知能を開発する必要性について議論しました。公共政策大学院のC. S.さんが指摘するように、そのようなロボットを導入するべき領域とそうではない領域があるでしょう。たとえば、ロボットの破壊や破棄を伴う軍事的なシーンで心の知覚を促進するロボットを用いることは不適切でしょうし、その一方で、医療介護、サービス業といった人とのコミュニケーションが必要な分野、人のニーズを満足させる必要がある領域では、心の知覚が必要になるでしょう。ただ、その場合でも人間本来のコミュニケーションが損なわれる問題を検討しなければなりません(公共政策大学院M1 C. S.さん)。


ロボットや人工知能の能力には限界があることも考慮すると、人間が人間とのコミュニケーションを欲することは変わらず、現状のロボットや人工知能とのコミュニケーションはその孤独を補完してくれる程度のものでしょう。だからこそ、ロボットや人工知能とのコミュニケーションと人間とのコミュニケーションは根本的に何が違うのかを、ロボットや人工知能の研究を行いながら検討していく必要があると考えられます(学際情報学府D3 K. K.さん)。また、SNSの登場により人々がより承認を求めるようになった、ということも考えると、ロボットとのコミュニケーションが浸透することで私たちがより「個人化」してしまうこともありえるでしょう。したがって、「何を人工知能でやりたいのか」という基本的な質問を再度しっかり考えていくことが、人工知能が社会において起こしうるマイナスな結果を軽減または避けることに繋がるのではないでしょうか(学際情報学府M1 A. E.さん)。


(編集/文責:ティーチングアシスタント 水上拓哉)

7月04日 川口大司(経済学研究科 教授)「ロボットと雇用」

第11回授業を担当されたのは公共政策大学院・経済学研究科の川口大司先生で、経済学の立場からテクノロジーの導入が労働市場に及ぼす影響について講義がありました。


川口先生はまず、先行研究としてオズボーン・フレイの分析を紹介し、これに基づいた「労働人口の49%の仕事は人工知能やロボットに代替される」というNRIの分析を紹介しました。しかし、オズボーン・フレイの分析はそれぞれの職業のみで人工知能の雇用への影響を考えているため、他の職種に及ぼす影響を想定していないという問題があります。新技術の導入によって生産性が向上し労働需要があがったり、シナジーにより別の産業での労働需要が上がったりすることがあり労働代替が激しく進むとは限りません。また、必ずしも技術の存在は技術の導入を意味するわけではなく、機械の価格・維持費用などの新技術導入のコストが経営者や労働者の賃金より低くなって初めて導入するという点も考慮しなければなりません。加えて、現在の研究において、ロボットが多く導入されると就業率が下がるという現象を、労働代替が進んでいると読むのは表層的だという指摘がありました。就業率=労働人口/人口であり、労働人口の成長率以上に人口の成長率が高いという仮説も考えられるため、必ずしも労働市場や人口にネガティブな影響を与えていると結論付けられるわけではないのです。(要約:公共政策大学院M1 M. K.さん)


授業後半の学生ディスカッションでは、新しい技術の導入による影響が関係するアクターによって多様であることを踏まえ、その影響について地方自治体や政府はどのように対応するべきなのかということについて議論しました。


川口先生は講義の中で、人工知能技術の導入の仕方について日米で違いがあることに言及されました。人工知能技術導入の影響を考え対策を講じる際には、それぞれの国が自国の産業構成や労働市場の状況といった要素を十分に考慮した上で戦略を練ることが重要です(公共政策大学院M1 S. X.さん)。このように考えたとき、日本においては少子高齢化の解決策として人工知能技術の導入を検討することができるでしょう。政府や自治体の取れる具体的な選択肢としては、たとえば、高齢者の能力を拡張したり、若者の労働生産性を向上させ、国の財源を増やしたりするといったものが考えられます(学際情報学府M1 K. H.さん)。しかしその一方で、新しい技術が日常生活に導入されることによって、労働者に求められる能力がどんどん変わっていく可能性もあり、労働者が従来のスキルセットで生産性を保つことができるとは限りません。いわゆる「第4次産業革命」を迎える社会を見据えた資質・能力を育成するために、初等中等教育から大学教育までの従来の教育システムを見直す必要があるでしょう(公共政策大学院M1 L. N.さん)。


(編集/文責:ティーチングアシスタント 水上拓哉)

7月11日 江間有沙(総合文化研究科/未来ビジョンセンター 特任講師)「人工知能社会の歩き方」

                        ゲスト:柳川範之(経済学研究科 教授)

第12回授業を担当されたのは経済学研究科の柳川範之先生で、日本の人工知能技術における社会実装の課題と人材育成の課題の2点について話されました。


社会実装の課題としては、政策決定のプロセスの課題と国の介入の度合いの課題があります。前者については、人工知能を統括する省庁が一つに決まっておらず、各省庁からのボトムアップによって政策が決まっていきます。そのため、省庁内での議論に加え省庁横断的な議論が繰り返されることになり、機動力に欠け、全体的なビジョンの提示が難しいというデメリットがあります。一方で現場で起こっていることに沿った政策を作れるというメリットも存在します。後者については民間と国の役割分担が決まっておらず議論の最中です。国は民間が提案したルールを承認しておけばよいという意見がある一方で、国家間の国際的な議論を行う際には、国としてルールを持っておかなくてはならないという意見もあります。


人材育成の課題については、国として人工知能人材(AI人材)25万人育成という計画はあるものの、何ができれば人工知能人材なのかという定義がされていないという問題があります。誰もがデータサイエンティストになる必要はないわけですが、機械学習の学習データの整備をする人材は必要になることが予想されます。機械学習の学習データの整備には各ジャンルの専門知識が求められるため、結局のところ教育システム自体が大幅に人工知能に寄せてシフトすることはないだろうというのが先生の見解でした(要約:工学系研究科M1 T. K.さん)。


授業後半では人工知能技術のこれからの浸透において政府がどの程度介入していくべきなのか、という問題について議論しました。公共政策大学院のT. L.さんが指摘するように、ボトムアップでルール作りをした場合、そのルールが本当に適切なものなのか、民間企業はそれを守るのかといった問題があります。それを回避するために政府主導でルールを作ることは有効な選択肢となるでしょう。しかし、技術に疎い非専門家が適切なルールを作ることができるのかという懸念もあります。この問題については、新卒採用時に情報系学生の採用、もしくは民間の人工知能人材の登用などである程度は解決できるかもしれません(公共政策大学院M1 T. L.さん)。


人工知能人材の育成については、情報系の教員に協力してもらい他学部に人工知能系の授業を担当させることが考えられますが、授業難易度の調整の問題や、人的リソース不足の問題もあります。この点については、Courseraの機械学習コースやAidemyのプログラミング講座などといったオンライン講座を活用するという選択肢も考えられるでしょう(学際情報学府M2 M. H.さん)。ただし、これまでの授業で学んできたように、人工知能技術の不適切な使用を避け、問題が起きたときに適切な対応ができる能力も重要です。その意味で、単にプログラミング技能を身に着けたり機械学習のライブラリを使えたりといった表層的なスキルだけではなく、その仕組みや元となるデータの意味について理解できるような「AI人材育成」が求められると考えられます(学際情報学府M1 O. N.さん)。


(編集/文責:ティーチングアシスタント 水上拓哉)