CLASS 2018

2018年度スケジュール 

4月05日 担当教員によるイントロダクション「人工知能が浸透する社会について考える」

4月19日 鳥海不二夫(工学系研究科 准教授)「強いAIと弱いAI」

4月26日 佐倉統(情報学環 教授)「ロボットは敵か味方か?」

5月10日 國吉康夫(情報理工学系研究科 教授/次世代知能科学研究センター長)「人工知能の将来と人間・社会」

5月17日 城山英明(公共政策大学院 教授)「人工知能と政治」

5月24日 宍戸常寿(法学政治学研究科 教授)「人工知能の法的課題」

5月31日 柳川範之(経済学研究科 教授)「経済活動と人工知能の相互関係を考える」

6月07日 学生WS: 最終レポート課題に向けたディスカッション

6月14日 松尾豊(工学系研究科 特任准教授)「ディープラーニングの産業応用」

6月21日 杉山将(理研AIPセンター長/新領域創成科学研究科 教授)「限られた情報からの機械学習アルゴリズム」

6月28日 藤井太洋(SF作家)「ミームとともに生きる人類」

7月05日 米村滋人(法学政治学研究科 教授)「AI医療機器の活用の可能性と法的課題」

7月12日 江間有沙(総合文化研究科/政策ビジョンセンター 特任講師)「人工知能社会の歩き方」

講義レポート

講義レポートは受講学生による(1) 講義まとめと(2) コメントや感想(2名程度)で構成されています(第2回より)。 

4月05日 担当教員によるイントロダクション「人工知能が浸透する社会について考える」

江間有沙(総合文化研究科 非常勤講師/ 政策ビジョン研究センター 特任講師)

國吉康夫 (情報理工学系研究科 教授/次世代知能科学研究センター長)

佐倉統(情報学環 教授)

城山英明(公共政策大学院 教授)


第1回講義は、担当教員の先生方全員による座談会でした。最初に江間先生が、この授業は「技術が私たちの社会をどう変えてしまうのか」という受け身な態度ではなく、「どのような社会を目指し、そのために技術や人は何ができるか」といった視点から、異分野の人たち同士でディスカッションすることが目的であると説明されました。そのような視点や異分野のディスカッションの必要な事例として、海外で地図アプリを使って目的地までの最短経路を検索した観光客が、地元の人なら知っている治安の悪い地域をそうと知らずに通ってしまい、不幸なことが起きた話をされました(詳細はこちら)。身近な技術でも時と場所によっては思わぬ論点を生み出し、しかもそれは技術者だけでは解決できない問題をはらんでいます。


これを受けて座談会では最初に技術者の責任について議論が行われました。技術者には予見可能な事故に対策をする責任がありますが、予見可能なものばかりではないので、社会を巻き込みながら理想的な技術の使い方を考える必要があります。その「理想」は一般の人々が考え、また専門家との関係性の中で実現するはずのものです。一般の人々にもさまざまな人がいます。例えば情報分野と医療分野の人の行動パターンは全く異なりますし、一口に情報分野といってもデータの保有者と解析者は往々にして別です。異なるアクターがぶつかり、大規模に広がっていくとき、何が起こるのでしょうか?


また現在、AIの技術は社会への導入段階にあります。國吉先生は、今が技術的にも社会的にも一番難しい時であると指摘します。AIは、限られた条件でのみ利用できるなど「中途半端」なものですし、尽くされている議論も少なすぎます。城山先生はこれを受けて、技術への過剰期待がある中で「中途半端さ」をどう扱うかというお話をされました。人工知能においてはブラックボックス化が話題になっていますが、実は人にものを頼むときも同様です。國吉先生がAIにうまく仕事を任せられるだろうかとおっしゃったのを受け、佐倉先生からは現段階のAIに得意なところを任せるために、役割分担をどう描くかという社会のデザインに言及されました。人間の判断にはさまざまな要素がいろいろな形で働いているものですが、ある種のパターン化された意思決定をAIに任せることは可能かもしれないと城山先生は指摘します。しかしその判断を信頼できるでしょうか。意思決定の仕組みがわかっていることとAIへの信頼感は、厳密には別の問題です。私たちはどのような技術が欲しいのかを考え、慎重に技術を扱う必要があります。


最後に先生方から、他分野とのディスカッションから視野を広げてほしいとのメッセージをいただき、学生からは雇用と人工知能の関係、先生方におけるAIの定義について質問がありました。


(文責:ティーチングアシスタント 前田春香)

4月19日 鳥海不二夫(工学系研究科 准教授)「強いAIと弱いAI」

第2回目の授業は鳥海先生が担当され、強いAIと弱いAIについてお話されました。講義内容は①強いAI・弱いAIとは何か、②人工知能の歴史の概観、③強いAI誕生のための課題の三つに大別されます。①について、強いAIとは「意識」を持った人工知能のことを指し、人間のように考え、人間が関与できないレベルでものを考えられるものをいいます。一方、弱いAIとは人間の作業の代替を行うものに過ぎません。


②人工知能という言葉が最初に用いられた1956年のダートマス会議の数年後の1960年代に第1次人工知能ブームが生じました。その次の第2次人工知能ブームは1980年代に生じ、IF-Thenルールによる人工知能開発を試みましたが、結局実用化には至りませんでした。現在の第3次人工知能ブームにおいては、ビッグデータを利用した人工知能の作成が行われており、このブームの背景には機械学習の手法の一つであるディープラーニングの成功がありました。


③大きな問題として、A)フレーム問題、B)シンボルグラウンディング問題が挙げられます。A)は必要な分だけ推論できるロボットの作成が困難であることが問題となっています。B)はAIにあるものをあるものと認識させることが困難であるという問題を抱えています。具体例としては「りんご」を「りんご」足らしめる概念を取得させることが困難と言うことが挙げられます。(要約:公共政策大学院所属のK.Hさん)


これらの題材によって浮かび上がったのは、意識と強いAIとの共存に対する問です。学際情報学府のT.Nさんは、強いAIは、(意識を有しているかどうかを確認できないため)意識のある「ような」振る舞いを持たせることによって実現できるが、そのためには娯楽のためという以上の強い動機が必要だといいます。そのような強いAIを人間と協調させるためには、報酬や価値基準をうまく設定することが必要だと書いています。


それに対して新領域創成科学研究科のH.Kさんは、「もっと他人を知りたい」、「人間の価値感を決める認知機能の解明」、「人類の頭脳労働の代替」といった形で、人間は強いAIに対してすでに強い動機を持っているといいます。強いAIは必然的に莫大な情報を扱うことになるため、その認知能力の差から人間とは大きく考え方が異なる可能性もあります。そのようなAIに対し、環境や価値判断における設定を行うのは非常に困難でしょう。


報酬や価値基準を設定するにあたり、人間のものをそのままインストールするのはAIの強みを消してしまうことになりえます。乱暴に言えば、えこひいきする上司がそのままAIに成り代わるだけのことです。人間の強みと機械の強みを活かすためのシステム整備が求められます。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

4月26日 佐倉統(情報学環 教授)「ロボットは敵か味方か?」

第3回目は佐倉先生による講義が行われました。授業では、①技術と社会の相互作用、②社会はロボットをどう見ているかという点について講義がなされました。①電話やラジオ、ポケットベルといった技術はさまざまな人に利用される過程で、当初予定されていたものとは異なる利用がなされてきました。技術が必ずしも人間を幸せにするわけではなく、多くの作業工程の一部のみを機械に置換することで全体の作業量を増やしてしまったり、社会格差を一層拡大する可能性があることなど、どのように使われるかにより新しい技術の功罪も決まってくることが講義されました。


②文化史的には人は人に似せたものを作ってきたにも関わらず、「不気味の谷」に見られるように、人はある程度人間に似たロボットに脅威を感じやすい傾向があります。これまでの科学史における人間観の三大転回(1.コペルニクスの地動説、2.ダーウィンの進化論、3.フロイトの精神分析)により、人間中心的世界観及び人間が理性的存在であるという認識が根底から変化してきており、現在は、人間と機械の境目が消失しつつあるという四番目の転回を経験しているのではないかという意見があることが紹介されました。(要約は公共政策大学院M1・R.Tさんによる)


講義後、人間とAIの共存に何が必要かというテーマでグループディスカッションが行われました。人間と機械の共存は、産業革命期のラダイト運動に見られるように人工知能に限ったテーマではありません。それではいわゆる「技術」による代替の恐怖と、ロボット・AIによる代替の恐怖は、何がどう違うのでしょうか。


公共政策大学院M1のA.Kさんは、歴史的なコペルニクス転回のような科学観の根本的な変化と同じようなものかもしれないとして、現在のAIによる変化を見ています。今世間で流布しているイメージ像も、地動説のように漠然と信じられていたようなあやふやなものである可能性は大いにあるとします。


一方で学際情報学府D1のA.Uさんは、技術が複雑化すればするほど不確実性は増大するものであり、適切なリスクコミュニケーションが必要であると述べています。その不確実性は例えば、現在AIのブラックボックス化として具体的に表れています。このことから、AI関連の技術はこれまでの技術とは質的に異なるのだと主張することも可能です。本当に私達はブラックボックスの中身を理解することが出来るのでしょうか。


そこでの「私達」とはどのような人たちを指すのでしょうか? また、どうすればブラックボックスを解き明かすことが出来るでしょうか?


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

5月10日 國吉康夫(情報理工学系研究科 教授/次世代知能科学研究センター長)「人工知能の将来と人間・社会」

第4回目の講義は、國吉先生がお話されました。近年のAI技術の成長は著しく、現在では様々な分野においてAI技術が活用されていますが、これらのAIもインプットとアウトプットの対応付けを行うという従来の論理的枠組みを超えるものではありません。データバイアス問題・フレーム問題・シンボルクラウディング問題などの根本的課題も未だ解決されていません。


既存のAIの限界を超えて、高次の認知機能を獲得することがAI研究の喫緊の課題です。そのためのアプローチの一つとして、身体性と創発が挙げられます。これはAIに有意な制約を課し、その制約を充足するパターンを無限に生成することによって、従来のAIでは実現できなかった柔軟な動作の発現に繋がりうるものです。また、もう一つのアプローチとして、発達論や脳神経科学の知見に基づいてAIに「人間的心」を与える試みも注目を浴びています。


このような従来のAIとは一線を画す、メタ認知・常識・人間性を有したAIが実現した際に、人間及び社会が、より理想的な形に進歩する可能性がある一方、根底から揺るがされる恐れもあり、いずれにせよ、人間や社会について根本から見直す必要に迫られるでしょう。そのような人間社会の未来のデザインを議論するためにも、学横断的な対話や、人間性の再定義が求められています。(要約は公共政策大学院M2・K.Yさんによる)


ディスカッションパートでは、AIが「人間的な心」を持つことについて議論が行われました。公共政策大学院M1のD.Iさんは、記号接地問題やフレーム問題は、AIが人間的なふるまいをすることによって初めて解決されると述べています。人間とロボットが対等かつ友好的な関係を取り結ぶためには、人間的心を持たせることが必要でしょう。しかし、特定の目的に対する最小コストでの目的達成を目指すならば、「怠け心」が出る可能性もあるので、人間的心はこの場合には必要ありません。


公共政策大学院M1のT.Oさんも、異常な行動を抑える、調和を目指す、という考え方から、人間的心は必要だと書いています。しかしそこで、人間的心は何だろうという疑問に行き当たります。人間には良い心の人も、悪い心の人もいます。そのようにコメントすると、ここでの「人間的心」とは、あくまで概念的な意味での「人間的」な「心」であって、AIを制御するための一般的常識、人間のあるべき姿に沿ったもの、を意味すると先生が教えてくださり納得しました。


美徳や倫理といったものは状況依存的であり、人によりあまりにも開きが大きく、人間同士でさえ争いが起こり続ける状況が続いています。必要なのは対話のためのベースであり、歩み寄りの姿勢であり、それが「人間的な心」の示す内容ではないかと私(ティーチングアシスタント:前田)は思います。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

5月17日 城山英明(公共政策大学院 教授)「人工知能と政治」

第5回目の授業は城山先生がAIと社会的意思決定の関係について講義してくださいました。AIに関する政治という観点からのテクノロジーアセスメント(TA)・リテラシーの基礎についてと、AIが与える社会的意思決定への影響・対応策についての二つの論点が挙げられました。


まず、TAとは何か、TAはどのように社会に貢献できるかなどの点について説明されました。次にリスクと便益の多様性・バランスやリスク事象の発生と総量、地域における差異や認識のタイムラグ、移行期・過渡期の問題といった課題に触れられました。最後に、TAは日本でどのように制度化しうるか、意思決定をする機関について議論されました。二つ目のAIと政治の観点については、意思決定やコミュニケーションの委任問題は必ずしも新しい課題ではなく、人間への委任と機械への委任、いずれも予想外の事態は起こりうるという指摘がなされました。


今後、AIと人間が社会的意思決定の各局面における多様な役割分担の可能性を検討する必要がある一方、AI人間複合社会において、バイアスに対処する史料批判能力、協働的課題解決能力などの能力も人間に求められています。(要約は公共政策大学院M2・U.Sさんによる)


今回の授業でコメントにおいては、どのような形でAIが政治に関わるのかを問わず、AIが何に基づいて価値判断や意思決定を行うのか、そしてその決定に対して私たち人間が納得することができるのかという点にフォーカスされていました。


公共政策大学院M2のS.Tさんは、これからの人口減を踏まえるとAIに政治を委ねるということは必要だろうと書いています。しかし現状日本が民主主義を採用していることを考えると、やはり有権者がどう考えるか、社会的合意を得ることが出来るかということは一つの論点として考えられるべきでしょう。単なる合理的・中立的な判断を求めるだけでなく、国民感情に応えるということを考慮すると、段階的な導入が必要であると結論づけています。


公共政策大学院のK.Oさんは、AIと価値基準という問題に触れて、AIが価値付けを行うようになれば、それは人間にとっての幸せと呼べるのだろうかと疑問を呈しています。人々の価値観は確かに多様ではありますが、それではAIはどのように価値付けを行うのでしょうか? 例えば一つの理想形を目指す道として、プラトンがいうイデアをAIは獲得できるのでしょうか。それでもAIによる政治は、現状人間が行う政治よりもフェアな判断が可能なのではないかとしています。


政治は単なる最適解の選出ではありません。政策立案・決定には多種多様なアクターと利益判断が絡み、単なる「最適化」ではないこともしばしばです。その中でより良い答えを選ぶためには、人間の側にもそれ相応の準備が求められます。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

5月24日 宍戸常寿(法学政治学研究科 教授)「人工知能の法的課題」

第6回目は、宍戸先生がAIと法的課題について講義してくださいました。法においては、社会関係が複数の要件を満たすと、その効果として権利義務関係の変動が起こります。そのとき、要件の具体的内容や複数の効果間の関係性が議論の対象となります。それが「解釈」と呼ばれるものです。法の解釈においては利益の衡量と比例性が求められ、また、ad hocではない一般的な解決が望まれます。この前提のもと、ロボット・AIの社会導入が検討される必要があります。


まず、今後の日本社会に必要とされるロボット・AIの役割として注目されるのは、少子高齢化で減少する人間の代替です。労働力の補完や生産規模拡大につながる代替的役割と同時に、人間の能力を増強する、もしくは新たな価値創造としての役割も求められることにもなるでしょう。その代表例が自動運転です。ロボット・AIに特徴的であり、これまでの技術には見られなかった要素として、自律性があります。これは生産量・質を飛躍的に伸ばすという利点と、不透明性・不確実というリスクとトレードオフの関係にあるため、人工知能に関する法は、便益を最大限に拡大し、一方でリスクを最小限に抑えるというバランスを求められています。個人レベルにおいては、AIに対する理解をどのように得るかという問題、企業のような組織においては、人間とAIをどのように生産活動に組み込むかという問題、政府においては資源配分や規制のあり方の問題というように、アクターごとに異なる問題を抱えているというのが現状です。(要約は公共政策大学院M1・K.Nさんによる)


AIは道具であるという考え方に基づけば、道具は使用者責任と開発者責任、両方の観点から責任について考えることができます。個人・企業・政府、それぞれのアクターがそれぞれに対策を講じる必要があるでしょう。


工学系研究科M1のK.Kさんは、人間の生活のあらゆる局面にAIが介入するようになるのだから、個人の利用にだけに責任を帰すのは無責任すぎると書いています。現在のGAFAに任せれば、競争原理に基づいてAIのレベルも向上し、人間と共存できるレベルにまで進化するのではないでしょうか。


これに対して公共政策大学院M1のP.Jさんは、経済学を学んだ経験から、フリーマーケットに任せるやり方はまず通用しないとしています。Facebookの例に見られる自由経済の失敗は経済学の一つの課題でもあります。独占・寡占の問題に限らず、SNSのようなプラットフォームはネットワーク効果を持つため、移転が大変困難です。だからこそ法的な対処措置を講じる必要があるのです。しかもAI・ビッグデータ時代には、消費者と企業の情報の非対称性は大きな課題になります。基本的に消費者は劣位に置かれるため、特性を理解した消費者保護に対して教育、メディアが動くことが必要です。


情報の非対称性は、実はAI登場以前にも監視社会論などでは問題になっていました。消費者を追跡することは利益に直接つながったからです。この問題はAIの登場によって、より正確にかつ効率的に、より広範囲に行えるようになって新しい局面を迎えています。マーケティングに限らず、あらゆるAIを含むプラットフォームや製品を開発する側は、その社会的影響を考慮する必要があります。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

5月31日 柳川範之(経済学研究科 教授)「経済活動と人工知能の相互関係を考える」

第7回目は技術と社会実装について、柳川先生にお話しいただきました。技術が社会に実装されるプロセスは大別して三種類あります。①その技術に収益性が見込まれる場合、②技術に収益性はなくとも国などが必要と判断し普及させる場合、③いまは儲からなくとも長期的な収益性を見越して技術をタダで提供し普及させていく場合です。②は特に軍事技術などが例に挙げられます。軍事技術は国が主導して開発を進めたが、結果としてインターネットの発展に繋がりました。③は今までにはなかった実装のプロセスといえます。最も一般的な実装のプロセスは②で、民間企業が収益性を見越して技術を普及させる場合が多いです。


AIによって変わることとして、マーケティングの高度化、人件費削減、移動コストの削減、研究開発の高度化などがあります。AI技術は様々な課題を解決するものとして期待されますが、収益の見込まれる先にはそれを製品にする産業活動があり、それは社会経済に繋がっていきます。


例えば技術の独占をどこまで可能にするか、という議論があります。技術の開発にコストをかけても同様の開発をする企業がいたらリターンは少なく、企業としては開発をするメリットがありません。一方で消費者にとっては、競争が起こったほうが製品の価格が安くなり普及しやすいというメリットがあります。このバランスをどう取るかが課題です。(要約は工学系研究科M1・A.Mさんによる)


ディスカッションではAIの浸透について再検討されましたが、そこで再浮上したのはやはりAIに何が出来るのか、言い換えれば人間の能力のうちどこまでをAIで代替することが可能かという問いでした。


公共政策大学院M1のD.Iさんは、AIで代替できない仕事として「営業」を挙げています。例えば、店員とコミュニケーションしながらものを買うとき、私たちはものと一緒に思い出を購入していると言えます。現在の技術レベルのロボットとのコミュニケーションよりも、人間と人間のコミュニケーションの方が満足感が高いため、AIにない強みを使った職業として営業が挙げられるという主張です。


工学系研究科M1のK.Kさんは、汎用AIが登場した際、雰囲気や人当たりの良さのような数値化できない「人間性」に再び焦点が当たるのではないかと書いています。ただし、より重要なポイントとして、AIによる具体的なメリットを指摘できた学生が少なかったことを受け、議論が想像上のものにしかなっていないのではないかと疑問を呈しています。さらに、この授業を受講しているようなAIに関心の高い人々でさえも、AIに何ができて何ができないのかを正確に把握していないことが原因なのではないかとしていました。


確かに、AIの技術が日進月歩であることと、さらに専門性が高いことを踏まえると、AIの最新技術の内実についてフォローすることは簡単ではありません。実際、AIの社会的影響を論じる人々が必ずしも技術に精通しているとは言い難いでしょう。AIと社会は新しい分野であるだけに、学問の状況としてやや錯綜しているのは事実です。AIと社会の関係について「地に足の着いた」議論をするためには、AI技術の専門家とそれ以外の専門家とのコミュニケーションが重要になってくるでしょう。つまり、人文系の人たちは技術について知ることが必要でしょうし、理工系の人たちは倫理・社会について考慮することも求められることになります。そのようなコミュニケーションをいかにして実現させるのか、それこそが今後の喫緊の課題です。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

6月14日 松尾豊(工学系研究科 特任准教授)「ディープラーニングの産業応用」

第8回目の講義は、松尾先生にお話しいただきました。そもそも記号系の処理を得意とする人工知能において、「子供ができることほど難しい」という問題(モラベックのパラドックス)が存在していましたが、眼の誕生によって近く運動系の知能についても大きな飛躍が生じることとなりました。「眼を持った機械」が誕生することによって、機械・ロボットの世界でのカンブリア爆発が起こることが予見されます。そして、この出来事を日本のチャンスとするには日本なりのプラットフォーム戦略を考える必要性があります。


「眼のある機械」は継続的なデータ収集が不可欠となるため、眼のある機械の稼働に対して課金することが可能となります。さらに、眼のある機械を起点とする「場」の全体のプラットフォーム化につなげ、それを世界展開していくという戦略が良いのではないでしょうか。そして、ディープラーニング時代のプラットフォーマーに求められることとしては、①熟練の「眼」のスコア化、②中心的な作業の自動化、③現場全体のフローの最適化・自動化、④サプライチェーンの大変革、⑤プラットフォーム化が挙げられます。(要約は公共政策大学院M1・S.Mさんによる)


ディスカッションパートでは、ネクストグーグルになるような日本企業はどのような起業かについて議論がなされました。


公共政策大学院M1のT.Oさんは、「眼」を必要とする作業が行われている産業において「眼」を持つロボットを導入すれば、日本企業はトップになれるだろうと講義中に述べられていたことを踏まえ、「眼」を必要とする産業がいくつかある中で、農業を選んでいます。農業の生産性を上げる必要性のより高そうな発展途上国で「眼」を持つ機械を導入すれば、その産業ロボットは日本にとって強力な武器になるのではないかとしています。


一方、公共政策大学院M2のK.Yさんは、日本企業や日本政府は、今自分たちがそのようなチャンスを前にしていることを自覚し、それを充分に活かすための計画・行動をしているのかと訝っています。農業に利用できるような「眼」を持つロボットが開発されたとしても、実際に農家が導入できないことには意味がありません。農家が生産性の改善のため、人工知能技術への設備投資を増加させるためには、政府が市場原理の働く健全な市場環境を整備することが急務だと結論づけています。


現状、例えば農業におけるAI利用は、データ利用の次元においてさえも極めて限定的な段階に留まっています。年々日本が強みを発揮できる部分が狭まる中で、企業がロボットを開発し販売まで漕ぎ着けることも容易ではないでしょうし、農家に目を向ければ購買力やリテラシー、テクノフォビアなども気になる要素として浮上します。このような部分は、政府や企業はもちろん、他のアクターも積極的に支援していく事が重要です。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

6月21日 杉山将(理研AIPセンター長/新領域創成科学研究科 教授)「限られた情報からの機械学習アルゴリズム」

第9回目の講義では、杉山先生にお話いただきました。「人工知能」という言葉は幅広く使われており、学術的には複数の領域にまたがるものです。現状「人工知能」と呼ばれるのは主に機械学習の技術のことです。機械学習の目標は、コンピューターに人間のような学習能力を身につけさせることであり、その学習の技術に、教師あり、教師なし、強化学習などのバリエーションがあります。強化学習は以前から研究されてきたが、AlphaGOがきっかけとなりブームとなりました。現在機械学習の国際学会は参加者が激増している一方、採択論文などはアメリカの機関が一強であり、日本人は存在感を出せていないのが現状です。


理研のAIPセンターでは、10年先を見据えた次世代基盤の開発を推進しており、深層学習とは異なるアプローチで難題を解決する基礎研究を進めています。機械学習の最新の研究事例としては、ビッグデータを活用した実世界の応用が挙げられます。すでに画像認識、音声認識、自動翻訳などに活用されていますが、分野によっては教師ありのデータが簡単に収集できないケースが多く、新たな学習法が求められています。たとえば正例と正誤が混ざったラベルなしデータからの分類でも精度を上げられることがわかっており、これらによって半教師付きの分類が可能になっています。


今後のAI研究は、ますます数学が重要になっており、人材育成の観点からは、プログラミングに加えて、数学的な能力の育成が必要となっています。(要約は学際情報学府D1・A.Uさんによる)


講義後に検討されたテーマは、AI人材をどのように教育していくかというものでした。杉山先生から数学的な能力のお話があったため、受講生からは大きくそこについて反響が寄せられました。


例えば公共政策大学院M1のT.Oさんは、今の中高生を見るに、数学の素養が充分に身につくような教育状況であるとは言い難いと書いています。受験数学という俗語に象徴されるような暗記重視の数学から、理論を理解させるような数学教育へ移行し、数学のコンセプトが理解できる人を増やす必要があるとしていました。


一方で、公共政策大学院M1のK.Kさんは、すでに大学で文系学部に入ってしまった人は手遅れなのではないかと書いていました。検索で何でも情報を得られる時代に、自発的に新しい技術について勉強しようとしない人に対してAI教育の機会やリソースを投入しても活用されないのではないかと危惧しています。したがって今現在の高校生くらいの年代に絞って、リソースを投下する方が現実的であるとコメントが結ばれています。


この文の編集を行っている二人ともが人工知能と社会関係の研究をしています。筆者(前田)の方は、お世辞にも数学が得意だとは言い難いですが、ソフトの力を借りれば一応統計がわかります。筆者は「数学的能力がある」と言えるでしょうか? 一口に数学的能力といっても、計算能力、論理性、空間認識、など様々な要素を挙げることができ、このあたりは教育現場における「数学的能力」とかなり差があるように思われます。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

6月28日 藤井太洋(SF作家)「ミームとともに生きる人類」

第10回目の授業は、藤井先生にお話しいただきました。SF小説は、人工知能の技術の進歩と共に変遷を重ね、時に人工知能技術の含意や本質に関する問いや潜在的な問題に対する解決策を人類に示唆し続けてきました。例えば、1818年にメアリー・シェリーにより初めて執筆されたSF小説「フランケンシュタイン」も、「人工知能(人工生命)は人間に反逆するのか」という今日まで議論されている問いを投げかけています。1920年の「R.U.R」は非常に人間に近いようなバイオメカニクスを描き、ロボットと人間の本質的な差異や人工知能の身体性に関して興味深い観点を提供しています。またSFではありませんが、1976年のドーキンスの「利己的な遺伝子」は、文化や技術が遺伝子のように、競争の淘汰圧に抗いつつ、伝播、自己複製していくものであるとの説を展開し、「ミーム」の概念を提示されました。


藤井先生の作品「第二内戦」の中では、進化論に従い、複数の技術が多数の場所で使われる分岐進化の可能性や、競合する技術が徐々に淘汰され一つの技術が生き残る収斂進化の可能性が示唆されています。作中に描かれているあらゆる事物は、それぞれ何かを表象するミームとも捉えることもできます。


人間とミームの共生は必然的ですが、ミームという自己複製子の専制支配を甘受する必然性はありません。人間はミームの専制に抗うことのできる唯一の種だからです。(要約は公共政策大学院M2・K.Yさんによる)


この授業は人工知能と社会というテーマであることもあり、人工知能技術を「ミーム」として捉える受講者もいました。例えば、新領域創成科学科D2のH.Kさんは、工学系の研究室所属であるという立場からこの人工知能ブームを考察しています。H.Kさんによれば、ハードウェアからソフトウェアへの移り変わりという技術的要因、過大評価されがちなどに挙げられる環境要因という両面を提示することができ、分解したこれらを組み合わせることで未来への見通しがよくなるのではないかとのことです。


一方、工学系研究科M1のA.Mさんは、ミームが本来対象としている技術として人工知能技術は適切なのだろうかと疑問を持っています。その理由として、進化論的な淘汰は自然淘汰ですが、技術や商品といった人工的なものは意図的に淘汰されることもありうるし、特に閉鎖的な組織ほど現状維持に陥りやすく自然淘汰には繋がりにくいからだと書いています。


新しい技術の社会的影響について考察する際、既存のよく知られた概念や道具立てを用いることは、考察の指針が立っていないときにきわめて有用です。しかしながら、今回のように、当該の概念を応用することが果たして適切なのかということについては慎重に検討しなければなりません。その結果、既存の概念によって新しい技術をうまく理解することもあるでしょうし、むしろ既存の枠組みの方が新しい技術によって拡張されることもあるかもしれません。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

7月05日 米村滋人(法学政治学研究科 教授)「AI医療機器の活用の可能性と法的課題」

第11回目の講義は米村先生にご担当いただきました。医療に関する法は、事前の行政的規制を中心とする医療行政法と、事後の司法的規制を中心とする医療行為法の2つに分けることができます。また、現在の医療分野におけるAIはおよそ医療従事者向けと患者・介護者向けという2つのタイプに分類できます。


医療従事者向けAIには技術支援型AIと判断支援型AIが挙げられ、どちらの開発も進展が著しく、将来的には医師よりも精度が高いプログラムを生み出しうるとも言われますが、後者の開発には実際の医療情報の大規模解析が必要であり、現在は、個人情報の保護やカルテ情報の電子化レベルが低いなどの理由で、大規模な医療情報の収集に困難があります。例えば、画像診断プログラムを使った診断支援プログラムは、画像の収集やデータベース化の進展が遅いため、未だ十分な精度のプログラムが開発できておらず、見落としや誤診もしばしばあります。介護向けAIの例としてはHALが挙げられ、すでに介護施設で実用化され、業務負担の軽減に繋がっています。


現在のAI医療機器に関する法的問題は、医療現場にAIが介入した場合、民事上の責任を誰に負担させるかという問題です。AIの判断に関連して、開発者・製造者・利用者に過失があったかどうかが重要なポイントです。また、製造物責任法に基づいて、設計上の欠陥や指示・警告上の欠陥があれば、製造者の責任が問われることもあります。(要約は公共政策大学院M2・K.Yさんによる)


医療的判断をAIに任せる場合、やはり責任をどう捉えるかということが争点になります。利用者としての医師の責任、そしてAIの開発者としての企業の責任です。責任にはブラックボックス性が常について回ります。


具体的には、学際情報学府D1のA.Uさんはこのブラックボックス性について、まず医療機器の判断支援のアルゴリズムがブラックボックス化し、その判断根拠・精度に再現可能性がなくなるとき、医師はどのようにそれを信頼できるかという疑問を述べています。診断結果はバイアスやノイズによって影響されうる結果を、必ずしも医師が正しく理解・判断できるとは限りません。さらに確率的な信頼性が人間を上回るとき、人間の医師の判断とどちらを優先すべきなのでしょうか。社会が確率論的な合理性よりも、倫理観や文化的な価値基準を優先して行うことも有り得そうです。


公共政策大学院M1・A.Hさんは、一方で製造者側の責任に注目しています。製造物責任の観点を導入するならば、開発者側からすると開発のインセンティブは下がりうるのですが、消費者側からすると機器が原因で損害を被ったならば企業の責任を追求したいと考えるのが当然です。開発者の負担とならないように製造販売企業が責任を引き受けることが必要でしょうが、結果としてリスク管理費用が増加することになり、大企業以外には販売が不可能になってしまう懸念が生じます。


責任と一口に言っても、かなり多様な文脈が存在します。今回取り上げられた医療は文字通り致命的になりやすく、それだけに人間の医師の場合にも責任問題がシビアに問われる分野です。法的には、人間には独立の主体として自身の自由意思による行動の責任を負担させることができます。しかし、AIのように機械でありしかも判断を行う場合、誰が何を根拠に責任を負担すべきことになるのか、極めて困難な判断を迫られることになります。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)

7月12日 江間有沙(総合文化研究科/政策ビジョンセンター 特任講師)「人工知能社会の歩き方」

最後の授業は、江間先生にご担当いただきました。現在、目指すべき社会像や人材の議論としてSociety 5.0がよく取り上げられ、AI・データ人材の育成の必要性が繰り返し述べられています。その際、重要な概念として、技術と社会の相互作用があります。技術が社会を変えるという側面ばかりがクローズアップされがちですが、技術は法や倫理、社会、経済などとの相互作用で決定づけられていくものです。例えば、頻繁に議論されるものとして、AIが労働や雇用を奪うのかという問題がありますが、短期的には置き換えられるのは仕事ではなくタスクだと言われます。AI・ロボットは手段の一つに過ぎないですから、その際重要となるのは、どのタスクをなぜ置き換えたいのか?という視点です。技術を使ってどのような社会にしていきたいかということを判断するには、技術の仕組みを学ぶだけでは不十分です。


AI・ロボットの普及が進む社会において、多くの点が考慮されるべきですが、その一つに公平性があります。Want nots (技術を使いたくない人や拒否する人)やhave nots(技術を使いたくても使えない人や排除された人)に対して不公平が起きないような仕組みづくりが必要です。これ自体は今までの議論の延長線上にありますが、技術の発展によってさらなる複雑化・可視化が予想されます。


最後に、AI・ロボットが特定の分野でどのように応用・活用が可能かについて話されました。その例として、ホテルにおけるサービス、予測警備、畜産・酪農が挙げられました。それを踏まえ先生は、私たち学生に、自分の価値観を信じること、一方で当たり前を疑うこと、そして橋渡しのできる人物になることが大切だと結論付けられました。(要約は公共政策大学院M1・K.Nさんによる)


講義後のディスカッションは、「人工知能と社会」といったテーマで、国の研究費ではなく民間財団の研究プロジェクトの公募を作る/公募に申請するならば、どのようなテーマにするかという題材でした。


公共政策大学院M1のD.Iさんは、財団という団体の性格からして、営利を目的とする企業が手をつけないようなプロジェクトを掬うことを考えました。具体的には教育です。教育は成果が出るまで長い時間がかかりますが、これからの未来をつくる非常に重要な活動です。彼は、GAFAを超えるような企業を生み、これからの世界をリードできる人材を育てるためにも教材や教育への傾注は大切であるとしています。


公共政策大学院M2のK.Yさんは、注目されがちな政府側ではなく、かつ企業でもない民間のアクターに注目しています。民間財団・社団法人、研究者や研究・教育機関、NPO・NGO、金融機関・投資家などです。民間の団体は必然的に、数が多く多様となり、連携のない動きを取りがちです。人工知能技術の分野は重要な分野なのに、未だ他の国際問題、環境問題や経済の問題と比べるとまだまだ国際協力が立ち遅れているように見受けられます。これらの協力を導けるようなシステムと人材が必要です。


人工知能と社会という題材の研究はまだまだ新しい分野です。この技術が生活のあらゆる面に浸透する可能性を、あるいはそれを脅威として、多数の人が感じています。技術と生活の関係性や問題点を紐解くために、多様な分野の知を共有し、協力を取り結ぶことが求められています。


(編集/文責:ティーチングアシスタント 前田春香、水上拓哉)