人工知能(AI)サービスや製品の社会実装が拡大する一方で、AIの信頼性や透明性に関する問題が課題となっており、各国・企業においてガイドライン策定やツール開発などの様々なアプローチが開発されています。しかし多くのケースにおいて、下記のような課題から各アプローチを十分に実践できていない状況があります。
AIサービス毎に重要なリスクが異なる
AIモデルだけではリスクを十分に対応し続けることができない可能性がある
ユーザーを含む人間がリスク要因になる可能性がある
これらの課題を解決するためには、AIサービスや製品にとって重要なリスクは何なのか、誰がそのリスクに責任を持つのか、どのような評価指標やツールを使っていくのかを考えるためのフレームワークが必要です。
本研究会は、東京大学とデロイトトーマツリスクサービス株式会社の共同研究プロジェクトとして運営され、東京大学の研究グループが開発したリスクチェーンモデル(RCModel)などを用いて、具体的な事例の調査・研究を実施します。
昨今の人工知能(AI)の活用により、社会はますます便利になっています。それに伴ってAI開発、利活用や運用に関する人材の育成が推進されているほか、国内外の多くの企業がAIに対して巨額の投資をしています。
一方で、AIは公平性、説明可能性や透明性の欠如など様々な問題も引き起こしています。責任の所在があいまいであることも多く、無意識のバイアス等の「落とし穴」が放置されたままであるケースも散見されます。特に複雑で長いサプライチェーンは、組織間あるいは社内でのコミュニケーションを難しくするため、AIがもたらす問題への対応が見て見ぬふりをされてしまうこともあります。しかしAIがもたらす課題に意識的、あるいは無意識的に気が付かずに開発や運用を続けることは、AIを活用する社会全体のリスクにつながります。
本研究会ではAIの開発、利活用や運用にあたって見過ごしてされたり、考慮を先延ばしにされたりしがちな「AIの死角や盲点」にDEI(Diversity, Equity & Inclusion:多様性、公平性と包摂)という観点から注目します。日本の社会がより健やかにAIを活用していくための多様な視点に気づき、具体的な解決策を政策提言などで社会に発信していきます。
医療現場での課題解決に向け様々なテクノロジーが導入される中、AIやITの臨床現場での実装も進みつつあります。現場での課題を熟知する医師による開発や実装、医師と協働する開発者ら、社会実装に向けた仕組みをつくる政策関与者も増えてきました。
本研究会では、セミナー開催等を通して医師や開発者、政策関与者らが、それぞれの経験や知見を基に、開発・臨床現場で役立つ情報を共有し、関係者同士の交流をはかり、医療現場での新しいテクノロジーの実装を進めていくことを目的とします。セミナーは東京大学未来ビジョン研究センター、慶應義塾大学AIメディカルセンター、エムスリー株式会社m3.com編集部が主催して開催します。本セミナーはJSPS科研費JP17KT0157「ビッグデータに基づいた医用人工知能の実装に向けた多面的検討」、JST-RISTEX JPMJRX16H2「多様な価値への気づきを支援するシステムとその研究体制の構築」と公益財団法人トヨタ財団D18-ST-0008「人工知能の倫理・ガバナンスに関するプラットフォーム形成」の研究の一環として実施するものです。
ある人にまつわる情報をデータとして記録・活用することは、現在・将来において、個人や社会の根幹を支える知的資源になります。他方、パーソナル・データが大量に収集・蓄積・分析される現在において、社会がすべてを「記憶」することの課題も生じています。
本研究会は、人格形成や社会的・歴史的認識を左右する「記憶と忘却」の基盤に関するガバナンスを検討し、建設的な形で実務に還元することを目的としています。いわゆる「忘れられる権利」など、パーソナル・データの取扱いをめぐって個人の利益と公共の利益という2つの利益が衝突しうる場面において、(a)両者を適切に調整する規範と、(b)規範を実現する仕組みについて、ガバナンス案として提言することを目指しています。