大まかな研究の関心・背景

私たちの研究室では、機械学習やAIを現実社会でより信頼して安全に使えるようにすることを目標に研究しています。


近年、AIは医療診断、金融リスク管理、自動運転、行政判断支援などの高い信頼性が求められる場面に加え、文章・画像・コードを生成する生成AIとしても急速に広がっています。こうした応用では、単に予測精度が高いだけでなくAIの出力がどの程度信頼できるかを定量的に評価し保証することが社会的に極めて重要です。 私たちはこうしたAIの利用形態を大きく二つに分けて研究を行っています。 

第一に,機械学習モデルが出力する予測確率を用いた意思決定支援です。医療診断や金融リスク管理などの場面では,「ある患者が疾患を有する確率」や「ある取引が不正である確率」といった予測確率を基に,人間がリスクを考慮した意思決定を行います。このとき,AIが出力する予測確率は意思決定の重要な根拠になります。

第二に,生成AIによるコンテンツ生成です。近年の生成モデルは,「どのような条件の下でどのような成果物を生成するか」という指示を与えることで,文章,画像,コードなど多様なコンテンツを生成できるようになっています。こうした生成AIは,入力条件に対する条件付き確率分布を学習することで実現されており,生成物はその確率モデルに基づいてサンプリングされた結果として理解することができます。

このように意思決定支援と生成AIは一見異なる問題に見えますが,いずれも確率モデルの信頼性と不確実性の理解という共通の課題を持っています。すなわち,AIが出力する確率がどの程度妥当であるか,モデル内部の不確実性(潜在変数)がどのように振る舞うか,生成されるサンプルがどのような統計的性質を持つかを理論的に理解することが,AIを社会で安全に利用するために不可欠であると考えています。


研究テーマの紹介

本研究室では、具体的に次のようなテーマに取り組んでいます。

これらに共通する関心は、AIの「予測の正しさ」だけでなく、その予測や生成がどの程度確からしいのかを理論的に理解することにあります。従来の統計的学習理論は、主に予測誤差や損失の汎化性能を対象として発展してきましたが、私たちはそこに不確実性の定量化確率出力の信頼性を取り込み、より実応用に近い視点から学習理論を発展させることを目指しています。

そのための主な道具として、PACベイズ理論情報理論を用いています。特に情報理論を用いて、データ・予測・潜在変数の関係を相互情報量や条件付き相互情報量によって記述することで、予測精度、汎化誤差、不確実性、確率予測の信頼性を統一的に解析する枠組みを研究しています。これにより、学習データがモデルの予測や生成の振る舞いにどのように影響するのかをアルゴリズム依存的、非漸近的に評価し、深層モデルや潜在変数モデルの内部構造まで含めて理解することを目指しています。

また、確率予測の信頼性を測る Calibration Error の理論解析や、正解ラベルが十分に得られない状況での信頼性評価、さらに生成モデルにおいて潜在変数がどの程度の情報を保持・圧縮しているかの解析などにも取り組んでいます。こうした研究を通じて、高精度であるだけでなく、信頼性や不確実性まで含めて説明可能なAIの基盤を築くことを目指しています。