Research

不確実性定量化(Uncertainty Quantification

確率的事象の不確実性を定量評価することは、合理的な意思決定を行ったり、システムを最適化する上で重要な役割を果たします。ここで、対象とする何らかの確率的事象について、確率的要素を含む形でモデル化できたとしましょう。順方向の評価では、「入力となる確率的要素に対して、その確率分布に従うランダムなサンプルを生成し、モデルに代入する」という操作を繰り返すことによって、出力の不確実性を評価できます。これがいわゆるモンテカルロ法と呼ばれる方法です。合田個人あるいは研究室としては、主にこの方法自体についての研究を行っていますが(次項を参照)、ここでは「そのようにして評価される不確実性をどう活かすか?」という応用的テーマを以下に列挙します

  • 大域的感度分析(Global sensitivity analysis): 入力となる確率変数が多数ある場合に、どの変数が出力の不確実性に大きく寄与しているのか/いないのかを定量的に評価するのが大域的感度分析と呼ばれる方法です。しかし、「出力の不確実性」をどういう統計量で測るのか(中心的には分散が用いられています)、あるいは各入力変数あるいは集合の寄与度をどう定義するか、定義された寄与度をどう効率的に推定するか、といった点が当該分野の関心事です。

  • 情報の期待価値(Expected value of information): 不確実性下の意思決定問題においては、その不確実性が減らせれば減らせるほど良いと考えることは自然ですが、「不確実性を減らすためにデータを得る」という行為自体に膨大なコストがかかる場面があります(例えば、資源開発分野における探査や医療分野における臨床試験など)。このような状況では、「これから得ようとしているデータの価値を定量化し、それを最大化するようなデータの取り方を探索」することが重要になります。情報の期待価値は定量的尺度の一つであり、どう効率的に推定し、データの取り方を最適化するか、に興味があります。

  • ベイズ実験計画法Bayesian experimental design): 如何にして効率的な実験計画を組むかを考えるのが実験計画法ですが、特に、実験によってデータが得られた(と見做した)時点での、ベイズの法則から導かれる事後分布に着目して、事前分布からの期待される"差異"によって実験計画の良さを測るのがベイズ実験計画法です。この差異としては期待情報獲得量(Expacted information gain)を用いられることが多いですが、この量についての効率的な推定量を構成したり、(確率的)勾配降下法との組み合わせによって最適な実験計画を探索する、といった観点についての研究を進めています。

モンテカルロ法Monte Carlo Methods

先述の通り、通常のモンテカルロ法(あるいはモンテカルロシミュレーション)は「ランダムな試行を繰り返すことによって、統計量を見積もる」方法の総称であり、その汎用性の高さから様々な分野で用いられています。入力変数の多さに依存しない収束性を有する点もモンテカルロ法の強みに挙げられますが、必ずしも真値への収束が速いとは言えません。また、情報の期待価値や期待情報獲得量といった「(ある変数について)期待値の(別の変数についての)期待値」として与えられる量を推定する際に、それぞれの期待値を単にモンテカルロ法で推定した場合には、更にその収束性が悪化してしまうことが知られています。これらの課題を克服するための手段として、より先端的なモンテカルロ法の理論や応用について研究を行っています。

  • 準モンテカルロ法(Quasi-Monte Carlo methods: QMC): モンテカルロ法の鍵である"ランダム性"の代わりに"超一様性"を考え、より決定的な試行の繰り返しによって統計量を推定するのがQMCです。モンテカルロ法の汎用性の高さは収束性を犠牲にすることで成り立っていると考えることもでき、反対にQMCでは汎用性を犠牲にすることによって収束性を(大幅に)改善します。より具体的には、対象とする(モンテカルロ法で扱えるものより狭い)関数クラスを考え、そのクラスに対してより収束性を達成するような点列あるいは点集合の構成を考えます。最近では、様々な関数クラスに対してよい収束性を有する"普遍的"なQMCについて興味があり、研究を行っています。

  • マルチレベルモンテカルロ法(Multilevel Monte Carlo methods: MLMC): モンテカルロシミュレーションにおいてモデル自体に離散化などの近似が伴う場面は多々あります(例えば、微分方程式系に基づく物理シミュレーションなど)。このような状況では、モンテカルロ法による推定誤差だけでなく、モデル近似から来る誤差の2つを考える必要が出ます。MLMCではモデルの近似列(離散化誤差の大きいものから小さいものまでの階層)を考え、近似モデル間を適切にカップリングすることによって、「推定誤差+モデル近似誤差」全体を大幅に減らすことを目指します。特にこのアイデアを「(ある変数について)期待値の(別の変数についての)期待値」の推定に応用する研究を進めています。

  • その他のモンテカルロ法(Other types of Monte Carlo methods): QMCやMLMCに限らず、モンテカルロ法全般についても研究テーマとして扱っています。例えば、確率変数ベクトルと行列の積が計算時間の多くを占めるという状況に対して、敢えてランダムサンプルを使いまわし(ある種の脱乱択化)、高速フーリエ変換を使って計算時間を減らすToeplitz Monte Carlo法なるアルゴリズムを提案しています。問題の性質を上手く見定めることによって、通常のモンテカルロ法よりも効率的な方法がないかを考えています。

他分野への応用(Applications to Other Fields

QMCやMLMCの研究から得られた知見を他分野に応用することにも興味があります。実際の例として、情報の期待価値やベイズ実験計画法への応用に動機付けられた研究・その成果について、同様の問題の構造が他分野(具体的には、変分ベイズ法や変分オートエンコーダと強く関連する、対数周辺尤度の計算)にも現れることを見出し、我々の提案したMLMC推定量を応用する、という研究をしたことがあり、引き続きこの方向性での深化を進めているところです。また、QMCは高次元(入力変数の数が多い状況)に有効ですが、QMCの研究で使った技術を1次元数値積分法に応用することで新しい知見をもたらせないか、ということも考えています。