2/19
13:00 - 13:10:諸注意
13:10 - 14:00:自己紹介
14:00 - 14:40:中田 芳史さん (京都大学)「Unitary designs in quantum information theory」
15:00 - 15:40:山崎 隼汰さん (東京大学)「Generalized Quantum Stein's Lemma」
16:00 - 16:40:園田 翔さん (理研AIP・深層学習理論チーム)「Theorem Proving by Lean + LLM」
16:40 - 17:10:休憩/Coffee break
17:10 - 18:50:ポスターセッション/Poster
19:00 - 20:00:夕食/Dinner
20:00 - 21:00:ディスカッション/Discussion
2/20
9:00 - 9:40:池渕 未来さん (京都大学)「Homological study of equational logic」
9:40 - 10:00:休憩/Coffee break
10:00 - 10:40:加藤 本子さん (琉球大学)「円の自己同相写像のなす有限生成無限単純群について」
11:00 - 11:40:今泉 允聡さん (東京大学/理研AIP・高次元因果解析チーム)「現代的高次元統計:構造モデル・ニューラルネットワーク・普遍性」
12:00 - 15:00:昼食&議論/Lunch & Discussion
15:00 - 15:40:Thomas Möllenhoffさん (理研AIP・近似ベイズ推論チーム)「Extending and Improving Federated ADMM via Variational Bayes」
16:00 - 16:30:休憩/Coffee break
16:30 - 17:10:Hugo Monzón Maldonadoさん (理研AIP・近似ベイズ推論チーム)「How to Weight Multitask Finetuning? Fast Previews via Bayesian Model-Merging」
17:30- 18:10: 西田 圭吾さん (理研BDR・計算分子設計研究チーム)「乱舞(LUMB): Lie-Group Update via Multiplicative Bayes for Deep Learning」
18:10- 19:00:休憩&議論/Coffee break & Discussion
19:00 - 20:00:夕食/Dinner
20:00 - 21:00:ポスターセッション/Poster
2/21
9:00 - 9:40:高津 飛鳥さん (都立大学)「定義:エントロピーとは.../ Definition:Entorpy is ...」
10:00 - 10:40:松原 崇さん (北海道大学)「幾何学的力学に学んだ深層学習モデリング」
11:00 - 11:30:ディスカッション/Discussion
中田 芳史さん (京都大学)「Unitary designs in quantum information theory」
概要:A unitary t-design, defined as a random unitary having the same t-th moment of a normalized Haar measure on the unitary group, recently finds many applications in quantum information science. A crucial key towards the realization of such applications lies in quantum algorithms that can efficiently generate a unitary t-design. In this talk, we overview various quantum algorithms for generating unitary t-designs and explain an approach based on representation theory of the unitary group, aiming to share problems to be resolved for further developments.
山崎 隼汰さん (東京大学)「Generalized Quantum Stein's Lemma」
概要:The second law of thermodynamics is the cornerstone of physics, characterizing the convertibility between thermodynamic states through a single function, entropy. Given the universal applicability of thermodynamics, a fundamental question in quantum information theory is whether an analogous second law can be formulated to characterize the convertibility of resources for quantum information processing by a single function. In 2008, a promising formulation was proposed, linking resource convertibility to the optimal performance of a variant of the quantum version of hypothesis testing. Central to this formulation was the generalized quantum Stein's lemma, which aimed to characterize this optimal performance by a measure of quantum resources, the regularized relative entropy of resource. If proven valid, the generalized quantum Stein's lemma would lead to the second law for quantum resources, with the regularized relative entropy of resource taking the role of entropy in thermodynamics. However, in 2023, a logical gap was found in the original proof of this lemma, casting doubt on the possibility of such a formulation of the second law. In this work, we address this problem by developing alternative techniques to successfully prove the generalized quantum Stein's lemma under a smaller set of assumptions than the original analysis. Based on our proof, we reestablish and extend the second law of quantum resource theories, applicable to both static resources of quantum states and a fundamental class of dynamical resources represented by classical-quantum (CQ) channels. These results resolve the fundamental problem of bridging the analogy between thermodynamics and quantum information theory. The talk will be based on the following preprint. https://arxiv.org/abs/2408.02722
園田 翔さん (理研AIP・深層学習理論チーム)「Theorem Proving by Lean + LLM」
概要:型による証明について紹介します.時間があればLLMにLeanを使わせる研究についても紹介します.
池渕 未来さん (京都大学)「Homological study of equational logic」
概要:等式論理の理論のホモロジーを定義し,それが等式論理的な問題に応用されることを見る.具体的には,ある等式理論を表示するのに必要な等式の個数がベッチ数を用いて下から抑えられることを示し,例として群の公理系が最低2個の等式を必要とすることを見る.
加藤 本子さん (琉球大学)「円の自己同相写像のなす有限生成無限単純群について」
概要:トンプソン群Tは有限表示無限単純群の例として有名である. Tは円の向きを保つ自己同相写像のなす群とみなすことができ, その有限生成系を写像の形で具体的に表すことができる. この講演では, トンプソン群Tのある種の一般化について話す. それらの群は, 単位円の向きを保つ自己同相写像の有限個の組であって, 単位円への作用の様子がトンプソン群Tの生成系に似ているものによって生成される. これらの群が有限表示無限単純群かはまだわからないが, それに似た性質がある. 例えば, 交換子部分群が有限生成単純群であることがわかる. この研究は, Kim, KoberdaとLodha によるトンプソン群Fの研究の「T版」を作りたいと思って行っている.
今泉 允聡さん (東京大学/理研AIP・高次元因果解析チーム)「現代的高次元統計:構造モデル・ニューラルネットワーク・普遍性」
概要:大規模ニューラルネットワークに代表される過剰パラメータモデルのための高次元統計のトピックを紹介する。従来の高次元統計は余剰次元を削減する方法論を発展させてきたが、近年の大自由度モデルは明示的な余剰次元を持たないため、近年は異なる方法論が発展している。本講演では、この方法論をより実践的な統計モデルに応用した研究成果を紹介する。
Thomas Möllenhoffさん (理研AIP・近似ベイズ推論チーム)「Extending and Improving Federated ADMM via Variational Bayes」
概要:We derive federated ADMM as a special case of a more general distributed Bayesian algorithm where ADMM is seen as updating the mean of a simple Gaussian posterior. The Bayesian scheme generalizes the procedure to a generic exponential-family posterior and enables us to exploit the posterior uncertainty and geometry.
Hugo Monzón Maldonadoさん (理研AIP・近似ベイズ推論チーム)「How to Weight Multitask Finetuning? Fast Previews via Bayesian Model-Merging」
概要:When finetuning multiple tasks altogether, it is important to carefully weigh them to get a good performance, but searching for good weights can be difficult and costly. Here, we propose to aid the search with fast previews to quickly get a rough idea of different reweighting options. We use model merging to create previews by simply reusing and averaging parameters of models trained on each task separately (no retraining required). To improve the quality of previews, we propose a Bayesian approach to design new merging strategies by using more flexible posteriors. We validate our findings on vision and natural-language transformers. Our work shows the benefits of model merging via Bayes to improve multitask finetuning.
西田 圭吾さん (理研BDR・計算分子設計研究チーム)「乱舞(LUMB): Lie-Group Update via Multiplicative Bayes for Deep Learning」
概要:理研AIPの数理科学チームと近似ベイズ推論チームの共同研究成果であるThe Lie-Group Bayesian Learning Rule (AISTATS, 2023)の発展について発表します。Lie-Group BLRでは重みを対数正規分布として扱う場合、重みのノイズや更新が乗法によって表現されます。このような乗法による重みの変動は低ビット演算ハードウェアと相性が良い可能性が高く、次世代のAIハードウェアに適した深層学習向けオプティマイザとしての開発進捗について紹介します。
高津 飛鳥さん (都立大学)「定義:エントロピーとは.../ Definition:Entorpy is ...」
概要:数学の議論の出発点は定義の確認だと思うのですが、数学でよく現れるエントロピーの定義は曖昧な気がします。そこでエントロピーの定義をKhinchin的に考えてみましょう。/Although the starting point of a discussion in mathematics is to confirm definitions, and we may encounter entropy so often in the math world, the definition of entropy is somewhat ambiguous. Let's deepen the definition of Entropy according to Khinchin.
松原 崇さん (北海道大学)「幾何学的力学に学んだ深層学習モデリング」
概要:深層学習が注目されるようになった発端である畳み込みニューラルネットワークは,平行移動不変性という幾何学的性質を持つ.同様に,何らかの幾何学的性質を深層学習に与えることができれば,データから力学系をモデル化する際に,既知の物理法則や内部の連成構造を最初から与えたり,あるいは発見したりすることが可能になる.本発表では,そのような幾何学的力学に基づく深層学習の設計を中心し,計算機シミュレーションのための深層学習について幅広く紹介する.
田中 章詞さん「Towards quantum evidence lower bound」
石川 勲さん「Finite dimensional approximation of push forwards on locally analytic functionals」
KIRAL Eren Mehmetさん「Probing your model」
概要:We ask questions to a trained model where the answers are in the form of data points. Our idea is using Bayesian learning on the data space for query functions G(x) which come from integrating out the parameter dependece against a trained parameter distribution.
竹内 裕隆さん「連続パーコレーションについて」
概要:浸透現象を定式化した連続モデルである連続パーコレーション(Boolean modelとも言う)について紹介します。
橋本 隼也さん「Global solutions of stochastic nonlinear Schrödinger system with quadratic interaction」
概要:乗法的ノイズによって駆動される2次の非線形項をもつ確率シュレディンガー方程式系の解の初期値問題に対する時間大域存在の結果について紹介する. 一般に確率シュレディンガー方程式は質量とエネルギーが時間に関して保存せず, 我々の状況においてもそれらは保存されない. 証明には, 確率方程式をホワイトノイズの現れないランダム方程式に変換するリスケーリングによる方法を用いる.
吉田 直生さん「訓練損失の大域解集合上における汎化誤差の理論的解析」
概要:本研究では,機械学習モデルの大域解集合上における汎化誤差を理論的に解析し,パラメータ数に依存しないsample complexityを導出した.証明のテクニックとして,代数幾何における環論的な次元解析を利用した.
奥土 康太さん「Benign Overfitting under Learning Rate Conditions for $\alpha$ Sub-exponential Imbalanced Classification Problem」
概要:This study explores the phenomenon of benign overfitting in binary classification under heavy-tailed ($\alpha$-sub-exponential) input distributions, extending classical sub-Gaussian analyses. We analyze generalization error bounds for linear classifiers trained via gradient descent on unregularized logistic loss and establish that benign overfitting persists even when inputs exhibit heavy tails. Additionally, we derive a novel upper bound for the learning rate, revealing its dependence on tail heaviness—an aspect previously unexplored. While we primarily focus on heavy-tailed settings, we also confirm that our theoretical framework remains valid in imbalanced classification scenarios. Through theoretical analysis and numerical experiments, we demonstrate that, despite the challenges posed by heavy-tailed distributions, high-dimensional feature spaces can still enable robust generalization. These results provide new insights into the role of tail behavior in modern classification problems.
仲北 祥悟さん「ロジスティック回帰における最尤推定の次元非依存収束」
概要:Vapnik–Chervonenkis次元に代表されるように、経験リスク最小化問題の固有次元による特徴づけは古典的な議論である。本研究では、ロジスティック回帰においてこの固有次元を入力変数の共分散行列のトレースを最大固有値で除したもので定め、経験リスク最小化問題の性質を調べる。特にこの固有次元のデータ数に対する比が0に収束するならば、一様大数の法則が成り立つことを示す。これは、Rademacher複雑度とMcDiarmidの不等式による古典的評価を改善する。
池田 正弘さん「熱やページランクに基づくハイパーグラフのクラスタリング」
概要:We apply theory of heat equations for nonlinear operators to a community detection problem for hypergraphs.
谷口 晃一さん「Malthusian Toner-Tu モデルの安定性解析」
概要:Malthusian Toner-Tu モデルとは、自己駆動する個体の出生や死亡が存在するアクティブマター系を記述するための理論モデルである。本発表では、Malthusian Toner-Tu モデルにおける一様な秩序状態の安定性について、最近の研究内容を紹介する。
西宮 優作さん「Complexity and structure of n-turn pushdown automata and context-free languages via logic and algebra of parsing」
概要:I outline my 2025 research plan to build upon our recent discovery of non-commutative Linear Logic variants with \textsf{REG}, \textsf{LCFL} and \textsf{CFL} proof complexities, a result which provides us with a syntactic-logical counterpart to the subclasses of context-free languages. I hope to explore and connect known algebraic and categorical characterisation of the context-free languages, their corresponding models of computation: $n-$turn pushdown automata for $n \in \mathbb{N}$, and proof theory, to obtain a richer structural understanding of the complexity classes and non-commutative Linear Logic.
小林 彦蔵さん 「左不変統計構造のモジュライ空間と双対平坦性および共役対称性」
概要:情報幾何学の文脈において, リー群上の左不変統計構造の概念が古畑–井ノ口–小林 [Inf. Geom. (2021)] によって定義されている. 我々は, 左不変統計構造のモジュライ空間を定式化し, いくつかの具体的なリー群に対して, 双対平坦および共役対称な左不変統計構造の分類を行った. 本ポスター発表では, 分類結果とそこから得られた系について紹介する. 特に Takano Gaussian space 上の Amari-Chentsov $\alpha$-接続が, ある群作用に関する不変性と Fisher 計量との共役対称性によって特徴付けられる.
藤谷 恭明さん「Transport distance between Grover walks on graphs and coarse Ricci curvature」
概要:We define a transport distance between Grover walks and its associated Ricci curvature. We show that they have some properties similar to those of the coarse Ricci curvature induced by random walks.
山田 泰輝さん「リザバー計算を用いた力学系の学習」
概要:リザバー計算 (RC) を用いた力学系の学習アルゴリズムについて概説する。特に、RCの内部で学習アルゴリズムを実現するための定式化を紹介する。さらに、学習結果の評価に向けたデータ駆動的手法の活用の展望と、それに伴う課題について議論する。
山口 夏穂里さん「On statistics which are almost sufficient from the viewpoint of the Fisher metrics」
概要:古典的な十分統計量を,2017年にAy-Jost-Lé-SchwachhöferらがFisher 計量を用いて情報幾何学の分野で再定義した. 本ポスター発表では,Ay-Jost-Lé-Schwachhöferらが再定義した十分統計量を定量的に一般化し,その特徴づけを行う.
八幡 圭嗣さん「Non-existence of the dual measure of NEF-GHS」
概要:NEF(自然指数型分布族)は単一の測度から生成され、NEF に対応してヘッセ多様体が定まるが、その双対ヘッセ多様体が別のNEFから来るかどうかは非自明な問題である。Letac, 2022 はこの双対的なNEFを生成する測度を dual measure と呼んだ。本研究では、Morris, 1982 で導入された基本的なNEFの6系列について dual measure の存在問題を論じ、このうち NEF-GHS だけが dual measure を持たないことを示す。
紅村 冬大さん「Weyl groups of groupoid C*-algebras」
概要:力学系と作用素環の関係について,グラフC*環を例に説明します.
永津 愛彩さん「Weingarten calculus for centered random permutation matrices」
概要:The Weingarten calculus is a powerful method used in random matrix theory to compute the expectation of a product of entries of Haar-distributed random matrices, with which we can obtain the integration of polynomial functions over compact matrix groups, and the theory for the unitary group U(N) or the orthogonal group O(N) is well known. We present a new formulation of the Weingarten calculus for centered random permutation matrices obtained from the symmetric group S_N.
神谷 俊輔さん「Unsupervised Neuronal Matching with Spontaneous Neuronal Activity」
概要:To obtain deeper understandings of the brain, aligning similarly functioning neurons, or matching neurons, in different neural systems is becoming an important problem in neuroscience. Here we propose a neuronal matching framework that uses the spontaneous activity. The proposed method is based on an extension of Gromov-Wasserstein optimal transport (GWOT) (Memoli, 2011), which we named Gromov-Wasserstein optimal transport with multiple distance matrices (GWOT-MD). As a test of efficacy of the proposed approach, we show results of the application of the proposed framework to calcium imaging time series of spontaneous neuronal activities of Caenorhabditis elegans (C.elegans).
Eshant Englishさん「Conformalised Conditional Normalising Flows for Joint Prediction Regions in time series」
概要:Conformal Prediction offers a powerful framework for quantifying uncertainty in machine learning models, enabling the construction of prediction sets with finite-sample validity guarantees. While easily adaptable to non-probabilistic models, applying conformal prediction to probabilistic generative models, such as Normalising Flows is not straightforward. This work proposes a novel method to conformalise conditional normalising flows, specifically addressing the problem of obtaining prediction regions for multi-step time series forecasting. Our approach leverages the flexibility of normalising flows to generate potentially disjoint prediction regions, leading to improved predictive efficiency in the presence of potential multimodal predictive distributions.
会場の設備
プロジェクタ(スクリーン)
ピンマイク1つ
マイク3本(有線1本,無線2本)
ホワイトボード(1800x905)4台
ポスターボード 12枚(H180cm x W90cm)