Research

Preprint

T. Kitamura, T. Kozuno, M. Kato, Y. Ichihara, S. Nishimori, A. Sannai, S. Sonoda, W. Kumagai, Y. Matsuo, "A Policy Gradient Primal-Dual Algorithm for Constrained MDPs with Uniform PAC Guarantees", arXiv:2401.17780, (2024). (arXiv preprint)

R. Yamauchi, S. Sonoda, A. Sannai, W. Kumagai, "LPML: LLM-Prompting Markup Language for Mathematical Reasoning", arXiv:2309.13078, (2023). (arXiv preprint)

S. Sonoda, I. Ishikawa, M. Ikeda, "Ghosts in Neural Networks: Existence, Structure and Role of Infinite-Dimensional Null Space", arXiv:2106.04770, (2021). (arXiv preprint) (slide)

H.Yamasaki, S.Sonoda, "Exponential Error Convergence in Data Classification with Optimized Random Features: Acceleration by Quantum Machine Learning", arXiv:2106.09028, (2021). (arXiv preprint)

S.Sonoda, "Fast Approximation and Estimation Bounds of Kernel Quadrature for Infinitely Wide Models", arXiv:1902.00648, (2020). (arXiv preprint)

S.Sonoda, I.Ishikawa, M.Ikeda, K.Hagihara, Y.Sawano, T.Matsubara, N.Murata, "The global optimum of shallow neural network is attained by ridgelet transform", arXiv:1805.07517, (2018). (arXiv preprint)

Journal Paper and Conference Proceedings

S. Sonoda, I. Ishikawa, M. Ikeda, "A unified Fourier slice method to derive ridgelet transform for a variety of depth-2 neural networks", Journal of Statistical Planning and Inference, 233:106184, (2024). (pdf)

Y. Hashimoto, S. Sonoda, I. Ishikawa, A. Nitanda, T. Suzuki, "Koopman-Based Bound for Generalization: New Aspect of Neural Networks Regarding Nonlinear Noise Filtering", to appear in The Twelfth International Conference on Learning Representations, (2024). (openreview)

S. Sonoda, Y. Hashimoto, I. Ishikawa, M. Ikeda, "Deep Ridgelet Transform: Voice with Koopman Operator Proves Universality of Formal Deep Networks", to appear in Proceedings of NeurIPS 2023 Workshop on Symmetry and Geometry in Neural Representations, PMLR 228:xxx-xxx, (2023). (arXiv preprint)

S. Sonoda, H. Ishi, I. Ishikawa, M. Ikeda, "Joint Group Invariant Functions on Data-Parameter Domain Induce Universal Neural Networks", to appear in to appear in Proceedings of NeurIPS 2023 Workshop on Symmetry and Geometry in Neural Representations, PMLR 228:xxx-xxx, (2023). (arXiv preprint)

M. Li, S. Sonoda, F. Cao, Y. Wang, J. Liang, "How Powerful are Shallow Neural Networks with Bandlimited Random Weights?", Proceedings of the 40th International Conference on Machine Learning, PMLR 202:19960-19981, (2023). (pdf)

H. Yamasaki, S. Subramanian, S. Hayakawa, S. Sonoda, "Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks with Quantum Computation", Proceedings of the 40th International Conference on Machine Learning, PMLR 202:39008-39034, (2023). (pdf)

K. Watanabe, K. Sakamoto, R. Karakida, S. Sonoda, S. Amari, "Deep Learning in Random Neural Fields: Numerical Experiments via Neural Tangent Kernel", Neural Networks, 160:148-163, (2023). (pdf)

園田翔, "積分表現ニューラルネットとリッジレット変換", 応用数理, 33(1):4-13, (2023). (pdf)

S.Sonoda, I.Ishikawa, M.Ikeda, "Universality of Group Convolutional Neural Networks Based on Ridgelet Analysis on Groups", Advances in Neural Information Processing Systems, 35:38680-38694, (2022). (pdf)

S.Sonoda, I.Ishikawa, M.Ikeda, "Fully-Connected Network on Noncompact Symmetric Space and Ridgelet Transform based on Helgason-Fourier Analysis", Proceedings of the 39th International Conference on Machine Learning, PMLR 162:20405-20422, (2022). (pdf)

S.Massaroli, M.Poli, S.Sonoda, T.Suzuki, J.Park, A.Yamashita, H.Asama, "Differentiable Multiple Shooting Layers", Advances in Neural Information Processing Systems, 34:16532-16544, (2021). (pdf)

S.Sonoda, I.Ishikawa, M.Ikeda, "Ridge Regression with Over-Parametrized Two-Layer Networks Converge to Ridgelet Spectrum", Proceedings of the 24th International Conference on Artificial Intelligence and Statistics, PMLR 130:2674-2682, (2021). (pdf)

園田翔, "ニューラルネットの関数解析的方法と無限次元零空間", 日本統計学会誌, 50(2):285-316, (2021). (pdf)

H.Yamasaki, S.Subramanian, S.Sonoda, M.Koashi, "Learning with Optimized Random Features: Exponential Speedup by Quantum Machine Learning without Sparsity and Low-Rank Assumptions", Advances in Neural Information Processing Systems, 33:13674-13687, (2020). (pdf)

S.Sonoda, N.Murata, "Transport Analysis of Infinitely Deep Neural Network", Journal of Machine Learning Research, 20(2):1-52, (2019). (pdf)

S.Sonoda, K.Nakamura, Y.Kaneda, H.Hino, S.Akaho, N.Murata, E.Miyauchi, M.Kawasaki, "EEG Dipole Source Localization with Information Criteria for Multiple Particle Filters", Neural Networks, 108:68-82, (2018). (pdf)

S.Sonoda, N.Murata, "Neural Network with Unbounded Activation Functions is Universal Approximator", Applied and Computational Harmonic Analysis, 43(2):233-268, (2017). (pdf)(arXiv)

S.Sonoda, N.Murata, H.Hino, H.Kitada, M.Kano, "A Statistical Model for Predicting the Liquid Steel Temperature in Ladle and Tundish by Bootstrap Filter", ISIJ Int'l., 52(6):1086-1091, (2012). (pdf)

International Conference/Workshop

Y. Hashimoto, S. Sonoda, I. Ishikawa, A. Nitanda, T. Suzuki, "Koopman-Based Bound for Generalization: New Aspect of Neural Networks Regarding Nonlinear Noise Filtering", The Twelfth International Conference on Learning Representations (ICLR2024), Vienna, Austria, May 7-11, 2024. (poster, refereed)

S. Sonoda "Deep Ridgelet Transform: Harmonic Analysis for Deep Neural Network", RIKEN-IIT Joint Workshop on Machine Learning/AI, Tokyo, Japan, May 20-21, 2024

S. Sonoda, "Harmonic Analysis for Understanding Deep Neural Network", The Machine Learning Summer School in Okinawa 2024 (MLSS 2024), Okinawa, Japan, Mar 4-15, 2024.

S. Sonoda, Y. Hashimoto, I. Ishikawa, M. Ikeda, "Deep Ridgelet Transform: Voice with Koopman Operator Proves Universality of Formal Deep Networks", NeurIPS 2023 Workshop on Symmetry and Geometry in Neural Representations (NeurReps2023), New Orleans, Louisiana, USA, Dec 16, 2023. (poster, refereed)

S. Sonoda, H. Ishi, I. Ishikawa, M. Ikeda, "Joint Group Invariant Functions on Data-Parameter Domain Induce Universal Neural Networks", , NeurIPS 2023 Workshop on Symmetry and Geometry in Neural Representations (NeurReps2023), New Orleans, Louisiana, USA, Dec 16, 2023. (oral, refereed)

H. Yamasaki, S. Subramanian, S. Hayakawa, S. Sonoda, "Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks with Quantum Computation", 23rd Asian Quantum Information Science Conference (AQIS2023), Seoul, Korea, Aug 28 - Sep 1, 2023. (poster).

M. Li, S. Sonoda, F. Cao, Y. Wang, J. Liang, "How Powerful are Shallow Neural Networks with Bandlimited Random Weights?", Fortieth International Conference on Machine Learning (ICML2023), Honolulu, Hawaii, USA, July 23-29, 2023. (poster, refereed). (poster) (slide for v1)

H. Yamasaki, S. Subramanian, S. Hayakawa, S. Sonoda, "Quantum Ridgelet Transform: Winning Lottery Ticket of Neural Networks with Quantum Computation", Fortieth International Conference on Machine Learning (ICML2023), Honolulu, Hawaii, USA, July 23-29, 2023. (poster, refereed).

R. Yamauchi, S. Sonoda, A. Sannai, W. Kumagai, "Markup Language for Mathematical Reasoning with LLMs", Eighth Conference on Artificial Intelligence and Theorem Proving (AITP2023), Aussois, France, September 3-8, 2023. (oral, refereed).

R. Yamauchi, S. Sonoda, A. Sannai, W. Kumagai, "LPML: LLM-Prompting Markup Language for Mathematical Reasoning", Seventh International Workshop on Symbolic-Neural Learning (SNL2023), Tokyo, Japan, June 28-29, 2023. (poster, refereed).

S.Sonoda, I.Ishikawa, M.Ikeda, "Universality of Group Convolutional Neural Networks Based on Ridgelet Analysis on Groups", The 36th Conference on Neural Information Processing Systems (NeurIPS2022), New Orleans, Louisiana, USA, Nov 28 - Dec 9, 2022. (poster, refereed).

S.Sonoda, I.Ishikawa, M.Ikeda, "Fully-Connected Network on Noncompact Symmetric Space and Ridgelet Transform based on Helgason-Fourier Analysis", The 39th International Conference on Machine Learning (ICML2022), Baltimore, Maryland, USA, July 17-23, 2022. (short spotlight, poster, refereed) (long version of slide)

H. Yamasaki, S. Subramanian, S. Sonoda, M. Koashi, "Quantum Machine Learning with Optimized Random Features: Applications of Exponential Speedup without Sparsity and Low-Rankness Assumptions", The 17th Conference on the Theory of Quantum Computation, Communication and Cryptography (TQC2022), The University of Illinois at Urbana-Champaign, July 11-15, 2022. (poster, refereed)

S.Massaroli, M.Poli, S.Sonoda, T.Suzuki, J.Park, A.Yamashita, H.Asama, "Differentiable Multiple Shooting Layers", The 35th Conference on Neural Information Processing Systems (NeurIPS 2021), online, Dec 6-14, 2021. (poster, refereed)

S.Sonoda, H. Yamasaki, S. Subramanian, M. Koashi, "Quantum algorithm for sampling optimal random features", RQC-AIP Joint Seminar, online, Nov 30, 2021. (oral) (slide)

H. Yamasaki, S. Subramanian, S. Sonoda, M. Koashi, "Regression and Classification with Optimized Random Features: Applications of Exponential Speedup by Quantum Machine Learning without Sparsity and Low-Rankness Assumptions", Quantum Techniques in Machine Learning (QTML) 2021, online, Nov 8-12, 2021. (oral, refereed)

H. Yamasaki, S. Subramanian, S. Sonoda, M. Koashi, "Regression and Classification with Optimized Random Features: Applications of Exponential Speedup by Quantum Machine Learning without Sparsity and Low-Rankness Assumptions", 21th Asian Quantum Information Science Conference (AQIS2021), online, Sep 1-4, 2021. (oral, refereed)

S.Sonoda, I.Ishikawa, M.Ikeda, "Ridgelet transform on the matrix space", 13th International ISAAC Congress, online, Aug 2-6, 2021. (oral)

S.Sonoda, I.Ishikawa, M.Ikeda, "Ridge Regression with Over-Parametrized Two-Layer Networks Converge to Ridgelet Spectrum", The 24th International Conference on Artificial Intelligence and Statistics (AISTATS2021), online, Apr 13-15, 2021. (pdf, refereed)

H.Yamasaki, S.Subramanian, S.Sonoda, M.Koashi, "Learning with Optimized Random Features: Exponential Speedup by Quantum Machine Learning without Sparsity and Low-Rank Assumptions", 20th Asian Quantum Information Science Conference (AQIS 2020), online, Dec 7-9, 2020. (oral, refereed, YouTube presentation (12min))

H.Yamasaki, S.Subramanian, S.Sonoda, M.Koashi, "Learning with Optimized Random Features: Exponential Speedup by Quantum Machine Learning without Sparsity and Low-Rank Assumptions", The 34th Conference on Neural Information Processing Systems (NeurIPS 2020), online, Dec 6-12, 2020. (poster, refereed) (pdf)

K.Watanabe, K.Sakamoto, R.Karakida, S.Sonoda, S.Amari, "Random neural field learning: Formalization and numerical experiments via NTK", ACML 2019 Workshop on Statistics & Machine Learning Researchers in Japan, Nagoya, Japan, Nov 17-19. (poster)

S.Sonoda, "Continuous Model of Deep Neural Networks", IIT-RIKEN Workshop, Genova, Italy, Sep 24-25, 2019. (oral)

S.Sonoda, "Generalized kernel quadrature for synthesizing neural networks", Data Science, Statistics & Visualization (DSSV2019), a satellite conference of the 62nd World Statistics Congress, promoted by IASC, Kyoto, Japan, Aug 13-15, 2019. (oral, refereed) 

S.Sonoda, "Stein's method for computing inverse operators", ICML 2019 Workshop on Stein's Method in Machine Learning and Statistics, Long Beach, CA, USA, Jun 15, 2019. (poster, refereed)

S.Sonoda, "Coordinate-free approaches to neural networks", PAIR-AIP Joint Research Workshop, Taipei, Taiwan, Jun 2-3, 2019. (poster)

K.Nakamura, S.Sonoda, H.Hino, M.Kawasaki, S.Akaho, N.Murata, "Localizing Current Dipoles from EEG Data Using a Birth–Death Process", IEEE BIBM 2018 workshop on Machine Learning for EEG Signal Processing (MLESP 2018), Madrid, Spain, Dec 3-6, 2018. (oral, refereed)(pdf)

S.Sonoda, I.Ishikawa, M.Ikeda, K.Hagihara, Y.Sawano, T.Matsubara, N.Murata, "Integral representation of shallow neural network that attains the global minimum", The First Japan-Israel Machine Learning Workshop (JIML), Israel, Nov 19-20, 2018. (poster)

S.Sonoda, I.Ishikawa, M.Ikeda, K.Hagihara, Y.Sawano, T.Matsubara, N.Murata, "An explicit expression for the global minimizer network", ICML 2018 Workshop on Theory of Deep Learning (TDL), Stockholm, Sweden, Jul 10-15, 2018. (pdf) (poster, refereed)

S.Sonoda, N.Murata, "Transportation analysis of denoising autoencoders: a novel method for analyzing deep neural networks", NIPS 2017 Workshop on Optimal Transport & Machine Learning (OTML), Long Beach, California, USA, Dec 4-9, 2017. (pdf) (poster, refereed)

S.Sonoda, N.Murata, "Double Continuum Limit of Deep Neural Networks", ICML 2017 Workshop on Principled Approaches to Deep Learning (PADL), Sydney, Australia, Aug 6-11, 2017. (pdf) (poster, refereed)

S.Sonoda, N.Murata, "Ridgelet Analysis of ReLU Network", The 29th Machine Learning Summer School (MLSS2015), Kyoto, Japan, Aug 23 - Sep 4, 2015. (poster, refereed)

S.Sonoda, N.Murata, "Sampling Hidden Parameters from Oracle Distribution", The 24th International Conference on Artificial Neural Networks (ICANN2014), Hamburg, Germany, Sep 15-19, 2014. (pdf) (poster, refereed)

N.Murata, S.Sonoda, H.Hino, H.Kitada, M.Kano, "Sensitivity Analysis for Controlling Molten Steel Temperature in Tundish", 2012 IFAC Workshop on Automation in the Mining, Mineral and Metal Industries, MMM 2012, Gifu, Japan, Sep 10-12, 2012. (paper)

Domestic Conference/Workshop

相島祐太, 園田翔, 磯部伸, 池田和司, "Generalized DAEs with Tweedie's formula", 第53回IBISML研究会, 広島大, 2024年3月.

園田翔, "多様体上のニューラルネットとリッジレット変換", 2023年度表現論シンポジウム, 沖縄, 2023年11月.

園田翔, 橋本悠香, 石川勲, 池田正弘, "Koopman作用素表現を用いた深層ニューラルネットのリッジレット変換", 第26回 情報論的学習理論ワークショップ(IBIS2023), 北九州, 2023年10月.

園田翔, 伊師英之, 石川勲, 池田正弘, "ニューラルネットのパラメータに作用する双対群と普遍性定理の表現論的証明", 第26回 情報論的学習理論ワークショップ(IBIS2023), 北九州, 2023年10月.

園田翔, "調和解析に基づくニューラルネット解析", 数理情報研究交流会, 秋田大, 2023年10月.

園田翔, 石川勲, 池田正弘, "群畳み込みニューラルネットのリッジレット変換", 第25回 情報論的学習理論ワークショップ(IBIS2022), 筑波, 2022年11月.

橋本悠香, 園田翔, 石川勲, 二反田篤史, 鈴木大慈, "Koopman作用素を用いたニューラルネットワーク解析", 第25回 情報論的学習理論ワークショップ(IBIS2022), 筑波, 2022年11月.

Hayata Yamasaki, Sathyawageeswar Subramanian, Satoshi Hayakawa, Sho Sonoda, "Quantum ridgelet transform: Winning lottery ticket of neural networks with quantum computation", 第25回 情報論的学習理論ワークショップ(IBIS2022), 筑波, 2022年11月.

園田翔, 石川勲, 池田正弘, "群畳み込みニューラルネットのリッジレット変換と群同変関数に対する普遍性", 日本応用数理学会2022年度年会, , 2022年9月.

園田翔, 石川勲, 池田正弘, "非コンパクト対称空間上の連続ニューラルネットとそのリッジレット変換", 2021年度応用数学合同研究集会, online, 2021年12月.

園田翔, 石川勲, 池田正弘, "群畳み込みニューラルネットのリッジレット変換", 第24回 情報論的学習理論ワークショップ(IBIS2021), online, 2021年11月.

園田翔, 石川勲, 池田正弘, "重み付きSobolev空間におけるニューラルネット積分表現作用素の有界性", 実解析学シンポジウム2021, online, 2021年10月.

園田翔, 石川勲, 池田正弘, "積分表現ニューラルネットが定める積分方程式の一般解", 日本応用数理学会2021年度年会, 芝浦工大(online), 2021年9月.

園田翔, 石川勲, 池田正弘, "ニューラルネットの零空間の精密構造と統計的役割", 2021年度 統計関連学会連合大会, online, 2021年9月.

園田翔, 石川勲, 池田正弘, "積分幾何学に基づくニューラルネットの新しい再構成公式", 第23回 情報論的学習理論ワークショップ(IBIS2020), 筑波(online) 2020年11月.

園田翔, 石川勲, 池田正弘, "オーバーパラメトライズされた有限ニューラルネットの最適解", 第23回 情報論的学習理論ワークショップ(IBIS2020), 筑波(online) 2020年11月.

園田翔, Ming Li, "ランダムニューラルネットの近似下限評価", 2020年度 統計関連学会連合大会, 富山(online), 2020年9月.

園田翔, "連続ニューラルネットの諸相", 情報系 WINTER FESTA Episode 5, 一橋講堂, 2019年12月.

渡部海斗, 坂本航太郎, 園田翔, 唐木田亮, 甘利俊一, "ランダム神経場の学習 -NTKによる定式化と実験的検証-", 第22回 情報論的学習理論ワークショップ(IBIS2019), 名古屋, 2019年11月.

谷口晃一, 池田正弘, 園田翔, 大野健太, 鈴木大慈, "ReLU深層ニューラルネットワークの一般化されたBesov空間での関数近似能力について", 第22回 情報論的学習理論ワークショップ(IBIS2019), 名古屋, 2019年11月.

山崎隼汰, Sathyawageeswar Subramanian, 園田翔, "量子コンピュータによる高速ランダム特徴量サンプリング", 第22回 情報論的学習理論ワークショップ(IBIS2019), 名古屋, 2019年11月.

Hayata Yamasaki, Sathyawageeswar Subramanian, Sho Sonoda, Masato Koashi, "Fast quantum algorithm for data approximation by optimized random features", 量子情報技術研究会(QIT), 学習院大, 2019年11月.

園田翔, "Barron評価を達成するニューラルネットの構成法", 日本応用数理学会2019年度年会, 東大, 2019年9月.

園田翔, "カーネル求積による浅いモデルの学習法", 2019年度 統計関連学会連合大会, 彦根, 2019年9月.

園田翔, "カーネル求積による積分変換の計算", 第21回 情報論的学習理論ワークショップ(IBIS2018), 北大, 2018年11月.

中村圭太, 園田翔, 日野英逸, 川崎真弘, 赤穂昭太郎, 村田昇, "生成・消滅過程に基づくEEGデータの電流ダイポール推定", 第33回 IBISML研究会, 沖縄, 2018年6月.

園田翔, 村田昇, "深層学習の Wasserstein 幾何学的解析にむけた取組み", 2017年度 科学研究費シンポジウム「大規模複雑データの理論と方法,及び,関連分野への応用」, 筑波, 2017年12月. (pdf)

園田翔, "一般の雑音分布によるデノイジング・オートエンコーダーの解析", 第20回 情報論的学習理論ワークショップ(IBIS2017), 東大, 2017年11月. (poster)

松原拓央, 園田翔, 村田昇, "積分表現とKernel HerdingによるNeural Networkの学習", 第28回IBISML研究会, 東工大, 2017年3月. (oral)

園田翔, 村田昇, "深層デノイジング・オートエンコーダーの輸送理論解釈", 第19回 情報論的学習理論ワークショップ(IBIS2016), 京大, 2016年11月. (poster, best presentation award)

嶋田達之介, 園田翔, 村田昇, 加藤真平, "Saliency Mapを用いたCNNブレーキシーン判別器の解析", 第19回 情報論的学習理論ワークショップ(IBIS2016), 京都, 2016年11月. (poster)

嶋田達之介, 松原拓央, 園田翔, 村田昇, パトリシアオータル, 加藤真平, "LiDAR深度データを用いたCNNブレーキシーン認識", 第18回 情報論的学習理論ワークショップ(IBIS2015), 筑波, 2015年11月. (poster)

園田翔, 村田昇, "ReLU ネットワークの積分表現理論", 2015年度 科学研究費シンポジウム「大規模複雑データの理論と方法論:最前線の動向」, 筑波, 2015年11月.

園田翔, 村田昇, "オラクル分布を用いたサンプリング学習アルゴリズム", 第18回 IBISML研究会, 筑波, 2014年9月. (oral)

金田有紀, 園田翔, 日野英逸, 村田昇, "複数粒子フィルタとモデル選択を用いたEEGデータの電流ダイポール推定", 第17回 IBISML研究会, 沖縄, 2014年6月. (oral)

園田翔, 村田昇, 日野英逸, 進藤史裕, 北田宏, 加納学, "ブートストラップフィルタによる溶鋼温度分布の予測と制御", 日本鉄鋼協会 第162回 秋季講演大会, 大阪, 2011年9月. (oral)

Invited Talk/Lecture

S. Sonoda "Deep Ridgelet Transform: Harmonic Analysis for Deep Neural Network", RIKEN AIP and NJU LAMDA joint workshop, Nanjing, China, June 6-7, 2024 (poster)

S. Sonoda "Deep Ridgelet Transform: Harmonic Analysis for Deep Neural Network", HKBU-COMP & RIKEN-AIP Joint Workshop on Artificial Intelligence and Machine Learning 2024, Hong Kong SAR, China, May 23-24, 2024

S.Sonoda, "Ridgelet Transform: Harmonic Analysis for Deep Neural Networks", Deep Learning: Theory, Applications, and Implications (DL2024 Tokyo), Tokyo, Mar 18 - 20, 2024.

園田翔, "群表現論に基づく深層ニューラルネットのリッジレット変換", 第53回IBISML研究会・企画セッション機械学習の理論と応用, 広島大, 20243月.

園田翔, "Deep Ridgelet Transforms Induced from Group Invariant Functions", (所内向け)第5回理研AIP数学系合同セミナー, 三浦, 2024年2月.

園田翔, "積分表現でニューラルネットを理解する", 大阪公立大学FD研修会「人工知能と数学」, 大阪, 2024年2月. (YouTube)

S.Sonoda, "Deep Ridgelet Transforms Induced from Group Invariant Functions", Learning on Graphs (LoG 2023) conference, Shanghai Meetup, Shanghai, China, Nov 29 - Dec 1, 2023.

園田翔, "積分表現でニューラルネットを理解する", 第26回愛媛大学DS研究セミナー, オンライン, 2023年10月.

S.Sonoda, "Ridgelet Transforms of Neural Network on Manifolds and Hilbert Spaces", Symposium for Mathematics of Geometric Deep Learning in ICIAM 2023, Tokyo, Japan, August 20-25, 2023.

S.Sonoda, "Koopman Mode Decomposition for Deep Ridgelet Transform", CREST計算ダイナミクス 全体会合, 兵庫, 2023年5月.

S.Sonoda, "Ridgelet Transforms for Neural Networks on Manifolds and Hilbert Spaces", Workshop on Functional Inference and Machine Intelligence (FIMI) 2023, Tokyo, Japan, March 14-16, 2023.

園田翔, "積分表現でニューラルネットを理解する", 岐阜大学工学部, 第10回応用物理学セミナー, 岐阜, 2023年3月.

園田翔, "Fourier Transform Induces Neural Networks", (所内向け)第4回理研AIP数学系合同セミナー, 三浦, 2023年2月.

S.Sonoda, "Ridgelet Transforms for Neural Networks on Manifolds and Hilbert Spaces", Mathematical optimization and statistical theories using geometric methods, Osaka Metropolitan University, October 20-21, 2022.

S.Sonoda, "Ridgelet Transforms for Neural Networks on Manifolds and Hilbert Spaces", International Conference on Information Geometry for Data Science (IG4DS), Hamburg, September 19-23, 2022. (slide)

S.Sonoda, "Continuous Models for Understanding Neural Network Parameters", Dagstuhl Seminar 22332 "Differential Equations and Continuous-Time Deep Learning", Dagstuhl, August 15-19, 2022. (official report)

園田翔, "Neural networks on manifolds and Hilbert spaces", CREST計算ダイナミクス全体会合, 福岡, 2022年8月.

S.Sonoda, I.Ishikawa, M.Ikeda, "Closed-form Expression of Parameter Distribution in Neural Network on Noncompact Symmetric Space", International Conference on Bayesian and Maximum Entropy methods in Science and Engineering (MaxEnt2022), Institut Henri Poincaré (IHP), Paris, July 18-22, 2022.

園田翔, "積分表現でニューラルネットを理解する", 第50回武蔵野大学数理工学センターセミナー(MCMEセミナー), 武蔵野大学, 2022年7月.

園田翔, "ニューラルネットによる関数近似", 勉強会:純粋数学と応用数学と数理科学と私, 名古屋大, 2022年6月.

園田翔, "一般空間上の積分表現ニューラルネットとリッジレット変換", 第41回ディープラーニングと物理学(Deep Learning and Physics; DLAP), online, 2022年6月.

園田翔, "非コンパクト対称空間上の連続ニューラルネットとそのリッジレット変換", Besov空間におけるKoopman作用素の有界性の研究とその応用, 九州大学, 2022年5月.

園田翔, "積分表現でニューラルネットを理解する", 2021年度第5回マス・フォア・イノベーションセミナー, 九州大学(online), 2021年10月.

園田翔, "Ghosts in Neural Networks", 2021年度第2回CREST「数理知能表現による深層構造学習モデルの革新」チームミーティング, online, 2021年10月.

園田翔, "Ghosts in Neural Networks", 第1回AI数理セミナー, online, 2021年6月.

S.Sonoda, "Functional Analysis Methods for Neural Network Theory", Meeting at Crest Deep, online, May 11, 2021.

S.Sonoda, "Functional Analysis Methods for Neural Network Theory", The 20th AIP Open Seminar, online, April 7, 2021 (YouTube).

S.Sonoda, "Characterizing Deep Learning Solutions by Using Ridgelet Transform", Differential Equations for Data Science 2021 (DEDS2021), online, March 8-10, 2021.

S.Sonoda, "A New Approximation Complexity for Neural ODE", Dagstuhl Seminar 'Differential Equations and Continuous-Time Deep Learning', Dagstuhl, February 7-12, 2020. (cancelled due to COVID19)

園田翔, "積分幾何学に基づくニューラルネットのパラメータ分布再考", 第23回 情報論的学習理論ワークショップ(IBIS2020)・企画セッション「学習理論」, 筑波(online), 2020年11月.

園田翔, "深層学習を微分方程式で記述する", 第41回IBISML研究会・企画セッション「ダイナミクスと機械学習の接点」, online, 2020年10月.

園田翔, "A New Reconstruction Formula of Neural Networks based on Radon Transform and Its Applications", 第1回 Machine Learning Zoom Seminar, online, 2020年10月. 

S.Sonoda, "Harmonic Analysis for Neural Networks and its Applications", Applied and Computational Math Seminar, National University of Singapore (online), September 2, 2020.

園田翔, "連続ニューラルネットのリッジレット変換による解析", 2020年度第2回明治非線型数理セミナー, 明治大学(online), 2020年7月.

S.Sonoda, "Understanding Deep Learning from Differential Equations Perspective", Differential Equations for Data Science 2020 (DEDS2020), Kyoto, June 15-17, 2020. (cancelled due to COVID19)

園田翔, "ディープラーニングを理解し,制御する", 2020年度科学講演会in郡山市, 郡山, 2020年6月. ※COVID19によりキャンセル

園田翔, "ニューラルネットの連続モデル", 福岡大学, 2020年3月.

園田翔, "深層学習の汎化誤差評価", (所内向け)第3回理研AIP数学系合同セミナー, 三浦, 2020年2月.

園田翔, "深層ニューラルネットについて", 第6回東京確率論セミナー, 理研AIP, 2019年12月.

S.Sonoda, "Continuous Model of Deep Neural Networks", South China Normal University, Guangzhou, China, December 9-12, 2019.

園田翔, "ニューラルネットの連続モデル", 大阪大学 数理・データ科学セミナー 数理モデルセミナーシリーズ 第24回, 大阪, 2019年12月.

園田翔, "連続モデルによるニューラルネットの解析", 金沢大学 第2回微分方程式とデータサイエンス研究会, 金沢, 2019年11月.

S.Sonoda, "Continuous Model of Deep Neural Networks", Theory towards Brains, Machines and Minds, RIKEN CBS, Wako, Japan, Oct 15-16, 2019.

S.Sonoda, "Continuous Model of Deep Neural Networks", Peking University, Beijing, China, August 20-22, 2019.

園田翔, "積分表現で学ぶニューラルネットの仕組み", ICML 2019 読み会 in 京都, 京都, 2019年8月.

S.Sonoda, "Numerical Integration Method for Training Neural Networks", The 12th International Conference on Monte Carlo Methods and Applications (MCM2019), Sydney, July 8-12, 2019.

園田翔, "連続モデルで理解するニューラルネット", (所内向け勉強会) Denso IT Lab, 東京, 2019年7月.

園田翔, "最適制御にもとづく機械学習の試み", Workshop on Transport at Metropolitan, 首都大, 2019年6月.

園田翔, "深層学習入門", (所内向け)第2回理研AIP数学系合同セミナー, 浜松, 2019年3月.

S.Sonoda, "Continuous Model of Deep Neural Networks", Max Planck Institute for Intelligent Systems, Tübingen, Feb 4-15, 2019.

園田翔, "Inverse problem in denoising autoencoder", 2019 RIMS 共同研究 「偏微分方程式に対する逆問題の数学解析とその周辺」, 京都, 2019年1月.

園田翔, "数値積分によるニューラルネットの学習", 2018 RIMS 共同研究 「次世代の科学技術を支える数値解析学の基盤整備と応用展開」, 京都, 2018年11月.

園田翔, "深層学習入門", 第21回 情報論的学習理論ワークショップ(IBIS2018) チュートリアル, 北大, 2018年11月.

園田翔, "機械学習と解析学", 第3回東京実解析セミナー, 理研AIP, 2018年10月.

園田翔, "深層ニューラルネットの数理", (所内向け)DS推進室キックオフミーティング, 山形大, 2018年10月.

園田翔, "深層ニューラルネット理論の近況", 日本数学会2018年度秋季総合分科会 応用数学特別セッション「機械学習の数学的課題: 深層学習の理論を中心に」, 岡山, 2018年9月. (slide) (pdf)

園田翔, "深層ニューラルネットの数理",(学内向け)人工知能研究講演会, 津山高専, 2018年9月.

S.Sonoda, "Mathematical Models of Neural Networks", Seminar on Mathematical Analysis and Its Application, Brawijaya University, Malang, Indonesia, September 17-21, 2018. (slide)

園田翔, "大域最適解を与えるニューラルネットの積分表現", 第3回統計・機械学習若手シンポジウム「統計・機械学習の交わりと広がり」,一橋講堂,2018年8月. (slide)

園田翔, "深層学習の基礎理論と発展", 第37回日本医用画像工学会大会 (JAMIT2018) シンポジウム2「深層学習の基礎理論と発展」, 筑波, 2018年7月.

園田翔, "深層ニューラルネットの輸送解析", (所内向け)数理解析チームセミナー, 大阪大学, 2018年7月.

園田翔, "深層ニューラルネットの数理モデル", (学内向け)最適輸送と機械学習理論の周辺, 名古屋工業大学, 2018年6月.

S.Sonoda, "Transport Analysis of Denoising Autoencoder", Tokyo Deep Learning Workshop (TDLW2018), Deep Learning: Theory, Algorithms, and Applications, Tokyo, March 19-22 2018. (slide)

園田翔, "ニューラルネットの数理モデル", (所内向け)第1回理研AIP数学系合同セミナー, 伊豆, 2018年3月.

園田翔, "ニューラルネットの積分表現理論入門", (学内向け)最先端人工知能を知る講演会, 日本大学, 2018年1月.

園田翔, "深層ニューラルネットの積分表現理論", 第29回 科研費新学術領域「多元計算解剖学」セミナー, 東京, 2016年11月.

園田翔, "ニューラルネットの積分表現理論", 第2回 産総研人工知能セミナー 「機械学習の理論的側面」, 台場, 2015年11月. (slide@aist)

園田翔, "深層学習のリッジレット解析にむけた取組み", 2015 RIMS 共同研究 「ウェーブレット解析と信号処理」, 京都, 2015年11月.

Teaching

S. Sonoda, "Ridgelet Transform: Harmonic Analysis for Deep Learning Theory", Sungkyunkwan University (SKKU), Mathematics for Machine Learning, online, Korea, Nov 8, 2023.

園田翔, "深層学習の数理", 一橋大学ソーシャル・データサイエンス研究科, 機械学習発展(学術), online, 2023年11月.

園田翔, "深層学習の数理", 慶応義塾大学理工学研究科, データサイエンス特別講義, 日吉, 2023年10月.

園田翔, "ニューラルネットの関数解析的側面", 大阪大学基礎工学研究科, データ科学特論II「深層学習の数理」, online, 2022年8月.

園田翔, "深層学習理論", 早稲田大学先進理工学部, 2022年度電気・情報生命工学フロンティア, online, 2022年6月.

園田翔, "ニューラルネットの数理", 大阪大学基礎工学研究科, 数理特論I, online, 2022年1月.

Dissertation

園田翔, "深層ニューラルネットの積分表現理論", ("Integral Representation Theory of Deep Neural Networks",) 2017年2月. (pdf@waseda.repo)

Books

(翻訳) D. P. Kroese, Z. I. Botev, T. Taimre, R. Vaisman(著),金森敬文監訳), データサイエンスと機械学習, 東京化学同人, 2022年12月.

Others

園田翔(選書アドバイザー), 科学道100冊傑作選, 編集工学研究所・理化学研究所, 20243月. (公式サイト)

園田翔(登壇), 理研AIP–数理女子ジョイントセミナー, 2022年1月

園田翔(選書アドバイザー), 科学道100冊2021, 編集工学研究所・理化学研究所, 2021年11月. (記事1, 記事2)

日野英逸, 園田翔(), 高野健(文), "呪術廻戦 深淵数学講座", ジャンプGIGA 2021 SUMMER, 集英社, 20217

園田翔(語), "AIの判断 解明に挑む", 日経産業新聞, 2019年10月1日付