Publications
■ Journal Papers
Y. Masuyama, K. Yatabe, Y. Koizumi, Y. Oikawa and N. Harada, ``Deep Griffin--Lim Iteration: Trainable iterative phase reconstruction using neural network,'' IEEE J. Sel. Top. Signal Process. (accepted).
D. Takeuchi, K. Yatabe, Y. Koizumi, Y. Oikawa and N. Harada, "Effect of Spectrogram Resolution on Deep-Neural-Network-based Speech Enhancement," Acoust. Sci. & Tech., vol.41, no.5, pp.769--775, Sep. 2020.
Y. Koizumi, S. Saito, H. Uematsu, Y. Kawachi, and N. Harada, “Unsupervised Detection of Anomalous Sound based on Deep Learning and the Neyman-Pearson Lemma,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol.27-1, pp.212–224, 2019. [IEEE Xplore], [PDF], [dataset]
Y. Koizumi, K. Niwa, Y. Hioka, K. Kobayashi, and Y. Haneda, “DNN-based Source Enhancement to Increase Objective Sound Quality Assessment Score,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol.26-10, pp.1780–1792, 2018. [IEEE Xplore], [arXiv]
Y. Koizumi, K. Niwa, Y. Hioka, K. Kobayashi, and H. Ohmuro, “Informative Acoustic Feature Selection to Maximize Mutual Information for Collecting Target Sources,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol.25-4, pp.768–779, 2017.
小泉 悠馬, 伊藤 克亘, “音量軌跡の遷移型状態空間表現に基づくダイナミックス とアーティキュレーションへの分解,” 電子情報通信学会論文誌, Vol.J 98-D, No.3, 2015. (in Japanese)
小泉 悠馬, 伊藤 克亘, “連続励起振動楽器を対象としたノート内セグメンテーショ ン,” 電子情報通信学会論文誌, Vol.J 97-D, No.3, 2014. (in Japanese)
小泉 悠馬, 伊藤 克亘, “擦弦楽器の意図表現合成のための奏法モデル,” 情報処理学会論文誌,Vol.54,No.4,2013. (in Japanese)
■ Tutorial Paper
小泉 悠馬, “深層学習に基づく音源強調と位相制御,” 日本音響学会誌, 第75巻, 3号, pp.156-163, 2019. (in Japanese)
■ Book
伊藤 克亘, 花泉 弘, 小泉 悠馬, "MATLABで学ぶ実践画像・音声処理入門," コロナ社, 2019. (in Japanese)
伊藤 克亘, 花泉 弘, 小泉 悠馬, "Pythonで学ぶ実践画像・音声処理入門," コロナ社, 2018. (in Japanese)
■ Invited Talk
"拡散モデルと反復型音声波形生成のやさしい解説," 音学シンポジウム 2023, 2023. [Web]
"異常音検知の現状と展望," 産業技術総合研究所人工知能研究センター 【第46回AIセミナー】「AIによる音環境理解を目的とした環境音分析」, 2021. [Slide]
"実環境における音響信号処理と機械学習," 東京大学大学院 音響システム特論 第11回, 2019. [Slide]
"音響信号に対する異常音検知技術と応用," 電子情報通信学会 2019年 ソサイエティ大会, 2019. [Slide]
"異常音検知のための教師なしおよびFew-shot学習法," 電子情報通信学会 2019年 8月度 音声研究会, 2019.
"Theory and Methods for Unsupervised Anomaly Detection in Sounds Based on Deep Learning," at University of Surrey, 2019. [Slide]
"深層学習と音響信号処理," 第16回ICTイノベーションセミナー at 首都大学東京, 2018. [Slide], [Poster]
"統計的手法に基づく異常音検知の理論と応用," 日本音響学会 2018年秋季研究発表会, 2018. [Slide]
"実環境音響信号処理における収音技術," 情報処理学会 音学シンポジウム 2018, 2018. [Slide]
"学生時代に学んだ技術が会社や社会でどのように役立っているのか," 日本音響学会 2018年春季研究発表会 ビギナーズセミナー, 2018.
"Black-box Optimization of DNN-based Source Enhancement for Increasing Objective Sound Quality," at Mitsubishi Electric Research Laboratories, 2017. [Slide]
■ Peer-Reviewed International Conference Proceedings
Y. Koizumi, H. Zen, S. Karita, Y. Ding, K. Yatabe, N. Morioka, Y. Zhang, W. Han, A. Bapna, M. Bacchiani, "Miipher: A Robust Speech Restoration Model Integrating Self-Supervised Speech and Text Representations," in Proc. of WASPAA, 2023. [arXiv], [Project page]
Y. Koizumi, H. Zen, S. Karita, Y. Ding, K. Yatabe, N. Morioka, M. Bacchiani, Y. Zhang, W. Han, A. Bapna, "LibriTTS-R: Restoration of a Large-Scale Multi-Speaker TTS Corpus," in Proc. of INTERSPEECH, 2023. [arXiv], [Project page], [Dataset download]
K. Dohi, K. Imoto, N. Harada, D. Niizumi, Y. Koizumi, T. Nishida, H. Purohit, R. Tanabe, T. Endo, and Y. Kawaguchi, "Description and Discussion on DCASE 2023 Challenge Task 2: First-Shot Unsupervised Anomalous Sound Detection for Machine Condition Monitoring" in Proc. of the 8th Workshop on Detection and Classification of Acoustic Scenes and Events (DCASE 2023), 2023.
Y. Koizumi, K. Yatabe, H. Zen, and M. Bacchiani, "WaveFit: An Iterative and Non-autoregressive Neural Vocoder based on Fixed-Point Iteration," in Proc. of SLT, 2022. [arXiv], [Project page]
K. Dohi, K. Imoto, N. Harada, D. Niizumi, Y. Koizumi, T. Nishida, H. Purohit, T. Endo, M. Yamamoto, and Y. Kawaguchi, "Description and Discussion on DCASE 2022 Challenge Task 2: Unsupervised Anomalous Sound Detection for Machine Condition Monitoring Applying Domain Generalization Techniques" in Proc. of the 7th Workshop on Detection and Classification of Acoustic Scenes and Events (DCASE 2022), 2022.
Y. Koizumi, H. Zen, K. Yatabe, N. Chen, and M. Bacchiani, "SpecGrad: Diffusion Probabilistic Model based Neural Vocoder with Adaptive Noise Spectral Shaping," in Proc. of Interspeech, 2022. [arXiv], [Project page]
Y. Koizumi, S. Karita, A. Narayanan, S. Panchapagesan, and M. Bacchiani, "SNRi Target Training for Joint Speech Enhancement and Recognition," in Proc. of Interspeech, 2022. [arXiv], [Project page]
Y. Kawaguchi, K. Imoto, Y. Koizumi, N. Harada, D. Niizumi, K. Dohi, R. Tanabe, H. Purohit, and T. Endo, "Description and Discussion on DCASE2021 Challenge Task2: Unsupervised Anomalous Sound Detection for Machine Condition Monitoring under Domain Shifted Conditions" in Proc. of the 6th Workshop on Detection and Classification of Acoustic Scenes and Events (DCASE 2021), 2021.
Y. Koizumi, S. Karita, S. Wisdom, H. Erdogan, J. R. Hershey, L. Jones, and M. Bacchiani, "DF-Conformer: Integrated Architecture of Conv-TasNet and Conformer using Linear Complexity Self-Attention for Speech Enhancement," in Proc. of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA 2021), 2021. [arXiv]
K. Saito, T. Nakamura, K. Yatabe, Y. Koizumi, and H. Saruwatari, "Sampling-Frequency-Independent Audio Source Separation Using Convolution Layer Based on Impulse Invariant Method," in Proc. of the 29th European Signal Processing Conference (EUSIPCO 2021), 2021. [arXiv]
T. Fujimura, Y. Koizumi, K. Yatabe, and R. Miyazaki, "Noisy-target Training: A Training Strategy for DNN-based Speech Enhancement without Clean Speech," in Proc. of the 29th European Signal Processing Conference (EUSIPCO 2021), 2021. [arXiv]
Y. Koizumi, Y. Kawaguchi, K. Imoto, T. Nakamura, Y. Nikaido, R. Tanabe, H. Purohit, K. Suefusa, T. Endo, M. Yasuda, and N. Harada, "Description and Discussion on DCASE2020 Challenge Task2: Unsupervised Anomalous Sound Detection for Machine Condition Monitoring" in Proc. of the 5th Workshop on Detection and Classification of Acoustic Scenes and Events (DCASE 2020), 2020.
D. Takeuchi, Y. Koizumi, Y. Ohishi, N. Harada, and K. Kashino, "Effects of Word-Frequency based Pre- and Post- Processings for Audio Captioning," in Proc. of the 5th Workshop on Detection and Classification of Acoustic Scenes and Events (DCASE 2020), 2020.
Y. Koizumi, R. Masumura, K. Nishida, M. Yasuda, and S. Saito, "A Transformer-based Audio Captioning Model with Keyword Estimation," in Proc. of Interspeech, 2020. [arXiv]
M. Yasuda, Y. Ohishi, Y. Koizumi, and N. Harada, "Crossmodal Sound Retrieval based on Specific Target Co-occurrence Denoted with Weak Labels," in Proc. of Interspeech, 2020.
T. Ochiai, M. Delcroix, Y. Koizumi, H. Ito, K. Kinoshita, and S. Araki, "Listen to What You Want: Neural Network-based Universal Sound Selector," in Proc. of in Proc. of Interspeech, 2020. [arXiv]
Y. Koizumi, K. Yatabe, M. Delcroix, Y. Masuyama, and D. Takeuchi, "Speech Enhancement using Self-Adaptation and Multi-Head Self-Attention," in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2020), 2020. [project page], [arXiv]
Y. Koizumi, M. Yasuda, S. Murata, S. Saito, H. Uematsu, and N. Harada, "SPIDERnet: Attention Network for One-shot Anomaly Detection in Sounds," in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2020), 2020.
M. Yasuda, Y. Koizumi, S. Saito, H. Uematsu, and K. Imoto, "Sound Event Localization based on Sound Intensity Vector Refined by DNN-based Denoising and Source Separation," in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2020), 2020. [arXiv]
M. Kawanaka, Y. Koizumi, R. Miyazaki, and K. Yatabe, "Stable Training of DNN for Speech Enhancement based on Perceptually-Motivated Black-box Cost Function," in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2020), 2020. [arXiv]
Y. Masuyama, K. Yatabe, Y. Koizumi, Y. Oikawa, and N. Harada, "Phase Reconstruction based on Recurrent Phase Unwrapping with Deep Neural Networks," in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2020), 2020. [arXiv]
D. Takeuchi, K. Yatabe, Y. Koizumi, Y. Oikawa, and N. Harada, "Real-Time Speech Enhancement using Equilibraited RNN," in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2020), 2020. [arXiv]
D. Takeuchi, K. Yatabe, Y. Koizumi, Y. Oikawa, and N. Harada, "Invertible DNN-based Nonlinear Time-Frequency Transform for Speech Enhancement," in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2020), 2020. [arXiv]
K. Imoto, N. Tonami, Y. Koizumi, M. Yasuda, R. Yamanishi, and Y. Yamashita, "Sound Event Detection By Multitask Learning of Sound Events and Scenes with Soft Scene Labels," in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2020), 2020. [arXiv]
Y. Koizumi, S. Saito, M. Yamaguchi, S. Murata, and N. Harada, “Batch Uniformization for Minimizing Maximum Anomaly Score of DNN-based Anomaly Detection in Sounds,” in Proc. of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA 2019), 2019. [arXiv], [dataset]
Y. Koizumi, S. Saito, N. Harada, H. Uematsu, and K. Imoto, “ToyADMOS: A Dataset of Miniature-Machine Operating Sounds for Anomalous Sound Detection,” in Proc. of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA 2019), 2019. [GitHub], [dataset], [arXiv]
L. Mazzon, Y. Koizumi, M. Yasuda, and N. Harada, "First Order Ambisonics Domain Spatial Augmentation for DNN-based Direction of Arrival Estimation," in Proc. of the 4th Workshop on Detection and Classification of Acoustic Scenes and Events (DCASE 2019), 2019. [arXiv]
S. Murata, Y. Koizumi, and N. Harada, "Finding Low-dimensional Dynamical Structure through Variational Auto-encoding Dynamic Mode Decomposition," in Proc. of IEEE International Workshop on Machine Learning for Signal Processing (MLSP), 2019.
R. Masumura, K. Matsui, Y. Koizumi, T. Fukutomi, T. Oba and Y. Aono, "Context-Aware Neural Voice Activity Detection Using Auxiliary Networks for Phoneme Recognition, Speech Enhancement and Acoustic Scene Classification," in Proc. of the 27th European Signal Processing Conference (EUSIPCO 2019), 2019.
Y. Koizumi, N. Harada, and Y. Haneda, “Trainable Adaptive Window Switching for Speech Enhancement,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2019), 2019.[arXiv]
Y. Koizumi, S. Murata, N. Harada, S. Saito, H. Uematsu, “SNIPER: Few-shot Learning for Anomaly Detection to Minimize False-Negative Rate with Ensured True-Positive Rate,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2019), 2019.
M. Yamaguchi, Y. Koizumi, and N. Harada, “AdaFlow: Domain-Adaptive Density Estimator with Application to Anomaly Detection and Unpaired Cross-Domain Transition,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2019), 2019. [arXiv]
Y. Kawachi, Y. Koizumi, S. Murata, and N. Harada, “A Two-Class Hyper-Spherical Autoencoder for Supervised Anomaly Detection,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2019), 2019.
Y. Masuyama, K. Yatabe, Y. Koizumi, N. Harada, and Y. Oikawa “Deep Griffin–Lim Iteration,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2019), 2019. [arXiv]
D. Takeuchi, K. Yatabe, Y. Koizumi, N. Harada, and Y. Oikawa “Data-Driven Design of Perfect Reconstruction Filterbank for DNN-based Sound Source Enhancement,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2019), 2019. [arXiv]
S. Nishiguchi, Y. Koizumi, N. Harada, and K. Itou, “DNN-based Near- and Far-Field Source Separation Using Spherical-Harmonic-Analysis-based Acoustic Feature,” in Proc. of International Workshop on Acoustic Signal Enhancement (IWAENC 2018), 2018.
Y. Koizumi, S. Saito, S. Shimauchi, K. Kobayashi, and N. Harada, “Distant Noise Reduction Based on Multi-delay Noise Model Using Distributed Microphone Array,” in Proc. of the 26th European Signal Processing Conference (EUSIPCO 2018), 2018.
Y. Koizumi, N. Harada, Y. Haneda, Y. Hioka, and K. Kobayashi, “End-to-End Sound Source Enhancement using Deep Neural Network in the Modified Discrete Cosine Transform Domain,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2018), 2018.
Y. Kawachi, Y. Koizumi, and N. Harada, “Complementary Set Variational AutoEncoder for Supervised Anomaly Detection,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2018), 2018.
Y. Koizumi, S. Saito, H. Uematsu, and N. Harada, “Optimizing Acoustic Feature Extractor for Anomalous Sound Detection Based on Neyman-Pearson Lemma,” in Proc. of the 25th European Signal Processing Conference (EUSIPCO 2017), 2017.
Y. Koizumi, K. Niwa, Y. Hioka, K. Kobayashi, and Y. Haneda, “DNN-based Source Enhancement Self-Optimized by Reinforcement Learning using Sound Quality Measurements,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2017), 2017.
S. Shimauchi, S. Kudo, Y. Koizumi, and K. Furuya, “On Relationships between Amplitude and Phase of Short-Time Fourier Transform,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2017), 2017.
K. Niwa, Y. Koizumi,T. Kawase, K. Kobayashi, and Y. Hioka, “Supervised Source Enhancement Composed of Nonnegative Auto-Encoders and Complementarity Subtraction,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2017), 2017.
Y. Koizumi, K. Niwa, Y. Hioka, K. Kobayashi, and H. Ohmuro, “Integrated Approach of Feature Extraction and Sound Source Enhancement based on Maximization of Mutual Information,” in Proc. of International Conference on Acoustics, Speech, and Signal Processing (ICASSP 2016), 2016.
K. Niwa, Y. Koizumi, T. Kawase, K. Kobayashi, and Y. Hioka, “Pinpoint Extraction of Distant Sound Source based on DNN Mapping from Multiple Beamforming Outputs to Prior SNR,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2016), 2016.
K. Niwa, Y. Koizumi, K. Kobayashi, and H. Uematsu, “Binaural Sound Generation Corresponding to Omnidirectional Video View using Angular Region-wise Source Enhancement,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2016), 2016.
Y. Koizumi, K. Niwa, Y. Hioka, K. Kobayashi, and H. Ohmuro, “Informative Acoustic Feature Selection on Microphone Array Wiener Filtering for Collecting Target Source on Sports Ground,” in Proc. of IEEE Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA 2015), 2015.
Y. Koizumi, K. Itou, “Intra-note Segmentation via Sticky HMM with DP Emission,” in Proc. of International Conference on Acoustics, Speech and Signal Processing (ICASSP 2014), 2014.
Y. Koizumi, K. Itou, “Expressive Oriented Time-Scale Adjustment for Mis- played Musical Signals based on Tempo Curve Estimation,” in Proc. of the 16th International Conference on Digital Audio Effects Conference (DAFx-16), 2013.
Y. Koizumi, K. Itou, “Performance Expression Synthesis for Bowed-String Instruments using “Expression Mark Functions”,” Proceedings of Meetings on Acoustics (POMA), 2012.
■ Domestic Workshop Proceedings (in Japanese)
小泉 悠馬,安田 昌弘,村田 伸,齊藤 翔一郎,原田 登,"SPIDERnet: ワンショット異常音検知のための深層ニューラルネットワーク," 日本音響学会 2020年春季研究発表会, 2020.
小泉 悠馬,齊藤 翔一郎,植松 尚,原田 登,井本 桂右,"ToyADMOS: 異常音検知のためのおもちゃ稼働音データセット," 日本音響学会 2020年春季研究発表会, 2020.
安田 昌弘,小泉 悠馬,齊藤 翔一郎,植松 尚,井本 桂右,"深層学習に基づく時間周波数マスクと音響強度ベクトルを利用した音響イベント定位," 日本音響学会 2020年春季研究発表会, 2020.
河中 昌樹,小泉 悠馬,宮崎 亮一,矢田部 浩平,"ブラックボックスな聴感評点を最大化するための DNN 音声強調の安定学習法," 日本音響学会 2020年春季研究発表会, 2020.
竹内 大起,矢田部 浩平,小泉 悠馬,及川 靖広,原田 登,"軽量な RNN を用いた音声強調," 日本音響学会 2020年春季研究発表会, 2020.
小泉 悠馬,齊藤 翔一郎,村田 伸,原田 登, "オンライン異常音検知のためのバッチ一様化学習," 日本音響学会 2019年秋季研究発表会, 2019.
升山 義紀, 矢田部 浩平,小泉 悠馬,原田 登,及川 靖広, "位相の微分値に基づいた DNN 位相復元," 日本音響学会 2019年秋季研究発表会, 2019.
竹内 大起,矢田部 浩平,小泉 悠馬,原田 登,及川 靖広, "短時間フーリエ変換の冗長度が DNN 音源強調に与える影響," 日本音響学会 2019年秋季研究発表会, 2019.
西口 草太, 小泉 悠馬,原田 登,伊藤 克亘, "球面調和関数に基づく距離別分離音を用いた深層学習による近接音声分離," 情報処理学会 第81回全国大会, 2018.
小泉 悠馬,村田 伸,齊藤 翔一郎,植松 尚,原田 登, "SNIPER: 異常音検知のための Few-shot 学習法," 日本音響学会 2019年春季研究発表会, 2019.
矢田部 浩平,小泉 悠馬,原田 登,及川 靖広, “音声強調のための複素 DNN,” 日本音響学会 2019年春季研究発表会, 2019.
竹内 大起,矢田部 浩平,小泉 悠馬,原田 登,及川 靖広, “DNN 音源強調のための完全再構成フィルタバンクの学習,” 日本音響学会 2019年春季研究発表会, 2019.
升山 義紀,矢田部 浩平,小泉 悠馬,原田 登,及川 靖広, “DeGLI: 深層 Griffin-Lim 位相復元,” 日本音響学会 2019年春季研究発表会, 2019.
小泉 悠馬,原田 登,羽田 陽一, "適応的窓関数切換を利用したMDCT領域のDNN音源強調," 日本音響学会 2018年秋季研究発表会, 2018.
河内 祐太,小泉 悠馬,村田 伸,原田 登, "超球面潜在空間オートエンコーダによる教師あり異常検知," 信学技報, vol. 118, no. 220, IBISML2018-13, pp. 1-8, 2018.
山口 正隆,小泉 悠馬,原田 登, "新規ドメインへの高速適応が可能な異常音検知モデルの検討," 日本音響学会 2018年秋季研究発表会, 2018.
西口 草太,小泉 悠馬,原田 登,伊藤 克亘, "球面調和関数に基づく距離特徴量を用いたDNN音源強調," 日本音響学会 2018年秋季研究発表会, 2018.
伊藤 弘章,小泉 悠馬,河内 祐太,栗原 祥子,原田 登, "目的音声に対する非定常雑音の SN 比推定," 日本音響学会 2018年秋季研究発表会, 2018.
小泉 悠馬,原田 登,小林 和則,羽田 陽一, "修正離散コサイン領域におけるend-to-end DNN音源強調," 日本音響学会 2018年春季研究発表会, 2018.
小泉 悠馬,丹羽 健太, 小林 和則, 羽田 陽一 , “ 聴感評点を向上させるための DNN 音源強調関数のブラックボックス最適化,” 日本音響学会 2017年秋季研究発表会, 2017.
小泉 悠馬,齊藤 翔一郎, 小林 和則, 島内 末廣,羽田 陽一, “広域に分散配置した マイクロホンを連携させる遠方雑音抑圧法の検討,” 日本音響学会 2017年秋季研究発表会, 2017.
河内 祐太,小泉 悠馬,原田 登, “Lp ノルム回帰を用いた異常音検知の検討,” 日本音響学会 2017年秋季研究発表会, 2017.
小泉 悠馬,齊藤 翔一郎, 植松 尚, “深層学習を用いた機器動作音の異常音検知,” 日本音響学会 2017 年春季研究発表会, 2017.
島内 末廣,工藤 晋也,小泉 悠馬,古家 賢一, “短時間フーリエ変換の振幅と位相 の依存性に関する考察,” 日本音響学会 2017 年春季研究発表会, 2017.
小泉 悠馬,丹羽 健太, 小林 和則, 大室 仲, 羽田 陽一, “ 聴感評点を最大化するための強化学習に基づく音源強調の検討 ,” 日本音響学会 2016 年秋季研究発表会, 2016.
小泉 悠馬,丹羽 健太, 齊藤 翔一郎, 植松 尚, “機器動作音の異常音検知のための音響特徴量自動設計,” 日本音響学会 2016 年秋季研究発表会, 2016.
丹羽 健太, 小泉 悠馬,川瀬 智子, 小林 和則, 日岡 裕輔, “対称性マイクロホンアレイを用いた目的音/雑音 PSD の推定,” 日本音響学会 2016 年秋季研究発表会, 2016.
小泉 悠馬,丹羽 健太, 小林 和則, 大室 仲, “ガウシアンカーネルを用いた相互情報量最大化に基づく特徴選択; 音源強調を事例として,” 日本音響学会 2016 年春季研 究発表会, 2016.
丹羽 健太, 小泉 悠馬,川瀬 智子, 小林 和則, 日岡 裕輔, “相互情報量増大型受音と DNN 回帰に基づく遠距離収音技術に関する検討,” 日本音響学会 2016 年春季研究 発表会, 2016.
丹羽 健太,小泉 悠馬,小林 和則,越智 大介,亀田 明男,鎌本 優,守谷 健弘, “スマートホンを用いた全天球映像音声配信・視聴系の実装,” 日本音響学会 2016 年 春季研究発表会, 2016.
小泉 悠馬,丹羽 健太, 小林 和則, 大室 仲, “ 競技音を抽出するための特徴選択と音源強調の統合的アプローチの検討,” 日本音響学会 2015 年秋季研究発表会, 2015.
丹羽 健太, 小泉 悠馬,小林 和則, “ 全天球映像に対応したバイノーラル音を生成するための方向別収音に関する検討,” 電子情報通信学会 技術研究報告, 2015.
小泉 悠馬,丹羽 健太, 小林 和則, 大室 仲, “ 複数領域を区別して収音するためのウィーナーフィルタ設計技術,” 日本音響学会 2015 年春季研究発表会, 2015.
小泉 悠馬,伊藤 克亘, “ディリクレ過程を出力する Nest 型 HMM を用いた音符内状態推定,” 日本音響学会 2014 年春季研究発表会, 2014.
小泉 悠馬,伊藤 克亘, “連続励起振動楽器を対象とした音量軌跡のダイナキクスと アーティキュレーションへの分解法,” 情報処理学会研究報告, SIGMUS-102, 2014.
安田 沙弥香, 小泉 悠馬,伊藤 克亘, “ラジオ放送話者ダイアライゼーション,” 情報処理学会 第 76 回全国大会, 2014.
塩出 萌子, 小泉 悠馬,伊藤 克亘, “中間話者コーパスを用いたアニメーション演技音声のための話者変換,” 情報処理学会 第 76 回全国大会, 2014.
小泉 悠馬,伊藤 克亘, “奏者の意図したテンポ変動の推定に基づく演奏録音の自動伸縮修正法 ,” FIT2013 第 12 回情報科学技術フォーラム, 2013.
小泉 悠馬,伊藤 克亘, “連続励起振動楽器のためのパワーに基づく音符内状態推定,” 日本音響学会 2013 年秋季研究発表会, 2013.
小泉 悠馬,伊藤 克亘, “音楽表現の生成モデリングの検討 ~熟練度に依存しない演奏表現の解析技術を目指して~,” 情報処理学会研究報告, 2013-MUS-99-58, 2013.
小泉 悠馬,伊藤 克亘, “演奏音の音量時系列からの奏者の意図表現成分の推定,” 情報処理学会 第 75 回全国大会, 2013.
上野 涼平, 小泉 悠馬,伊藤 克亘, “音楽知識を利用したハーモナイザー,” 情報処理学会 第 75 回全国大会, 2013.
森田 花野, 小泉 悠馬,伊藤 克亘, “教則本を利用したギターフレーズの難易度推定,” 情報処理学会 第 75 回全国大会, 2013.
小泉 悠馬,伊藤 克亘, “演奏意図関数に基づく表現力を反映させた音響信号の伸縮修正,” 情報処理学会研究報告, 2012-MUS-97-02, 2012.
小泉 悠馬,伊藤 克亘, “意図表現における非周期擦弦振動を考慮した楽音合成手法の検討,” 日本音響学会 2012 年秋季研究発表会, 2012.
小泉 悠馬,伊藤 克亘, “擦弦時の奏法行動を考慮した意図表現の合成手法:VIOCODER,”情報処理学会研究報告, 2012-MUS-95-02, 2012.
小泉 悠馬,伊藤 克亘, “合成音への表現力付与のための擦弦楽器の発想伝達関数の 推定,” 情報処理学会 第 74 回全国大会, 2012.
■ First Author Patents (granted)
特許第6732944号 (JP 6732944 B)
特許第6721165号 (JP 6721165 B)
特許第6709277号 (JP 6709277 B)
特許第6563874号 (JP 6563874 B)
特許第6472417号 (JP 6472417 B)
特許第6466863号 (JP 6466863 B)
特許第6461730号 (JP 6461730 B)
特許第6404780号 (JP 6404780 B)
特許第6377592号 (JP 6377592 B)
特許第6370751号 (JP 6370751 B)
特許第6367691号 (JP 6367691 B)
特許第6301891号 (JP 6301891 B)
特許第6182169号 (JP 6182169 B)