SOUND × BRAIN
Ryosuke O. Tachibana, PhD (橘 亮輔)
Senior Research Scientist
Human Informatics and Interaction Research Institute (HIIRI)
National Institute of Advanced Industrial Science and Technology (AIST)
産業技術総合研究所 人間情報インタラクション研究部門 主任研究員
ResearchGate | Researchmap | E-mail | Twitter | GitHub
Research interests
Vocal communication 音声コミュニケーション
Vocal learning 発声学習
Auditory-motor interaction 聴覚運動統合
Behavioral neuroscience, neuroethology 行動神経科学、神経行動学
Sound signal processing 音信号処理
Music and brain 音楽と脳
Ongoing granted projects
「随伴性に基づく発声学習メカニズムの統合的理解」(科研費 基盤A 代表 2024/4~)
聴覚的・社会的フィードバックの随伴性によって発声がどのように学習されるかを、人と小鳥の両方を対象として研究し、両者の知見を数理モデルとして統合していきます。この研究から母語発話の獲得や第二言語学習、構音障害のリハビリなどにつながることを期待しています。
>> 博士研究員募集中!(2024/10/1雇用予定) 募集終了しました「発話と音声知覚におけるリズム生成機構の関与」(科研費 挑戦的研究(萌芽) 代表 2023/4~)
発話における脳内のリズム生成機構を調べるために、発話とリズムタッピングとの干渉現象を調べています。この研究から発話制御の基本原理が分かり、また吃音や失読症などのリズム生成の問題に起因するとみられる障害の解明や治療法の検討にもつながることを期待しています。「コミュニケーション行動の進化的基盤としての模倣・共感・報酬」(科研費 基盤S 分担 2023/4~)
コミュニケーション行動は、模倣・共感・報酬の3つの要素の組み合わせで成り立つという仮説のもと、鳥類、齧歯類、ヒトを含む霊長類まで多様な動物種を対象として、神経回路から行動までを統合的に理解しようとしています。私は分担者として鳥類とヒトの行動神経科学実験を進めています。
Research projects
Human vocalization, audio-motor interaction/integration
Human audio-vocal integration:
Xu, Tachibana et al. (2020) Front. Psychol.
Tachibana et al. (2022) Sci. Rep
Human audio-motor interaction needs a specific motor circuit including the dorsal premotor cortex (dPMC) and the planum templare (PT): Tachibana et al. (2010) Neurosci. Lett.
On the shared neural mechanism among humans and songbirds (in Japanese): Tachibana (2014) IEICE technical report
Rhythm and sequence control in birdsong
On the temporal variability in Bengalese finch's song:
Young birds showed incredibly large plasticity in a temporal feature.
Electrophysiological recording studies
Pre-song (preparatory) activities were consistently found in multiple song centers: Daliparthi et al. (2019) eLife
In vivo Ca2+ imaging studies
(on going)
Hacking animal vocal sounds
I'm enthusiastic about sound signal processing!
I've developed several programs that are useful for animal vocalization research:
Song-triggered sound recorder: "tRec" (see here)
Semi-automatic detection and classification of birdsong syllables by a simple machine-learning technique: Tachibana et al (2014) PLOE ONE (see this also)
Syllable labeling (typification) is one of the most important step for song sequence analysis.
This method trains a linear SVM with manually labeled one-minuet excerpts, then generalizes the syllable categories to remained one-day recording data.
Robust segmentation of sound elements in ultrasonic vocalization (USV) of rodents species: Tachibana et al (2020) PLOS ONE (see this also)
Music & Brain
Japanese translation of Stefan Koelsch's book "Brain and Music"
I translated chapters 1, 3, 7, and 11.
ISBN: 978-4-7628-2929-1
"Handbook for music perception and cognition" (in Japanese)
I wrote one section for fMRI studies
ISBN: 978-4-7628-3099-0