加藤祥真, 鬼頭明, 玉木徹, 澤野弘明, 卓球競技映像の特徴に基づく画像処理と音声処理を統合したラリー回数計測手法, 電気学会論文誌C(電子・情報・システム部門誌)IEEJ Transactions on Electronics, Information and Systems, accepted
Yongfei WU, Daisuke KATAYAMA, Tetsushi KOIDE, Toru TAMAKI, Shigeto YOSHIDA, Shin MORIMOTO, Shiro OKA, Shinji TANAKA, An Automatic Segmentation Method for Lesion Areas in Full-screen NBI Colorectal Endoscopy using Deep Learning, IEICE Transactions on Information and Systems, 2025/03/19, Online ISSN 1745-1361, Print ISSN 0916-8532 [PDF] [https://doi.org/10.1587/transinf.2024EDP7283]
Shimon Hori and Toru Tamaki, Query Matching for Spatio-Temporal Action Detection with Query-Based Object Detector, 2025 IEEE 14th Global Conference on Consumer Electronics (GCCE), Sep. 23-26, 2025, Osaka, Japan.
この論文では,物体検出モデルDETRを時空間動作検出へ拡張する手法を提案しています.特徴量シフトを導入するとともに,異なるフレーム間で同一物体に対応するクエリを整合させるためのクエリマッチングをを導入することで,動画全体の動作検出精度を向上させることを確認しています.
Tsubasa Mizuno and Toru Tamaki, Shifting and Matching Queries for Video Semantic Segmentation, 2025 IEEE 14th Global Conference on Consumer Electronics (GCCE), Sep. 23-26, 2025, Osaka, Japan.
この論文では,クエリベースの画像セグメンテーションモデルを動画に拡張する手法を提案しています.特徴量シフトで時間的情報を扱い,さらにフレーム間で同じ領域を対応づけるクエリマッチングを導入することで,動画セグメンテーションの精度を向上させています.
Takuya Sugimoto, Ning Ding, Toru Tamaki, MoExDA: Domain Adaptation for Edge-based Action Recognition, 19th International Conference on Machine Vision Applications (MVA2025), July 26–28, 2025, Kyoto, Japan. [PDF] [doi] [arxiv] [poster] [slide] [GitHub]
本研究では、RGB映像だけでなくエッジ情報も利用することで、動作認識モデルにおける静的バイアス(静止背景への偏り)を軽減する軽量なドメイン適応手法MoExDAを提案し、低計算コストで頑健な動作認識を実現しました。
Yusaku Takama, Ning Ding, Tatsuya Yokota, Toru Tamaki, Separating Shared and Domain-Specific LoRAs for Multi-Domain Learning, CVPR2025 workshop on Domain Generalization: Evolution, Breakthroughs and Future Horizon (DGEBF), Nashville, TN, USA, 2025/6/12. [PDF] [Poster] [open access] [doi] [arXiv] [GitHub]
既存のマルチドメイン学習では,すべてのドメインで共有LoRAと各ドメイン固有LoRAを併用していますが,ドメイン間の情報の混在が課題です。本研究では,共有とドメイン固有LoRAをそれぞれ重みの列空間と左零空間に制約し,役割を明確に分離する手法を提案し,複数の動作認識データセットで有効性を示しました。
Kazuki Omi, Jion Oshima, Toru Tamaki, Action tube generation by person query matching for spatio-temporal action detection, 20th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications (VISAPP2025), Vol.2, pp.261-268, ISBN 978-989-758-728-3; ISSN 2184-4321, Porto, Portugal, 2025/2/26-28. [arXiv] [DOI: 10.5220/0013089500003912] [PDF] [poster]
本研究では、クエリベースの検出器であるDETRを各フレームに適用し、Query Matching Module(QMM)で同一人物クエリを時系列で対応付けることで、クリップ分割の前処理やIoUリンクの後処理なしに直接アクションチューブを生成する手法を提案し、精度と効率性を両立しました。
Takumi Fukuzawa, Kensho Hara, Hirokatsu Kataoka, Toru Tamaki, Can masking background and object reduce static bias for zero-shot action recognition?, The 31th International Conference on MultiMedia Modeling (MMM2025), Nara, Japan, Jan. 8-10, 2025. [PDF] [Poster] [https://doi.org/10.1007/978-981-96-2071-5_27] [arXiv]
この論文では、CLIPなどのゼロショット動作認識モデルが背景や物体といった静的要素(静的バイアス)に頼りすぎる問題に着目し、背景や物体を学習時にマスクする手法を提案しました。これにより、モデルが行動そのものに注目し、Kinetics400・Mimetics・SSv2などで精度が改善されることを示しました。
丁寧, 藤井慶輔, 多視点ドローン映像からのバドミントンダブルスのコントロール領域の推定, 画像ラボ, Vol.36, No.2, pp.45-50, 2025.
Kazuki Omi, Jion Oshima, Toru Tamaki, Action tube generation by person query matching for spatio-temporal action detection, arXiv:2503.12969, 2025.
Takumi Fukuzawa, Kensho Hara, Hirokatsu Kataoka, Toru Tamaki, Can masking background and object reduce static bias for zero-shot action recognition?, arXiv:2501.12681, 2025.
杉浦大輝, 玉木徹, 人物姿勢推定を用いたアモーダル人物セグメンテーション, vol. 124, no. 373, IE2024-86, pp. 242-247, 電子情報通信学会画像工学研究会(IE)2025年2月研究会, 2025/2/18-19, 北海道大学, 北海道. [PDF] [slide]
大島慈温, 玉木徹, 丁寧, 姿勢情報を用いたラケットスポーツ映像中のヒット時刻検出手法, 第31回画像センシングシンポジウム(SSII2025), 2025/5/28-30, 東京ビッグサイト, 東京. [Poster] [PDF]
髙間勇作, 丁寧, 横田達也, 玉木徹, マルチドメイン学習のための共有・固有LoRAの分離学習手法, 第31回画像センシングシンポジウム(SSII2025), 2025/5/28-30, 東京ビッグサイト, 東京. [Poster] [PDF]
小林優斗, 丁寧, 玉木徹, 動作認識における静的バイアス低減のための静的情報と動的情報の分離, 第31回画像センシングシンポジウム(SSII2025), 2025/5/28-30, 東京ビッグサイト, 東京. [Poster] [PDF] [Slide]
杉本拓也, 丁寧, 玉木徹, Edge検出を併用した動作認識と正規化モーメント交換によるドメイン適応, 第31回画像センシングシンポジウム(SSII2025), 2025/5/28-30, 東京ビッグサイト, 東京. [Poster] [PDF]
志水秀熙, 玉木徹, CLIPによる複数データセット学習のための共有・固有プロンプトとアダプタの同時学習, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
杉浦大輝, 玉木徹, 人物姿勢推定を用いたアモーダル人物セグメンテーション, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
村川卓也, 丁寧, 玉木徹, M3DDMによるvideo outpainting結果の改善方法の検討, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
高木洋徳, 丁寧, 玉木徹, VLM を用いた動画データセットに対する動作対象物体ラベルのアノテーション, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
水野翼, 丁寧, 玉木徹, Hard Prompt Tuningを利用したZero-shot学習のためのカテゴリ名の自動最適化, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
神谷広大, 玉木徹, オンライン動画学習のためのdd-CRPを用いた時間的マルチスケールMeMViT, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
丁寧, 藤井慶輔, 玉木徹, 戦術理解に向けたバドミントン映像のマルチスケールキャプショニング, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
福沢匠, 丁寧, 玉木徹, 動作認識のためのVideoMAE特徴量の動的表現と静的表現の分離, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
堀史門, 丁寧, 玉木徹, 物体検出器の拡張による人物・物体・画像の相互関係を考慮した時空間動作検出, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
細谷優, 玉木徹, 特徴量シフトを用いたクエリベースの Open-Vocabulary 時空間動作検出, 第28回画像の認識・理解シンポジウム(MIRU2025), 2025/7/29〜8/1, 国立京都国際会館, 京都. [poster] [PDF]
Jion Oshima, Toru Tamaki, Ding Ning, Hit Timing Detection in Badminton Videos Using Player Posture Information, NU Sports ML Workshop 2025, July 24-25, 2025, Nagoya University, Nagoya, Japan.
Tetsushi Koide, Masayuki Odagawa, Toru Tamaki, Shigeto Yoshida, Shiro Oka, Shinji Tanaka, A Real-Time Computer-Aided Diagnosis System with Quantitative Staging on Customizable Embedded Digital Signal Processor, Chapter 16, 22 pages, in Biomedical Engineering; Imaging Systems, Electric Devices, and Medical Materials, 1st Edition, Jenny Stanford Publishing, 404 pages, 2024/4/12, eBook ISBN9781003464044 [https://doi.org/10.1201/9781003464044] [出版社webサイト]
Tomoya Nitta, Takumi Fukuzawa, Toru Tamaki, Fine-grained length controllable video captioning with ordinal embeddings, IEEE Access, Vol.12, pp. 189667-189688, 2024. [PDF] [https://doi.org/10.1109/ACCESS.2024.3506751] [online demo] [code & checkpoint]
動画の内容を説明するキャプション文の長さを自由に細かく調整できる手法を提案しました.特に提案する順序埋め込みベクトル表現を使って,単語数だけでなく読み上げ時間も制御可能にしました.
杉浦大輝, 玉木徹, セグメンテーションと画像変換を用いた動作認識のためのデータ拡張, 画像ラボ, Vol.35, No.6, pp.7-15, 2024.
Itsuki Kato, Kodai Kamiya, Toru Tamaki, Online Pre-Training with Long-Form Videos, 2024 IEEE 13th Global Conference on Consumer Electronics (GCCE 2024), Kokura, Japan, Oct. 29-Nov. 1, 2024. [arXiv] [PDF] [Poster] [https://doi.org/10.1109/GCCE62371.2024.10760638]
この論文では、長時間の未編集動画(ライブ配信など)を連続クリップとしてそのまま使い、オンライン自己教師付き学習で事前学習する手法を提案しました。マスク画像モデリング、対照学習、知識蒸留の3手法を比較した結果、対照学習を用いた事前学習が下流タスクである短動画の行動認識タスクで最も効果的であることを示しました 。
Taiki Sugiura, Toru Tamaki, S3Aug: Segmentation, Sampling, and Shift for Action Recognition, 19th International Conference on Computer Vision Theory and Applications (VISAPP2024), Vol.2, pp. 71-91, 2024. ISBN 978-989-758-679-8, ISSN 2184-4321, DOI: 10.5220/0012310400003660, Rome, Italy, 27-29 Feburary 2024. [arXiv] [DOI: 10.5220/0012310400003660] [slide]
この論文では、S3Augという新しい動画データ拡張手法を提案しました。1本の訓練動画をセグメンテーションし、ラベル画像を変換・サンプリングして多様な動画を生成し、さらに特徴量を時系列シフトにより時空間の連続性を保つことで、動作認識タスクにおいて、特に文脈が異なる動画でも性能を向上させています。
Kodai Kamiya, Toru Tamaki, Multi-model learning by sequential reading of untrimmed videos for action recognition, The International Workshop on Frontiers of Computer Vision (IW-FCV2024), Tokyo, Japan, Feb. 19-21, 2024. [arXiv] [slide]
この論文では、長い動画を連続する短いクリップに分割し、複数のモデルに順番に学習させつつ、連合学習の手法を用いて情報を同期することで、クリップ間の重複を減らし、動作認識性能を高める手法を提案しています。
Yongfei Wu, Daisuke Katayama, Tetsushi Koide, Toru Tamaki, Shigeto Yoshida, Shin Morimoto, Yuki Okamoto, Shiro Oka, Shinji Tanaka, A Real-time Full-screen Diagnostic Support Method with Simultaneous Detecting and Classifying for Colonoscopy Lesion Areas, 2024 International Technical Conference on Circuits/Systems, Computers, and Communications (ITC-CSCC2024), OIST, Okinawa, Japan, 2024/7/2-5, pp. 1-6, doi: 10.1109/ITC-CSCC62988.2024.10628275.
Tomoya Nitta, Takumi Fukuzawa, Toru Tamaki, Fine-grained length controllable video captioning with ordinal embeddings, arXiv:2408.15447, 2024.
Itsuki Kato, Kodai Kamiya, Toru Tamaki, Online Pre-Training With Long-Form Videos, arXiv:2408.15651, 2024.
Kodai Kamiya, Toru Tamaki, Multi-model learning by sequential reading of untrimmed videos for action recognition, arXiv:2401.14675, 2024.
Shimon Hori, Kazuki Omi, Toru Tamaki, Query matching for spatio-temporal action detection with query-based object detector, arXiv:2409.18408, 2024.
Tsubasa Mizuno, Toru Tamaki, Shift and matching queries for video semantic segmentation, https://arxiv.org/abs/2410.07635, 2024.
丁寧, 武田一哉, Jin Wenhui, Bei Yingjiu, 藤井慶輔, 多視点ドローン映像からの姿勢情報を用いたバドミントンダブルスの最適ポジショニングの推定, 第30回画像センシングシンポジウム(SSII2024), 2024/6/12-14, パシフィコ横浜, 神奈川. [poster] [PDF]
加藤樹, 玉木徹, 長時間動画のオンライン事前学習方法の検討, 第30回画像センシングシンポジウム(SSII2024), 2024/6/12-14, パシフィコ横浜, 神奈川. [poster] [PDF] [slide]
堀史門, 大見一樹, 玉木徹, フレーム間のクエリマッチングを用いた物体検出モデルの時空間動作検出への拡張, 第30回画像センシングシンポジウム(SSII2024), 2024/6/12-14, パシフィコ横浜, 神奈川. [poster] [PDF]
水野翼, 玉木徹, 画像セマンティックセグメンテーションの動画像への効率的な拡張, 第30回画像センシングシンポジウム(SSII2024), 2024/6/12-14, パシフィコ横浜, 神奈川. [poster] [PDF]
福沢匠, 原健翔, 片岡裕雄, 玉木徹, 静的バイアスの強弱に関わらないZero-shot動作認識手法の検討, 第30回画像センシングシンポジウム(SSII2024), 2024/6/12-14, パシフィコ横浜, 神奈川. [poster] [PDF] [slide]
呉泳飛, 片山大輔, 小出哲士, 玉木徹, 吉田成人, 森元晋, 岡本由貴, 岡志郎, 田中信治, 大腸内視鏡検査における病変領域検出と分類を行うリアルタイム全画面診断支援手法, 第30回画像センシングシンポジウム(SSII2024), 2024/6/12-14, パシフィコ横浜, 神奈川. [PDF]
大見一樹, 玉木徹, 時空間アクション検出のための人物クエリのマッチングによるアクションチューブ生成, 第27回 画像の認識・理解シンポジウム (MIRU2024), 2024/8/6-9, 熊本城ホール, 熊本. [poster] [PDF]
木全潤, 玉木徹, 動作認識における複数データセット学習のための固有LoRAと共有LoRA, 第27回 画像の認識・理解シンポジウム (MIRU2024), 2024/8/6-9, 熊本城ホール, 熊本. [poster] [PDF]
橋口凌大, 玉木徹, 動作区間検出データセットの動作区間長に応じたノイズ除去, 第27回 画像の認識・理解シンポジウム (MIRU2024), 2024/8/6-9, 熊本城ホール, 熊本. [poster] [PDF]
仁田智也, 玉木徹, 動画の説明文生成における長さ制御のための埋め込みとその解析, 第27回 画像の認識・理解シンポジウム (MIRU2024), 2024/8/6-9, 熊本城ホール, 熊本. [poster] [PDF]
大島慈温, 堀史門, 玉木徹, 時空間動作検出のための人物クエリマッチングの AVA データセットに対する性能評価, 第27回 画像の認識・理解シンポジウム (MIRU2024), 2024/8/6-9, 熊本城ホール, 熊本. [poster] [PDF]
志水秀熙, 玉木徹, CLIPを用いた複数データセット学習のための固有プロンプトと共有プロンプト, 令和6年度電気・電子・情報関係学会 東海支部連合大会, 2024/8/28-29, 岐阜大学, 岐阜. [slide] [PDF]
小林優斗, 丁寧, 玉木徹, Temporal Action LocalizationにおけるCLIPとX-CLIPの比較, 令和6年度電気・電子・情報関係学会 東海支部連合大会, 2024/8/28-29, 岐阜大学, 岐阜. [slide] [PDF]
神谷広大, 志水秀熙, 玉木徹, MeMViT の時間方向へのマルチスケール拡張, 第23回情報科学技術フォーラム(FIT2024), 2024/9/4-6, 広島工業大学, 広島. [slide] [PDF]
細谷優, 堀史門, 玉木徹, Open-Vocabulary物体検出モデルの時空間動作検出への拡張, 第23回情報科学技術フォーラム(FIT2024), 2024/9/4-6, 広島工業大学, 広島. [slide] [PDF]
杉浦大輝, 玉木徹, アモーダルセグメンテーションを用いた オクルージョン下の人物姿勢推定, ビジョン技術の実利用ワークショップ(ViEW2024), 2024/12/5-6, パシフィコ横浜, 神奈川. [PDF] [poster]
神谷広大, 志水秀熙, 玉木徹, オンライン動画学習のための時間的マルチスケールMeMViT, ビジョン技術の実利用ワークショップ(ViEW2024), 2024/12/5-6, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
細谷優, 堀史門, 玉木徹, 特徴量シフトを用いたクエリベースのOpen-Vocabulary時空間動作検出, ビジョン技術の実利用ワークショップ(ViEW2024), 2024/12/5-6, パシフィコ横浜, 神奈川. [PDF] [poster]
志水秀熙, 玉木徹, 複数データセット学習のためのCLIP のプロンプト学習とアダプタの併用, ビジョン技術の実利用ワークショップ(ViEW2024), 2024/12/5-6, パシフィコ横浜, 神奈川. [PDF] [poster]
玉木徹, 時空間情報を活用する動画像理解AI技術, 第17回 Nagoyaオープンイノベーション研究会(N-ova), 名古屋工業大学, 愛知, 2024/9/25. [slide]
玉木徹, 動画像符号化と動作認識, 2024年度画像符号化シンポジウム(PCSJ 2024)& 2024年度映像メディア処理シンポジウム(IMPS 2024), 2024/11/25-27, 御殿場高原ホテル, 静岡. [slide]
ラジオFM AICHI「中電シーティーアイWelcome Generation」, 研究室紹介
FM AICHI / 5月30日(木)20:30 ~ 21:00
e-radio・エフエム滋賀 / 5月30日(木)20:00 ~ 20:30
HELLO FIVE・エフエム石川 / 6月1日(土)20:00 ~ 20:30
Tomoya Nitta, Tsubasa Hirakawa, Hironobu Fujiyoshi, Toru Tamaki, Object-ABN: Learning to Generate Sharp Attention Maps for Action Recognition, IEICE Transactions on Information and Systems, Vol.E106-D, No.3, pp.391-400, 2023. DOI: 10.1587/transinf.2022EDP7138 [https://doi.org/10.1587/transinf.2022EDP7138] [PDF] [arXiv:2207.13306]
スク損失で注目領域(アテンションマップ)をよりシャープに生成する手法Object-ABNを提案しています。これにより動作認識タスクにおいて、視覚的な説明性が向上し、UCF101やSSv2のベンチマークでの性能も改善しました。
橋口凌大, 玉木徹, 効率的な動作認識のためのシフトによる時間的な相互アテンションを用いたVision Transformer, 画像ラボ, Vol.34, No.5, pp.9-16, 2023.
Shuki Shimizu, Toru Tamaki, Joint learning of images and videos with a single Vision Transformer, 18th International Conference on Machine Vision Applications (MVA2023), Hamamatsu, Japan, 23-25 July 2023. DOI: 10.23919/MVA57639.2023.10215661 [IEEE open access] [poster] [arXiv:2308.10533] [GitHub]
この論文では、画像と動画の両方を、1つのVision Transformer(IV‑ViT)モデルでまとめて学習できる手法を提案しました。画像は通常通り入力し、動画は複数フレームを取り込んだ後にlate fusionで扱うことで、画像認識と動作認識の両方に対応可能な単一モデルを実現し、画像・動画両方のデータセットで効果を示しています。
Taiki Sugiura, Toru Tamaki, S3Aug: Segmentation, Sampling, and Shift for Action Recognition, arxiv:2310.14556, 2023.
Shuki Shimizu, Toru Tamaki, Joint learning of images and videos with a single Vision Transformer, arXiv:2308.10533, 2023.
福沢匠, 細谷優, 玉木徹, キャプション生成を用いたzero-shot動作認識, 画像の認識・理解シンポジウム2023(MIRU2023), 2023/7/25-28, アクトシティ浜松, 静岡. [PDF] [poster]
細谷優, 玉木徹, 動作内容を表すカテゴリ文を用いた zero-shot 動作認識, 第29回画像センシングシンポジウム(SSII2023), 2023/6/14-16, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
神谷広大, 玉木徹, 逐次読み込みによる動作認識のための複数モデル学習, 第29回画像センシングシンポジウム(SSII2023), 2023/6/14-16, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
杉浦大輝, 玉木徹, セグメンテーションと画像生成を用いた 動作認識のためのデータ拡張, 第29回画像センシングシンポジウム(SSII2023), 2023/6/14-16, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
志水秀熙, 玉木徹, 単一モデルを用いた画像と動画の同時学習, 第29回画像センシングシンポジウム(SSII2023), 2023/6/14-16, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
木全潤, 志水秀熙, 玉木徹, マルチドメイン動作認識のための重み付け手法の実験的検討, 第29回画像センシングシンポジウム(SSII2023), 2023/6/14-16, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
橋口凌大, 細谷優, 玉木徹, 動作認識タスクにおけるラベルノイズの解析, 第29回画像センシングシンポジウム(SSII2023), 2023/6/14-16, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
呉泳飛, 片山大輔, 小出哲士, 玉木徹, 吉田成人, 森元晋, 岡本由貴, 岡志郎, 田中信治, 大腸NBI内視鏡における診断支援のための 2ステージ 病変識別システム, 第29回画像センシングシンポジウム(SSII2023), 2023/6/14-16, パシフィコ横浜, 神奈川.
片山大輔, 呉泳飛, 小出哲士, 玉木徹, 吉田成人, 森元晋, 岡本由貴, 岡志郎, 田中信治, 大腸内視鏡診断支援のための単一FCNによる詳細な推論結果の提示が可能なCADシステムの開発, 第29回画像センシングシンポジウム(SSII2023), 2023/6/14-16, パシフィコ横浜, 神奈川.
細谷優, 玉木徹, 動作内容を表すカテゴリ文を用いた zero-shot 動作認識, 情報処理学会コンピュータビジョンとイメージメディア研究会(CVIM研究会), 2023年5月研究会, 2023/5/18-19, 名古屋工業大学, 愛知. [PDF] [poster] [slide]
神谷広大, 玉木徹, 逐次読み込みによる動作認識のための複数モデル学習, 情報処理学会コンピュータビジョンとイメージメディア研究会(CVIM研究会), 2023年5月研究会, 2023/5/18-19, 名古屋工業大学, 愛知. [PDF] [poster] [slide]
杉浦大輝, 玉木徹, セグメンテーションと画像生成を用いた 動作認識のためのデータ拡張, 情報処理学会コンピュータビジョンとイメージメディア研究会(CVIM研究会), 2023年5月研究会, 2023/5/18-19, 名古屋工業大学, 愛知. [PDF] [poster] [slide]
志水秀熙, 玉木徹, 単一モデルを用いた画像と動画の同時学習, 情報処理学会コンピュータビジョンとイメージメディア研究会(CVIM研究会), 2023年5月研究会, 2023/5/18-19, 名古屋工業大学, 愛知. [PDF] [poster] [slide]
Toru Tamaki, Daisuke Kayatama, Yongfei Wu, Tetsushi Koide, Shigeto Yoshida, Shin Morimoto, Yuki Okamoto, Shiro Oka, Shinji Tanaka, Visualization Algorithms of Colorectal NBI Endoscopy Images for Computer-aided Diagnosis, The 8th International Symposium on Biomedical Engineering & International Workshop on Nanodevice Technologies 2023, November 21-22, 2023, Hiroshima University, Japan.
Yongfei Wu, Daisuke Katayama, Tetsushi Koide, Toru Tamaki, Shigeto Yoshida, Shin Morimoto, Yuki Okamoto, Shiro Oka, Shinji Tanaka, Masayuki Odagawa, Toshihiko Sugihara, A Lesion Recognition System Using Single FCN for Indicating Detailed Inference Results in Colon NBI Endoscopy, The 8th International Symposium on Biomedical Engineering & International Workshop on Nanodevice Technologies 2023, November 21-22, 2023, Hiroshima University, Japan.
Yongfei Wu, Daisuke Katayama, Tetsushi Koide, Toru Tamaki, Shigeto Yoshida, Shin Morimoto, Yuki Okamoto, Shiro Oka, Shinji Tanaka, Masayuki Odagawa, Toshihiko Sugihara, A Two-Stage Real Time Diagnosis System for Lesion Recognition in Colon NBI Endoscopy, The 8th International Symposium on Biomedical Engineering & International Workshop on Nanodevice Technologies 2023, November 21-22, 2023, Hiroshima University, Japan.
福沢匠, 産総研/cvpaper.challengeインターン体験記, cvpaper.challenge Advent Calendar 2023, 2023/12/2.
大見一樹, 2022年度学生研究奨励事業, 名古屋工業大学基金, 2023/3.
大見一樹, IEEE名古屋支部優秀学生賞 (IEEE Nagoya Section, Excellent student Award), IEEE名古屋支部, 2023/3/23.
大見一樹, 優秀論文賞, DEIM2023 第15回データ工学と情報マネジメントに関するフォーラム(第21回日本データベース学会年次大会), 2023/3/5-9, 長良川国際会議場, 岐阜.
大見一樹, 学生プレゼンテーション賞, DEIM2023 第15回データ工学と情報マネジメントに関するフォーラム(第21回日本データベース学会年次大会), 2023/3/5-9, 長良川国際会議場, 岐阜.
玉木徹, 小出哲士, 吉田成人, 下部拡大内視鏡(NBI)AI ②, Chapter 12, 内視鏡画像AI(医療AIとディープラーニングシリーズ), コロナ社, ISBN 978-4274225642, 250 pages, 2022/11/5. [出版社web] [Amazon]
Kazuki Omi, Jun Kimata, Toru Tamaki, Model-agnostic Multi-Domain Learning with Domain-Specific Adapters for Action Recognition, IEICE Transactions on Information and Systems, Vol.E105-D, No.12, pp.2119-2126, 2022. [https://doi.org/10.1587/transinf.2022EDP7058] [PDF] [arXiv:2204.07270]
Aoi Otani, Ryota Hashiguchi, Kazuki Omi, Norishige Fukushima, Toru Tamaki, Performance Evaluation of Action Recognition Models on Low Quality Videos, IEEE Access, Vol.10, pp. 94898-94907, 2022. [https://doi.org/10.1109/ACCESS.2022.3204755] [PDF] [arXiv:2204.09166]
Masayuki Odagawa, Takumi Okamoto, Tetsushi Koide, Toru Tamaki, Shigeto Yoshida, Hiroshi Mieno, Shinji Tanaka, Classification with CNN features and SVM on Embedded DSP Core for Colorectal Magnified NBI Endoscopic Video Image. IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences, Volume E105-A, Issue 1, pp.25-34, 2022. [https://doi.org/10.1587/transfun.2021EAP1036] [PDF]
Masayuki Odagawa, Tetsushi Koide, Toru Tamaki, Shigeto Yoshida, Hiroshi Mieno, Shinji Tanaka, Feasibility Study for Computer-Aided Diagnosis System with Navigation Function of Clear Region for Real-Time Endoscopic Video Image on Customizable Embedded DSP Cores. IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences, E105-A, Issue 1, pp.58-62, 2022. [https://doi.org/10.1587/transfun.2021EAL2044] [PDF]
Yuki Okamoto, Shigeto Yoshida, Seiji Izakura, Daisuke Katayama, Ryuichi Michida, Tetsushi Koide, Toru Tamaki, Yuki Kamigaichi, Hirosato Tamari, Yasutsugu Shimohara, Tomoyuki Nishimura, Katsuaki Inagaki, Hidenori Tanaka, Ken Yamashita, Kyoku Sumimoto, Shiro Oka, Shinji Tanaka, Development of multi-class computer-aided diagnostic systems using the NICE/JNET classifications for colorectal lesions, Journal of Gastroenterology and Hepatology, Volume37, Issue1, pp.104-110, 2022. [https://doi.org/10.1111/jgh.15682] [PDF]
Ryota Hashiguchi, Toru Tamaki, Temporal Cross-attention for Action Recognition, ACCV2022 Workshop on Vision Transformers: Theory and applications (VTTA-ACCV2022), pp.276-288, Online, 2022/12/4-5. [CVF open access] [PDF] [slide] [LNCS] [https://doi.org/10.1007/978-3-031-27066-6_20] [arXiv:2204.0045] [github]
Jun Kimata, Tomoya Nitta, Toru Tamaki, ObjectMix: Data Augmentation by Copy-Pasting Objects in Videos for Action Recognition, ACM MM Asia 2022 (MMAsia '22), Tokyo, Japan/Online, 13-16 December, 2022. [https://doi.org/10.1145/3551626.3564941] [PDF] [poster] [slide] [arXiv:2204.00239]
Kazuki Omi, Toru Tamaki, On the Instability of Unsupervised Domain Adaptation with ADDA, International Workshop on Advanced Image Technology (IWAIT2022), Proc. of SPIE Vol. 121771X, Hong Kong/Online, 4-6 January, 2022. [https://doi.org/10.1117/12.2625953] [PDF] [poster]
Shoma Kato, Akira Kito, Toru Tamaki and Hiroaki Sawano, Estimating the number of Table Tennis Rallies in a Match Video, International Workshop on Advanced Image Technology (IWAIT2022), Proc. SPIE 12177, Hong Kong/Online, 4-6 January, 2022. [https://doi.org/10.1117/12.2625945]
Daisuke Katayama , Yongfei Wu , Ryuichi Michida, Tetsushi Koide , Toru Tamaki , Shigeto Yoshida , Yuki Okamoto , Shiro Oka , Shinji Tanaka, An Endoscopic image Classifier Using Deep Learning Considering Progression of Colorectal Cancer, 2022 37th International Technical Conference on Circuits/Systems, Computers and Communications (ITC-CSCC), 05-08 July 2022. [https://doi.org/10.1109/ITC-CSCC55581.2022.9894870] [PDF]
Yongfei Wu, Daisuke Katayama, Ryuichi Michida, Tetsushi Koide , Toru Tamaki , Shigeto Yoshida , Yuki Okamoto , Shiro Oka , Shinji Tanaka, A U-Net Based Lesion Segmentation Method for Computer-Aided Diagnosis in Colorectal NBI Endoscopy, 2022 37th International Technical Conference on Circuits/Systems, Computers and Communications (ITC-CSCC), 05-08 July 2022. [https://doi.org/10.1109/ITC-CSCC55581.2022.9895039] [PDF]
Tomoya Nitta, Tsubasa Hirakawa, Hironobu Fujiyoshi, Toru Tamaki, Object-ABN: Learning to Generate Sharp Attention Maps for Action Recognition, arXiv:2207.13306, 2022.
Ryota Hashiguchi, Toru Tamaki, Vision Transformer with Cross-attention by Temporal Shift for Efficient Action Recognition, arXiv:2204.0045, 2022.
Jun Kimata, Tomoya Nitta, Toru Tamaki, ObjectMix: Data Augmentation by Copy-Pasting Objects in Videos for Action Recognition, arXiv:2204.00239, 2022.
Aoi Otani, Ryota Hashiguchi, Kazuki Omi, Norishige Fukushima, Toru Tamaki, On the Performance Evaluation of Action Recognition Models on Transcoded Low Quality Videos, arXiv:2204.09166, 2022.
Kazuki Omi, Toru Tamaki, Model-agnostic Multi-Domain Learning with Domain-Specific Adapters for Action Recognition, arXiv:2204.07270, 2022.
玉木徹, 動作認識の最前線:手法,タスク,データセット, 精密工学会 画像応用技術専門委員会(IAIP) 2022年度第4回定例研究会, 中央大学, 東京・オンライン, 2022/11/18. [SlideShare] [PDF]
木全潤, 仁田智也, 玉木 徹, ObjectMix:動画像中の物体のコピー・ペーストによる動作認識のためのデータ拡張, 第28回画像センシングシンポジウム(SSII2022), 2022/6/8-10, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
橋口凌大, 玉木 徹, 効率的な動作認識のためのシフトによる時間的な相互アテンションを用いたVision Transformer, 第28回画像センシングシンポジウム(SSII2022), 2022/6/8-10, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
仁田智也, 平川翼, 藤吉弘亘, 玉木徹, Object-ABN:動作認識のためのシャープなアテンションマップ生成, 第28回画像センシングシンポジウム(SSII2022), 2022/6/8-10, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
大谷碧生, 大見一樹, 橋口凌大, 福嶋慶繁, 玉木徹, 動画像の画質劣化に対する動作認識モデルの評価, 第28回画像センシングシンポジウム(SSII2022), 2022/6/8-10, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
大見一樹, 玉木徹, 時空間アダプタを用いた動作認識のためのマルチドメイン学習, 第28回画像センシングシンポジウム(SSII2022), 2022/6/8-10, パシフィコ横浜, 神奈川. [PDF] [poster] [slide]
呉泳飛, 片山大輔, 道田竜一, 小出哲士, 玉木徹, 吉田成人, 岡本由貴, 岡志郎, 田中信治, 大腸NBI内視鏡におけるコンピュータ支援診断のためのFully Convolutional Networkを用いた病変部位のセグメンテーション法, 第28回画像センシングシンポジウム(SSII2022), 2022/6/8-10, パシフィコ横浜, 神奈川.
片山大輔, 呉泳飛, 道田竜一, 小出哲士, 玉木徹, 吉田成人, 岡本由貴, 岡志郎, 田中信治, 深層学習を用いたNICE/JNET分類に基づく大腸内視鏡画像診断支援の一手法, 第28回画像センシングシンポジウム(SSII2022), 2022/6/8-10, パシフィコ横浜, 神奈川.
仁田智也, 平川翼, 藤吉弘亘, 玉木徹, インスタンスセグメンテーションを用いたシャープなアテンションマップ生成による動作認識, 情報処理学会コンピュータビジョンとイメージメディア研究会(CVIM研究会), 2022年5月研究会, 2022/5/12-13, 豊田工業大学, 愛知. [PDF] [poster] [slide] [http://id.nii.ac.jp/1001/00217709/]
Taiki Sugiura, Toru Tamaki, Action recognition with generated sequences, The 7th International Symposium on Biomedical Engineering (ISBE2022) 第7回 生体医歯工学共同研究拠点 国際シンポジウム, online, 2022/11/25.
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明, 放送用卓球映像におけるラリー回数の自動推定, 第20回情報学ワークショップ(WiNF), 愛知工業大学, 愛知, 2022/12/17.
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明, 垂直方向ラリーの卓球映像におけるラリー回数計測手法の提案, 映像情報メディア学会スポーツ情報処理研究会(SIP), 名古屋工業大学, 愛知, 2022/12/7.
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明, 卓球映像中の選手の死角における打球コース推定手法の提案, 映像情報メディア学会 2022年冬季大会, 東京理科大学, 東京・オンライン, 2022/12/22-23.
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明, 垂直方向ラリーの卓球映像における打球推定手法の提案, 情報処理学会第84回全国大会, 愛媛大学城北キャンパス・オンライン, 2022/3/3-5. [学生奨励賞] [http://id.nii.ac.jp/1001/00220931/]
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明, 卓球競技映像におけるスイング動作区間推定手法の提案, 令和四年度 電気・電子・情報関係学会 東海支部連合大会, オンライン, 2022/8/29-30.
原健翔, 橋口凌大, 篠田理沙, 斎藤巧真, 近藤拓未, 【メタサーベイ】Video Transformer, cvpaper.challengeメタサーベイ, 2022. [slide]
スタンフォード ベクトル・行列からはじめる最適化数学, 講談社, ISBN978-4065161968, Feb 2021. [出版社web] [Amazon.co.jp] [GitHub]
Tetsushi Koide, Toru Tamaki, Shigeto Yoshida, Shinji Tanaka. A Hierarchical Type Segmentation Hardware for Colorectal Endoscopic Images with Narrow-Band Imaging Magnification, Chapter 16, Biomedical Engineering, 1st Edition, Jenny Stanford Publishing, ISBN 9781003141945, 21 pages, 2021. [Publisher site]
Kazuki Fujimori, Bisser Raytchev, Kazufumi Kaneda Yasufumi Yamada, Yu Teshima, Emyo Fujioka, Shizuko Hiryu, Toru Tamaki. Localization of Flying Bats from Multichannel Audio Signals by Estimating Location Map with Convolutional Neural Networks, Journal of Robotics and Mechatronics, Vol. 33 No. 3, pp. 515-525, 2021. [https://doi.org/10.20965/jrm.2021.p0515] [PDF]
Masayuki Odagawa, Takumi Okamoto, Tetsushi Koide, Toru Tamaki, Bisser Raytchev, Kazufumi Kaneda, Shigeto Yoshida, Hiroshi Mieno, Shinji Tanaka, Takayuki Sugawara, Hiroshi Toishi, Masayuki Tsuji, Nobuo Tamba, A Hardware Implementation on Customizable Embedded DSP Core for Colorectal Tumor Classification with Endoscopic Video toward Real-Time Computer-Aided Diagnosais System, IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences, Vol. E104-A(4), pp. 691-701, 2021. [https://doi.org/10.1587/transfun.2020EAP1069] [PDF]
Wataru Fuji, Bisser Raytchev, Kazufumi Kaneda, Toru Tamaki. p-TSM: Learning to shift temporal features point-wise for action recognition, The 27th International Workshop on Frontiers of Computer Vision (IW-FCV), PS1-4, 2021/2/22-23. [poster] [PDF]
Komiki Maruyama, Bisser Raytchev, Kazufumi Kaneda, Toru Tamaki. Weakly supervised temporal action localization with additional sub networks for local spatial information, The 27th International Workshop on Frontiers of Computer Vision (IW-FCV), PS1-7, 2021/2/22-23. [poster] [PDF]
Sora Iwamoto, Bisser Raytchev, Toru Tamaki, Kazufumi Kaneda, Improving the Reliability of Semantic Segmentation of Medical Images by Uncertainty Modeling with Bayesian Deep Networks and Curriculum Learning. UNSURE/PIPPI@MICCAI 2021: 34-43 [arXiv PDF] [Springer Link]
Ryuichi Michida, Daisuke Katayama, Izakura Seiji, Yongfei Wu, Tetsushi Koide, Shinji Tanaka, Yuki Okamoto, Hiroshi Mieno, Toru Tamaki, Shigeto Yoshida, A Lesion Classification Method Using Deep Learning Based on JNET Classification for Computer-Aided Diagnosis System in Colorectal Magnified NBI Endoscopy, 2021 36th International Technical Conference on Circuits/Systems, Computers and Communications (ITC-CSCC), 27-30 June 2021. [https://doi.org/10.1109/ITC-CSCC52171.2021.9501420] [PDF]
Daisuke Katayama, Ryuichi Michida, Seiji Izakura, Yongfei Wu, Tetsushi Koide, Shinji Tanaka, Yuki Okamoto, Hiroshi Mieno, Toru Tamaki, Shigeto Yoshida, A Lesion Classification Method Using Deep Learning Based on NICE Classification for Computer-Aided Diagnosis System in Colorectal NBI Endoscopy,, 2021 36th International Technical Conference on Circuits/Systems, Computers and Communications (ITC-CSCC), 27-30 June 2021. [https://doi.org/10.1109/ITC-CSCC52171.2021.9501264] [PDF]
丸山虎実輝, Bisser Raychev, 金田和文, 玉木徹, 弱教師ありのアクション区間検出のためのプロトタイプを用いた説明可能なネットワーク, 第24回 画像の認識・理解シンポジウム (MIRU2021), オンライン, 2021/7/27-30. [PDF]
藤井渉, Bisser Raytchev, 金田和文, 玉木徹, 動作認識のための時空間特徴における時間的相互作用, 第24回 画像の認識・理解シンポジウム (MIRU2021), オンライン, 2021/7/27-30. [PDF]
加藤祥真, 鬼頭明, 玉木徹, 澤野弘明, 卓球競技映像におけるラリー回数の推定, 令和三年度 電気・電子・情報関係学会 東海支部連合大会, オンライン, 2021/9/7-8.
玉木徹, 招待講演 深層学習を用いた映像解析, (公財)科学技術交流財団 第2回多結晶材料情報学応用技術研究会, 2021/9/27.
Kento Terao, Toru Tamaki, Bisser Raytchev, Kazufumi Kaneda, Shin’ichi Satoh. An Entropy Clustering Approach for Assessing Visual Question Difficulty, IEEE Access, vol. 8, pp. 180633-180645, 2020. [https://ieeexplore.ieee.org/document/9187418] [PDF] [Data on GitHub]
Kento Terao, Toru Tamaki, Bisser Raytchev, Kazufumi Kaneda, Shin'ichi Satoh. Rephrasing visual questions by specifying the entropy of the answer distribution, IEICE TRANSACTIONS on Information and Systems, Vol.E103-D, No.11, pp.2362-2370, Nov. 2020. [https://doi.org/10.1587/transinf.2020EDP7089] [PDF]
Kento Terao, Toru Tamaki, Bisser Raytchev, Kazufumi Kaneda, Shun'ichi Satoh, Which visual questions are difficult to answer? Analysis with Entropy of Answer Distributions, Visual Question Answering and Dialog Workshop at CVPR 2020, online, June 14 2020. [arXiv PDF] [video]
Masayuki Odagawa, Takumi Okamoto, Tetsushi Koide, Shigeto Yoshida, Hiroshi Mieno, Toru Tamaki, Bisser Raytchev, Kazufumi Kaneda, Shinji Tanaka. Classification Method with CNN features and SVM for Computer-Aided Diagnosis System in Colorectal Magnified NBI Endoscopy, 2020 IEEE REGION 10 CONFERENCE (TENCON), Osaka, Japan, pp. 1095-1100 (2020.11.16-19). [https://doi.org/10.1109/TENCON50793.2020.9293709] [PDF]
丸山虎実輝, 玉木徹, Bisser Raychev, 金田和文. Weakly supervised temporal action localization with spatial information, 第23回 画像の認識・理解シンポジウム (MIRU2020), オンライン 2020/8/2-5. [PDF]
藤井渉, 玉木徹, Bisser Raytchev, 金田和文. Learning channels to shift for temporal shift module, 第23回 画像の認識・理解シンポジウム(MIRU2020), オンライン 2020/8/2-5. [PDF]
藤井渉, 玉木徹, Bisser Raytchev, 金田和文. Learning to shift temporal features with temporal shift module for action recognition, 第23回 画像の認識・理解シンポジウム(MIRU2020), オンライン 2020/8/2-5.