チュートリアル

MIRU2022では下記チュートリアル講演を実施します.詳細は追って追加します.ぜひご参加ください!

Pre-trained Transformerモデルの最前線

荒瀬 由紀

大阪大学大学院情報科学研究科

7月25日 13:00-14:30 @ 大ホール

座長:井上直人

多層の transformerレイヤからなるニューラルモデルを大規模テキストコーパスにより事前訓練したモデルは様々な言語処理タスクの性能を大きく改善し、自然言語処理分野にブレイクスルーをもたらしました。BERTに代表されるようにテキストをベクトル化するエンコーダモデルだけでなく、GPT-2のように言語生成を行えるデコーダ、T5のようにエンコーダ・デコーダ双方を備えたモデルも登場しています。これら pre-trained transformer モデルを所望のタスクに転移学習するアプローチは言語処理だけでなくコンピュータビジョン分野でも用いられるようになりました。本チュートリアルでは transformer モデルの基礎から pre-trained transformerモデルを各種タスクに転移学習する際の注意点、性能を最大限引き出すテクニックについて解説します。また近年活発に研究が進んでいる、事前学習済みモデルを固定し転移を可能とする少量の追加パラメータのみ訓練する軽量な転移学習アプローチについても紹介します。


テンソル分解の基礎と応用

横田達也

名古屋工業大学,理化学研究所(兼務)

[資料]

7月25日 14:40-16:10 @ 大ホール

座長:計良宥志

ベクトル・行列を1次元配列・2次元配列のように考えた時に、それを一般化した多次元配列のことをテンソルと呼びます。音声、画像、動画、MRI、PET、ハイパースペクトル画像、交通データ、製造データ、知識ベース、ソーシャルネットワーク、バイオインフォマティクスなどさまざまなデータをテンソルとして一般的に表現することができます。テンソルはこれら多次元配列データの分析に役立つ数学的な道具と言うことができます。本チュートリアルでは、テンソルの変形や掛け算などの基本的な演算、テンソル分解のモデルとアルゴリズム、そられの応用について解説したいと思います。また、近年盛んに研究されている深層学習モデル、特に畳み込みニューラルネットワークとの接点や、テンソルネットワークについても触れたいと思います。


文化財とコンピュータビジョン

川上玲

東京工業大学工学院

[資料]

7月25日 16:20-17:50 @ 大ホール

座長:八木拓真

文化財は古くからコンピュータビジョンの主要なアプリケーションの一つである。この先,世界的な情報の偏在化が予想されるが,そういった世界では各地の固有の文化やそれを体現する文化財の重要性がより評価されていくだろう。本チュートリアルでは、文化財を対象としたCV技術について、(1)デジタル化された情報を用いた文化財の解析、(2)天災や人災で失われた文化財の修復、(3)エンターテインメント,の三つの観点で,古典から最新の手法までを俯瞰する.