第15回最先端NLP勉強会
概要
自然言語処理分野のトップジャーナル・トップ会議であるTACL、ACL、EMNLP、NAACLと直近開催の関連会議(ICLR、ICML、CVPRなど)の論文の中から、参加者の投票によって選ばれた論文を各参加者が分担して紹介する論文読み会です。
勉強会の参加者は各自1本の論文を担当し、全体で30 - 50本程度の論文の紹介をします。
最新の魅力的な論文や分野の潮流について、世代・産学を超えて共有・議論することで、新たな研究の種が生まれることを本勉強会の狙いとしています。
候補論文リストや発表資料を公開することで、コミュニティへの専門的知見の共有を促します。
開催案内
勉強会
日程 8/27 (日), 28 (月)
会場 LODGE(Zホールディングスグループ; 旧Yahoo!LODGE)
〒102-8282 東京都千代田区紀尾井町1-3 東京ガーデンテラス紀尾井町 紀尾井タワー17階 (永田町駅直結, 赤坂見附駅徒歩1分)
無線LANあり.会場内飲食可(ただしコロナに留意のこと)
参加費 無料
懇親会
日程 8/27(日) 19:00-21:00 (1日目 夜)
会場 天空ビアガーデン&手ぶらBBQ 完全個室バル TOMBOY 赤坂店
〒107-0052 東京都港区赤坂3丁目10−1 赤坂田町通り 対翠館ビル 5F(LODGEから徒歩約11分)
参加費 学生:4,500円, 社会人:6,000円
当日現金で集金する予定です.ご準備をお願い致します.
重要日程
参加登録:6/27 (火)-7/10 (月)
候補論文のリストアップ:7/11(火)-7/18(火)(※ACL2023予稿は公開され次第追加)
「これは読むべき」な論文への投票:7/19(水)-7/30(日)
担当する論文への立候補:8/2(水) 12:00-8/7(月)
スライド提出:8/21(月)
勉強会:8/27(日), 28(月)
※締め切り時刻は特に指定がない場合日本時間23:59
(注)運営からの連絡メールが迷惑メールに振り分けられてしまうケースがあるようですので,一度迷惑メールフォルダをご確認いただき,迷惑メールとされている場合は以降正しく受け取れるよう設定していただけると幸いです.
候補論文
本勉強会で作成した「これは読むべき」な論文リストを公開します:候補論文リスト
研究室の論文読み会や自学などでぜひ役立ててください。
プログラム
8月27日(日) プログラム
[9:20-10:00] 受付
[10:00-10:10] 1日目オープニング [slide]
[10:20-11:20] セッション1: Large Language Models
西田京介: Llama 2: Open Foundation and Fine-Tuned Chat Models (arxiv; Hugo Touvron et al.) [paper][slide]
笹野遼平: Searching for Needles in a Haystack: On the Role of Incidental Bilingualism in PaLM’s Translation Capability (ACL2023; Eleftheria Briakou, Colin Cherry, George Foster) [paper][slide]
清水周一郎: QLoRA: Efficient Finetuning of Quantized LLMs (arxiv; Tim Dettmers, Artidoro Pagnoni, Ari Holtzman, Luke Zettlemoyer) [paper][slide]
[11:35-12:15] セッション2: Resource&Evaluation
佐々木翔大: Can Large Language Models Be an Alternative to Human Evaluations? (ACL2023; Cheng-Han Chiang, Hung-yi Lee) [paper][slide]
銭本友樹: Is GPT-3 a Good Data Annotator? (ACL2023; Bosheng Ding, Chengwei Qin, Linlin Liu, Yew Ken Chia, Boyang Li, Shafiq Joty, Lidong Bing) [paper][slide]
菅原朔: What’s the Meaning of Superhuman Performance in Today’s NLU? (ACL2023; Simone Tedeschi, Johan Bos, Thierry Declerck, Jan Hajič, Daniel Hershcovich, Eduard Hovy, Alexander Koller, Simon Krek, Steven Schockaert, Rico Sennrich, Ekaterina Shutova, Roberto Navigli) [paper][slide] (※都合により現地発表はなし)
[13:40-14:50] セッション3: In-context Learning 1
西田光甫: What learning algorithm is in-context learning? Investigations with linear models. (ICLR2023; Ekin Akyürek, Dale Schuurmans, Jacob Andreas, Tengyu Ma, Denny Zhou) [paper][slide]
Benjamin Heinzerling: Transformers Learn In-Context by Gradient Descent (ICML2023; Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, Joao Sacramento, Alexander Mordvintsev, Andrey Zhmoginov, Max Vladymyrov) [paper][slide] (※都合により現地発表はなし)
横井祥: A Theory of Emergent In-Context Learning as Implicit Structure Induction (arxiv; Michael Hahn, Navin Goyal) [paper][slide]
スポンサー(ELYZA様)
スポンサー(LINE様)
[15:00-15:55] セッション4: In-context Learning 2
加藤祥太: Towards Understanding Chain-of-Thought Prompting: An Empirical Study of What Matters (ACL2023; Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer, Huan Sun) [paper][slide]
村山友理: What In-Context Learning “Learns” In-Context: Disentangling Task Recognition and Task Learning (ACL2023 Findings; Jane Pan, Tianyu Gao, Howard Chen, Danqi Chen) [paper][slide]
上原康平: MultiInstruct: Improving Multi-Modal Zero-Shot Learning via Instruction Tuning (ACL2023; Zhiyang Xu, Ying Shen, Lifu Huang) [paper][slide]
[16:10-17:10] セッション5: Generalization/Interpretability
染谷大河: Neural Networks and the Chomsky Hierarchy. (ICLR2023; Grégoire Delétang, Anian Ruoss, Jordi Grau-Moya, Tim Genewein, Li Kevin Wenliang, Elliot Catt, Chris Cundy, Marcus Hutter, Shane Legg, Joel Veness, Pedro A. Ortega) [paper][slide]
石井太河: Transformers Learn Shortcuts to Automata. (ICLR2023; Bingbin Liu, Jordan T. Ash, Surbhi Goel, Akshay Krishnamurthy, Cyril Zhang) [paper][slide]
稲葉達郎: Backpack Language Models (ACL2023; John Hewitt, John Thickstun, Christopher Manning, Percy Liang) [paper][slide]
[17:20-18:20] セッション6: Language Model/Decoding
吉田遼: How Much Do Language Models Copy From Their Training Data? Evaluating Linguistic Novelty in Text Generation Using RAVEN (TACL2023; R. Thomas McCoy, Paul Smolensky, Tal Linzen, Jianfeng Gao, Asli Celikyilmaz) [paper][slide]
栗林樹生:
A Watermark for Large Language Models (ICML 2023; John Kirchenbauer, Jonas Geiping, Yuxin Wen, Jonathan Katz, Ian Miers, Tom Goldstein) [paper][slide]
Why Does Surprisal From Larger Transformer-Based Language Models Provide a Poorer Fit to Human Reading Times? (TACL2023; Byung-Doh Oh, William Schuler) [paper][slide]
持橋大地: Locally Typical Sampling (TACL2023; Clara Meister, Tiago Pimentel, Gian Wiher, Ryan Cotterell) [paper][slide]
[18:20-18:30] 1日目クロージング [slide]
[19:00-] 懇親会
8月28日(月) プログラム
[9:20-9:50] 受付
[9:50-10:00] 2日目オープニング [slide]
[10:00-11:00] セッション7: Interpretability
賀沢秀人: Analyzing Transformers in Embedding Space (ACL2023; Guy Dar, Mor Geva, Ankit Gupta, Jonathan Berant) [paper][slide]
李凌寒: What Are You Token About? Dense Retrieval as Distributions Over the Vocabulary (ACL2023; Ori Ram, Liat Bezalel, Adi Zicher, Yonatan Belinkov, Jonathan Berant, Amir Globerson) [paper][slide]
田中涼太: Visual Classification via Description from Large Language Models. (ICLR2023; Sachit Menon, Carl Vondrick) [paper][slide]
[11:10-12:10] セッション8: Multilingualism/Machine Translation
木山朔: The Geometry of Multilingual Language Model Representations (EMNLP2022; Tyler Chang, Zhuowen Tu, Benjamin Bergen) [paper][slide]
平澤寅庄: Knowledge Transfer in Incremental Learning for Multilingual Neural Machine Translation (ACL2023; Kaiyu Huang, Peng Li, Jin Ma, Ting Yao, Yang Liu) [paper][slide]
森下睦: When Does Translation Require Context? A Data-driven, Multilingual Exploration (ACL2023; Patrick Fernandes, Kayo Yin, Emmy Liu, André Martins, Graham Neubig) [paper][slide]
[13:10-14:10] セッション9: Model Architectures
平岡達也: From Characters to Words: Hierarchical Pre-trained Language Model for Open-vocabulary Language Understanding (ACL2023; Li Sun, Florian Luisier, Kayhan Batmanghelich, Dinei Florencio, Cha Zhang) [paper][slide]
塚越駿: Hyena Hierarchy: Towards Larger Convolutional Language Models (ICML2023; Michael Poli, Stefano Massaroli, Eric Nguyen, Daniel Y Fu, Tri Dao, Stephen Baccus, Yoshua Bengio, Stefano Ermon, Christopher Re) [paper][slide]
牧野晃平: Hungry Hungry Hippos: Towards Language Modeling with State Space Models. (ICLR2023; Daniel Y. Fu, Tri Dao, Khaled Kamal Saab, Armin W. Thomas, Atri Rudra, Christopher Ré) [paper][slide]
[14:20-15:40] セッション10: Linguistic Generalization
大羽未悠: How to Plant Trees in Language Models: Data and Architectural Effects on the Emergence of Syntactic Inductive Biases (ACL2023; Aaron Mueller, Tal Linzen) [paper][slide]
芳賀あかり: How poor is the stimulus? Evaluating hierarchical generalization in neural networks trained on child-directed speech (ACL2023; Aditya Yedetore, Tal Linzen, Robert Frank, R. Thomas McCoy) [paper][slide]
村岡雅康: When and Why Vision-Language Models Behave like Bags-Of-Words, and What to Do About It? (ICLR2023; Mert Yüksekgönül, Federico Bianchi, Pratyusha Kalluri, Dan Jurafsky, James Zou) [paper][slide]
篠田一聡: Minding Language Models’ (Lack of) Theory of Mind: A Plug-and-Play Multi-Character Belief Tracker (ACL2023; Melanie Sclar, Sachin Kumar, Peter West, Alane Suhr, Yejin Choi, Yulia Tsvetkov) [paper][slide]
[15:50-16:50] セッション11: Unsupervised Learning/Parsing
芝原隆善: Weaker Than You Think: A Critical Look at Weakly Supervised Learning (ACL2023; Dawei Zhu, Xiaoyu Shen, Marius Mosbach, Andreas Stephan, Dietrich Klakow) [paper][slide]
上田亮: Unsupervised Discontinuous Constituency Parsing with Mildly Context-Sensitive Grammars (ACL2023; Songlin Yang, Roger Levy, Yoon Kim) [paper][slide]
三輪誠: Prompting Language Models for Linguistic Structure (ACL2023; Terra Blevins, Hila Gonen, Luke Zettlemoyer) [paper][slide]
[17:00-18:00] セッション12: Efficiency/Evaluation
井田龍希: Knowledge-in-Context: Towards Knowledgeable Semi-Parametric Language Models. (ICLR2023; Xiaoman Pan, Wenlin Yao, Hongming Zhang, Dian Yu, Dong Yu, Jianshu Chen) [paper][slide]
飯田大貴: SCOTT: Self-Consistent Chain-of-Thought Distillation (ACL2023; Peifeng Wang, Zhengyang Wang, Zheng Li, Yifan Gao, Bing Yin, Xiang Ren) [paper][slide]
高瀬翔:
Beyond neural scaling laws: beating power law scaling via data pruning (NeurIPS2022; Ben Sorscher, Robert Geirhos, Shashank Shekhar, Surya Ganguli, Ari Morcos) [paper][slide]
[18:00-18:10] 2日目クロージング [slide]
参加者(敬称略,更新中)
発表(現地)
Benjamin Heinzerling (理研/東北大), 持橋大地(統数研), 芝原隆善(レトリバ), 芳賀あかり(NAIST), 木山朔(都立大), 飯田大貴(東工大/レトリバ), 賀沢秀人(Google), 篠田一聡(NTT CD研), 西田光甫(NTT/東大), 西田京介(NTT人間研), 三輪誠(豊田工業大), 森下睦(NTT CS研), 大羽未悠(NAIST), 村岡雅康(IBM/東工大), 村山友理(東大), 上田亮(東大), 田中涼太(NTT人間研), 李凌寒(LINE), 菅原朔(NII), 佐々木翔大(サイバーエージェント), 笹野遼平(名大), 牧野晃平(豊田工業大), 井田龍希(豊田工業大), 横井祥(東北大), 加藤祥太(京大), 清水周一郎(京大), 染谷大河(東大), 石井太河(東大), 高瀬翔(LINE), 平岡達也(富士通/東工大), 栗林樹生(MBZUAI), 稲葉達郎(京大), 平澤寅庄(都立大), 塚越駿(名大), 上原康平(東大), 吉田遼(東大), 銭本友樹(筑波大)
聴講(現地・オンライン)
赤間怜奈(東北大), 斉藤いつみ(東北大), 松田耕史(LINE), 吉野幸一郎(理研/NAIST), 渡邉研斗(産総研), 山田晃士(豊田工業大), 欅惇志(一橋大学), 前田晃弘(JAIST), 藤田篤(NICT), 小林涼太郎(東大), 亀田尭宙(国立歴史民俗博物館), 王昊(早大), 牛久祥孝(オムロン サイニックエックス), 江原遥(東京学芸大), 佐藤杏奈(お茶大), 寺西裕紀(理研), 小松弘佳(PFN), 稲積駿(NAIST), 鈴木潤(東北大), 塙一晃(講談社), 吉川克正(LINE/Yahoo), 高橋啓吾(都立大), 安道健一郎(理研), 田中健史朗(JAIST), 小林一郎(お茶大), 渡邊晃一朗(pluszero), 磯沼大(エディンバラ大), 山本蒔志(東大), 小町守(一橋大/都立大), 平野正徳(東大), 岡佑依(NTT CS研/人間研), 宮澤脩一(総研大), JIN TAO(JAIST), 森友亮(東大), 井之上直也(JAIST), 郡司直之(ホットリンク), 神藤駿介(ソニー), 大関洋平(東大), 浅野広樹(Yahoo), 坂井吉弘(JAIST), 凌志棟(都立大), 清野舜(LINE), 小林颯介(PFN/東北大), 須藤克仁(NAIST), 高山隼矢(Yahoo), 高柳剛弘(東大), 佐藤敏紀(LINE), 渡邉寛大(NAIST), 松林優一郎(東北大), 山田康輔(名大), 山﨑康之介(NAIST), 山下優樹(東大), 宮尾祐介(東大), 中澤敏明(東大), 坂口慶祐(東北大), 小林滉河(LINE), 佐々木彬(ELYZA)
ご支援(50音順)
参加・発表要領
有志による互助的な会です。参加者のかたは,以下ご協力を宜しくお願いします。※変更の可能性がありますのでご注意ください
論文への投票
読み候補を事前にリストアップし、「これは読むべき」と思われる論文への投票を行います。
ACL、EMNLP、NAACL、TACLの論文を中心に、関連会議やarXivの魅力的な論文があればそれらも投票対象とします。原則、本会議Long Paper のみを対象とします。
この時代に読み返すと面白い、私ならアツく語れるなど、読む動機・対象は多岐に亘って構いません。
研究室での利活用などを想定し、今年は本会で作成した読み候補リストを一般公開する予定です。
立候補
投票数を参考に、発表したい論文に立候補します。
複数の論文を選んでいただきテーマ発表として頂くのも大歓迎です。
発表要項
発表スライドおよびトークは日本語もしくは英語でご準備下さい。
原則現地での発表となります。発表の様子は録画しませんが、スライドは原則公開します。
発表は質疑込み20分 (発表15分+質疑5分程度を想定) を予定しています。2つの論文を選択した方も、20分内で両論文の発表+質疑をしてください。
参加方法
本勉強会は一研究室の夏合宿に始まり、近年は過去の参加者に連絡をとり、各人が興味がありそうな方へ(から)個別に接触するという紹介制により会が形成されてきました。会の性質の維持がしやすい一方、属人的な方法による負担・懸念もありますので、こちらにも参加方法を掲載します。
想定参加者層
自然言語処理分野及び関連分野で活動的な研究者・学生(世代・産学を超えた共有・議論から、新たな研究の種が生まれることを本勉強会の狙いとしています)
主要国際会議・ジャーナルに論文を通している研究者や、通そうとしている学生など
かつ、分野の動向や論文の内容などについて、議論を盛り上げる意欲のある方
発表者
学生、教員、研究者・技術者、新規参加者のバランスを考慮して、発表のお断りや、聴講へ回っていただく場合があります。
これまで多く発表頂いていた方を優先する場合があります。
聴講者
現地聴講の場合、収容人数の制限等に応じて、発表者と同様の観点で、お断りやオンライン聴講に回っていただく場合があります。
自然言語処理分野の学生の(オンライン)聴講はなるべく受け入れます。
聴講のみで参加の方も意欲的に議論にご参加ください。
締め切り
重要日程の参加登録期間に従う
新規参加希望者は、以下の情報とともに<snlp2023(at)googlegroups.com>に連絡をください。
名前
所属研究機関(企業含む)
推薦者名(過去に本勉強会で発表をしたことがある方)
希望参加形式(発表・聴講、現地・オンライン)
新規参加希望者には所属研究機関(企業含む)と推薦者(過去に本勉強会で発表をしたことがある方)の記入をお願いしています。場合によっては参加をお断りする可能性もあります。推薦者がいない場合は適宜ご相談ください。特に昨今の分野の注目を鑑み、このような運営にご留意いただけると幸いです。
実行委員会
委員へのお問い合わせは <snlp2023(at)googlegroups.com> へお願いいたします。
栗林樹生 (MBZUAI) <tatsuki.kuribayashi(at)mbzuai.ac.ae>
寺西裕紀 (理研/NAIST 渡辺研) <hiroki.teranishi(at)riken.jp>
上田 亮 (東大 宮尾研) <ryoryoueda(at)is.s.u-tokyo.ac.jp>
清野舜(LINE)<shunk52(at)gmail.com>
銭本 友樹 (筑波大 宇津呂研) <yuki.zenimoto(at)gmail.com>
芳賀あかり(NAIST 渡辺研)<haga.akari.ha0(at)is.naist.jp>
平澤寅庄 (都立大 小町研) <hirasawa-tosho(at)ed.tmu.ac.jp>
村山友理 (東大 和泉研) <murayama.yuri(at)sys.t.u-tokyo.ac.jp>
吉田 遼 (東大 大関研) <yoshiryo0617(at)g.ecc.u-tokyo.ac.jp>