第11回最先端NLP勉強会
概要
自然言語処理分野のトップジャーナル・トップ会議であるTACL、ACL、EMNLP、NAACLと直近開催の関連会議(ICLR、ICML、IJCAI、CVPR、WSDMなど)の論文の中から、参加者の投票によって選ばれた論文を各参加者が分担して紹介する論文読み会です。
勉強会の参加者は各自1~2本の論文を担当し、全体で50本程度の論文の紹介をします。
最新の魅力的な論文や分野の潮流について共有・議論することで今後の研究の種が生まれることを本勉強会の狙いとしています。
開催案内
勉強会
日程 2019年9月27日(金)–9月28日(土)
会場
9月27日(金):理研AIP 日本橋オフィス
日本橋駅徒歩1分,東京駅徒歩6分
9月28日(土):フクラシア丸の内オアゾ
丸ノ内線東京駅直結,JR東京駅 丸の内北口 目の前,東西線大手町駅直結
参加費
読む 500円
聴講 1,000円
懇親会
日程 9月27日(金)
会場 THE OLD STATION 東京店店 (東京駅徒歩1分、理研AIP 日本橋オフィスから徒歩11分)
参加費
読む/学生 3,500円
読む/社会人 4,500円
聴講/学生 4,000円
聴講/社会人 5,000円
公式ハッシュタグ
#snlp2019
重要日程
希望日調査:–2019年7月5日(金)
参加登録:2019年8月22日(木)–8月31日(土)
候補論文のリストアップ:–2019年9月1日(日)
「これは読むべき」な論文への投票:2019年9月2日(月)–9月10日(火)
担当する論文への立候補:2019年9月10日(火)–9月15日(日)
懇親会参加登録:2019年9月12日(木)–2019年9月16日(月)
スライド提出:2019年9月25日(水)
勉強会:2019年9月27日(金)–9月28日(土)
アンケート:2019年10月6日
参加・発表要領
有志による互助的な会です。参加者のかたは,以下ご協力を宜しくお願いします。
論文への投票
今年のNAACL、ACL、EMNLPの論文や、直近1年分のTACLの論文を中心に「これは読むべき」と思われる論文への投票を行います。arXivに上がっている魅力的な論文や、関連会議(ICLR、ICML、IJCAI、CVPR、WSDMなど)のお勧め論文があればそれらも投票の対象とします。
立候補
投票数が上位の論文の中から、発表したい論文に立候補します。
複数の論文を選んでいただきテーマ発表として頂くのも大歓迎です。
発表
発表スライドおよびトークは日本語もしくは英語でご準備下さい。
スライドは原則公開します。
選択論文の背景や関連研究などに関する包括的な発表も大歓迎です。
発表は時間の長い【long】枠(質疑込み20分を予定)と短い【short】枠(質疑無し10分を予定)の2種類を検討しています。なお、選定する論文はLong Paperのみです。
聴講のみで参加の方も意欲的に議論にご参加ください。
プログラム
[発表枠について]
long:20 分(質疑込み.発表15分程度を想定)
short:10 分(質疑無しの予定)
9月27日(金) プログラム
[9:20–9:40] 受付
[9:40–9:50] オープニング
[9:50–11:2011:30] セッション1 - Long x 3, Short x 3
【long】牛久祥孝: Bridging the Gap between Training and Inference for Neural Machine Translation (ACL2019) [paper] [slide]
【short】根石将人: Extract and Edit: An Alternative to Back-Translation for Unsupervised Neural Machine Translation (NAACL2019) [paper] [slide]
【long】石渡祥之佑: When a Good Translation is Wrong in Context: Context-Aware Machine Translation Improves on Deixis, Ellipsis, and Lexical Cohesion (ACL2019) [paper] [slide]
【short】中澤敏明: Revisiting Low-Resource Neural Machine Translation: A Case Study (ACL2019) [paper] [slide]
【short】斉藤いつみ: Mask-Predict: Parallel Decoding of Conditional Masked Language Models (EMNLP2019) [paper] [slide]
【long】賀沢秀人: Insertion Transformer: Flexible Sequence Generation via Insertion Operations (ICML2019) [paper] [slide]
[11:3511:45–12:3512:55] セッション2 - Long x 2, Short x 2
【long】水木栄: Ordered neurons: Integrating tree structures into recurrent neural networks (ICLR2019) [paper] [slide]
【long】持橋大地: Unsupervised Learning of Syntactic Structure with Invertible Neural Projection (EMNLP2018) [paper] [slide]
【short】菊池悠太: Practical Obstacles to Deploying Active Learning (EMNLP2019) [paper] [slide]
【short】小林颯介: Achieving Verified Robustness to Symbol Substitutions via Interval Bound Propagation (EMNLP2019) [paper] [slide]
藤山裕子様(NVIDIA): スポンサー発表
[12:3513:02–13:5514:12] 昼食
[13:5514:12–14:5515:00] セッション3 - Long x 2, Short x 2
【short】松田耕史: Neural Relation Extraction for Knowledge Base Enrichment (ACL2019) [paper] [slide]
【long】林克彦: Relation Embedding with Dihedral Group in Knowledge Graph (ACL2019) [paper] [slide]
【short】浅田真生: Duality of Link Prediction and Entailment Graph Induction (ACL2019) [paper] [slide]
【long】亀田尭宙: Boosting Entity Linking Performance by Leveraging Unlabeled Documents (ACL2019) [paper] [slide]
[15:1015:15–16:3016:35] セッション4 - Long x 3, Short x 2
【short】吉川将司: Sparse Sequence-to-Sequence Models (ACL2019) [paper] [slide]
【long】鈴木潤: Unreproducible Research is Reproducible (ICML2019) [paper] [slide]
【short】篠田一聡: Latent Normalizing Flows for Discrete Sequences (ICML2019) [paper] [slide]
【long】笹野遼平: Beyond BLEU:Training Neural Machine Translation with Semantic Similarity (ACL2019) [paper] [slide]
【long】岡崎直観: Is Attention Interpretable? (ACL2019) [paper] [slide]
[16:3016:35–16:3516:40] クロージング
[17:30–] 懇親会(予定)
9月28日(土) プログラム
[9:40–10:00] 受付
[10:00–10:10] オープニング
[10:10–11:40] セッション1 - Long x 3, Short x 3
【long】隅田敦: [slide]
【long】横井祥: Don't Settle for Average, Go for the Max: Fuzzy Sets and Max-Pooled Word Vectors (ICLR2019) [paper] [slide]
【short】渡邉研斗: Word and Document Embedding with vMF-Mixture Priors on Context Word Vectors (ACL2019) [paper] [slide]
【short】丹羽彩奈: Probing for Semantic Classes: Diagnosing the Meaning Content of Word Embeddings (ACL2019) [paper] [slide]
【long】井之上直也: Parameter-free Sentence Embedding via Orthogonal Basis (EMNLP2019) [paper] [slide]
【short】阿部香央莉: Empirical Linguistic Study of Sentence Embeddings (ACL2019) [paper] [slide]
[11:55–13:05] セッション2- Long x 2, Short x 3
【short】辻村有輝: Progressive Self-Supervised Attention Learning for Aspect-Level Sentiment Analysis (ACL2019) [paper] [slide]
【long】梶原智之: Competence-based Curriculum Learning for Neural Machine Translation (NAACL2019) [paper] [slide]
【long】菅原朔: [slide]
【short】鷲尾光樹: OpenDialKG: Explainable Conversational Reasoning with Attention-based Walks over Knowledge Graphs (ACL2019) [paper] [slide]
【short】松林優一郎: Visually Grounded Neural Syntax Acquisition (ACL2019) [paper] [slide]
[13:05–14:25] 昼食
[14:25–15:55] セッション3 - Long x 3, Short x 3
【short】赤崎智: Text Processing Like Humans Do: Visually Attacking and Shielding NLP Systems (NAACL2019) [paper] [slide]
【short】古山翔太: Cross-Sentence Grammatical Error Correction (ACL2019) [paper] [slide]
【long】宇田川拓真: Learning from Omission (ACL2019) [paper] [slide]
【long】柯遠志: A fully differentiable beam search decoder (ICML2019) [paper] [slide]
【long】高瀬翔:
【short】佐藤元紀: Transformer-XL: Attentive Language Models beyond a Fixed-Length Context (ACL2019) [paper] [slide]
[16:10–17:40] セッション4 - Long x 3, Short x 3
【short】安道健一郎: Argument Invention from First Principles (ACL2019) [paper] [slide]
【short】馬目華奈: Scalable Syntax-Aware Language Models Using Knowledge Distillation (ACL2019) [paper] [slide]
【long】能地宏: [slide]
【short】平岡達也: Learning to Discover, Ground and Use Words with Segmental Neural Language Models (ACL2019) [paper] [slide]
【long】栗田修平: Language Models as Knowledge Bases? (EMNLP2019) [paper] [slide]
【long】三輪誠: Generating Sentences from Disentangled Syntactic and Semantic Spaces (ACL2019) [paper] [slide]
[17:55–19:05] セッション5 - Long x 2, Short x 3
【short】高山隼矢: Skeleton-to-Response: Dialogue Generation Guided by Retrieval Memory (NAACL2019) [paper] [slide]
【short】赤間怜奈: Improving Neural Conversational Models with Entropy-Based Data Filtering (ACL2019) [paper] [slide]
【long】清野舜: Generalized Data Augmentation for Low-Resource Translation (ACL2019) [paper] [slide]
【short】今野颯人: Submodular Optimization-based Diverse Paraphrasing and its Effectiveness in Data Augmentation (NAACL2019) [paper] [slide]
【long】西田京介: Decomposable Neural Paraphrase Generation (ACL2019) [paper] [slide]
[19:05–19:15] クロージング
参加者(敬称略・組織名順)
発表(47人)
賀沢秀人(Google), 石渡祥之佑(Mantra), 吉川将司(NAIST 松本研), 西田京介(NTT MD研), 斉藤いつみ(NTT MD研), 菊池悠太(PFN), 佐藤元紀(PFN), 小林颯介(PFN), 馬目華奈(お茶の水女子大 戸次研), 牛久祥孝(オムロンサイニックエックス株式会社), 亀田尭宙(京都大 東南アジア地域研究研究所), 笹野遼平(名古屋大 武田・笹野研), 梶原智之(大阪大), 林克彦(大阪大 産業科学研究所), 高山隼矢(大阪大 鬼塚研), 柯遠志(慶應義塾大 萩原研), 根石将人(東京大 吉永研), 赤崎智(東京大 喜連川・豊田・根本・吉永・合田研), 隅田敦(東京大 宮尾研), 宇田川拓真(東京大 相澤研), 篠田一聡(東京大 相澤研), 菅原朔(東京大 相澤研), 鷲尾光樹(東京大 言語情報科学専攻), 中澤敏明(東京大 鶴岡研), 井之上直也(東北大 乾・鈴木研), 今野颯人(東北大 乾・鈴木研), 鈴木潤(東北大 乾・鈴木研), 阿部香央莉(東北大 乾・鈴木研/理研AIP), 横井祥(東北大 乾・鈴木研/理研AIP), 清野舜(東北大 乾・鈴木研/理研AIP), 赤間怜奈(東北大 乾・鈴木研/理研AIP), 松林優一郎(東北大 教育言語処理研), 岡崎直観(東工大 岡崎研), 古山翔太(東工大 岡崎研), 高瀬翔(東工大 岡崎研), 丹羽彩奈(東工大 岡崎研), 平岡達也(東工大 岡崎研), 水木栄(株式会社ホットリンク/東工大 岡崎研), 栗田修平(理研AIP), 松田耕史(理研AIP/東北大 乾・鈴木研), 渡邉研斗(産総研), 能地宏(産総研AIRC), 持橋大地(統数研), 三輪誠(豊田工業大 知能数理研), 浅田真生(豊田工業大 知能数理研), 辻村有輝(豊田工業大 知能数理研), 安道健一郎(首都大東京 小町研)
聴講(5人)
小林一郎(お茶の水女子大 小林研), 小町守(首都大東京 小町研), 乾健太郎(東北大 乾・鈴木研/理研AIP), 三浦泰嗣(リクルートライフスタイル), 高山晃一(リクルート)
聴講 – スポンサー
藤山裕子(エヌビディア合同会社 )
ご支援
エヌビディア合同会社 様:コーヒー・茶菓提供、懇親会スポンサー
実行委員会
横井祥 (東北大 乾・鈴木研/理研AIP) <yokoi(at)ecei.tohoku.ac.jp>
小林颯介 (PFN) <sosk(at)preferred.jp>
高山隼矢 (大阪大 鬼塚研) <takayama.junya(at)ist.osaka-u.ac.jp>
赤間怜奈 (東北大 乾・鈴木研/理研AIP) <reina.a(at)ecei.tohoku.ac.jp>
渡邉研斗 (産総研) <kento.watanabe(at)aist.go.jp>
馬目華奈 (お茶大 戸次研) <manome.kana(at)is.ocha.ac.jp>