C. Manning and H. Schütze (1999) Foundations of Statistical Natural Language Processing MIT Press.
Jurafsky & Martin 2009 Speech and Language Processing.
Language Resources and Evaluation
Journal of Machine Learning Research
ACL (Association for Computational Linguistics)
EMNLP (Empirical Methods for Natural Language Processing)
NAACL (North American Chapter of the Association for Computational Linguistics)
EACL (European Chapter of the Association for Computational Linguistics)
COLING (Conference on Computational Linguistics)
y papers seleccionados en:
y algunas más locales:
Fundamentos de Lingüística
referencia: capítulo 3 de Manning y Schütze 1999
filminas: Herramientas Libres para Procesamiento del Lenguaje Natural y filminas sobre esenciales lingüísticos (prestadas de la clase correspondiente del curso de Jan Hajic en JHU)
para ampliar:
Emily Bender. 2013. Linguistic Fundamentals for Natural Language Processing. 100 Essentials from Morphology and Syntax. Morgan Claypool. (https://doi.org/10.2200/S00493ED1V01Y201303HLT020)
Fundamentos de Aprendizaje Automático
referencia: capítulos 1 y 2 de Machine Learning, de Tom Mitchell.
filminas: Introducción a Machine Learning de Alex Smola.
para ampliar:
Adquisición Léxica
referencia: capítulo 5 de Foundations of Statistical Natural Language Processing de Manning y Schütze
filminas: Collocations de Rada Mihalcea y Lexical Acquisition de Nathalie Japkowicz
para ampliar:
Semejanza entre palabras
referencia: capítulos 15, 16 y 17 de Speech and Language Processing (3a edición) de Jurafsky y Martin
filminas: Las filminas correspondientes a ese capítulo, Vector Semantics, del mismo libro, pero antes veremos un poquito sobre semejanza entre palabras SIN espacio vectorial. También usaremos algunas filminas sobre cómo se construye la representación de palabras en un espacio vectorial de Gemma Boleda y Marco Baroni para el curso de NLP de Ray Mooney. Terminaremos viendo una intro a vectores densos, y si nos da tiempo veremos un clásico de todos los tiempos, el Discovering Word Senses from Text de Pantel y Lin en el KDD 2002.
para ampliar:
Clases de equivalencia entre palabras, clustering
referencia: capítulos sobre flat y hierarchical clustering del libro Information Retrieval de Chris Manning, Prabhakar Raghavan y Hinrich Schütze
filminas: flat clustering y hierarchical clustering asociadas al libro
instrucciones para el práctico sobre clustering!
papers para leer y contestar preguntas (en orden de prioridad):
Clustering asimétrico
referencia: Modelling the Substitutability of Discourse Connectives. Ben Hutchinson. ACL 2005.
también pueden ver el paper relacionado: Acquiring the Meaning of Discourse Markers. Ben Hutchinson. ACL 2004.
ambos papers están basados en la Rhetorical Structure Theory
y trataremos de terminar de ver los papers del día anterior
Feature selection
referencia: An Introduction to Variable and Feature Selection. Isabelle Guyon and André Elisseeff. Journal of Machine Learning Research 3 (2003) 1157-1182
Reglas de asociación
referencia: el capítulo n. 2 del libro Web Data Mining de Bing Liu y también pueden revisar el artículo de la wikipedia
filminas: las filminas sobre reglas de asociación del curso Data Mining and Text Mining de Bing Liu
Desambiguación y Discriminación de Sentidos
referencia: el clásico paper de Hinrich Schütze Automatic Word Sense Discrimination, volveremos al de Pantel y Lin Discovering Word Senses from Text y haremos un vista de águila sobre el método basado en grafos de Jean Véronis, HyperLex: lexical cartography for information retrieval
filminas: no, pero daremos un bonito paseo por las diferentes ediciones de SenSeval y SemEval
Argument Mining
referencia: Argumentation Mining: State of the Art and Emerging Trends, de Lippi y Torroni, en la ACM Transactions on Internet Technology, 16 (2), Abril 2016
filminas: vamos a usar el pizarrón, pero también pueden acudir a las filminas (1 y 2) del curso Foundations of Argumentation for Argument Mining que dimos en la ESSLLI 2017.
para ampliar: los diferentes Workshops en Argument Mining que se vienen haciendo en los últimos años:
Feria de proyectos
Regresión Lineal, Regresión Logística y Redes Neuronales
referencia: Capítulo 4 del libro de Machine Learning, de Tom Mitchell.
filminas: Adaptadas del curso de Andrew Ng: Linear Regression, Logistic Regression, Neural Networks.
para ampliar:
Redes neuronales recurrentes - Redes neuronales convolucionales
filminas: Adaptadas del curso de stanford, incluyen el link a las originales: Recurrent Neural Networks. Para convolucionales no hubo filminas, se mostró el artículo de WildML: Understanding convolutional neural networks for NLP.
para ampliar:
Vectores de palabras
referencia: Papers de Mikolov [1] y [2]. Paper que explica un poco mejor como aprende word2vec de Xin Rong. Paper que explica la similitud entre word2vec y LSA de Levy.
filminas: Adaptadas del curso de stanford: Word Vectors Representations.
para ampliar:
Modelos de lenguaje usando RNNs en Keras
Referencias:
Recursos:
Aprendizaje semi-supervisado
Aprendizaje activo y repaso de algoritmos clásicos de Machine Learning
Machine translation (Statistical y Neural)
Últimas tendencias: multimodalidad y grounding
Sina Zarrieß and David Schlangen (2017) Deriving continous grounded meaning representations from referentially structured multimodal contexts. EMNLP 2017
Ben Athiwaratkun and Andrew Gordon Wilson (2017) Multimodal Word Distributions. ACL 2017
Prashanth Vijayaraghavan, Soroush Vosoughi and Deb Roy (2017) Twitter Demographic Classification Using Deep Multi-modal Multi-task Learning. ACL 2017
Recurrent Attention Network on Memory for Aspect Sentiment Analysis
Deep Joint Entity Disambiguation with Local Neural Attention
Part-of-Speech Tagging for Twitter with Adversarial Neural Networks
Exploring Vector Spaces for Semantic Relations
clases suspendidas
Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints
An Insight Extraction System on BioMedical Literature with Deep Neural Networks
Semi-Supervised Recurrent Neural Network for Adverse Drug Reaction Mention Extraction