Trimestre corrente: 2021/2
Objetivos:
Discutir os recentes avanços no tratamento da Linguagem Natural por meio de modelos de Aprendizado de Máquina, com ênfase em modelos de Aprendizado Profundo.
Ementa:
Introdução ao Processamento de Linguagem Natural.
Representações eficientes de palavras e contextos.
Medidas de similaridade.
Análise de linguagem.
Modelos clássicos, empíricos e profundos.
Máquinas de tradução.
Representações contextuais.
Aplicações.
Bibliografia Principal:
Daniel Jurafsky, James H. Martin - Speach and Language Processing - Prentice Hall - 2008 (3rd edition draft available at https://web.stanford.edu/~jurafsky/slp3/).
Delip Rao, Brian McMahan - Natural Language Processing with PyTorch: Build Intelligent Language Applications Using Deep Learning. O'Reilly Media, 2019.
Li Deng, Yang Liu - Deep Learning in Natural Language Processing - Springer - 2018.
Nitin Indurkhya, Fred J. Damerau - Handbook of Natural Language Processing - CRC Press - 2010.
Rada Mihalcea and Dragomir Radev - Graph-based Natural Language Processing and Information Retrievel - Cambrige Press - 2011.
Material "on-line" do curso CS224n - Natural Language Processing with Deep Learning - Stanford (http://web.stanford.edu/class/cs224n/)
Critério de Avaliação:
Apresentação de seminários e artigos (com discussão), 1 prova, 1 trabalho prático (apresentado e documentado na forma de um artigo de conferência), 5 listas de exercícios.
Cronograma:
Datas Importantes:
Prova - 16/09
Entrega formulário de proposta de projeto - 30/09
Entrega de tarefas - vide abaixo
Seminários temáticos - 19/10 a 26/10.
Apresentação e entrega do artigo - 04/11
Material do Curso:
Planilha de referência dos slides, vídeo-aulas e material complementar.
Listas de Exercícios:
Formulário de proposta de projeto final - entrega: 30/09
Material seminário final (a definir)
Avisos Importantes:
[02/09/2021] Atualização de cronograma
[03/08/2021] Aula inaugural em [10/08/2020]
[03/08/2021] Novo cronograma.