A) Nova plataforma NVIDIA para HPC e Inteligência Artificial (IA)
João Paulo Navarro (NVIDIA), Horário: 14/09, 8:30 - Local: Auditório da Faculdade de Letras
Resumo: Deep Learning (DL) é a técnica de Aprendizado de Máquina (ML) que vem proporcionando avanços em vários fluxos de trabalho industriais, comerciais e científicos. A Inteligência Artificial moderna é a 4ª revolução industrial. A nova plataforma de IA da NVIDIA, composta por hardware e software, está fornecendo o poder computacional exigido pelos recentes avanços em Deep Learning. A Volta, nossa mais nova e avançada arquitetura de GPUs foi especialmente projetada para as cargas de trabalho de computação de alto desempenho necessárias para treinamento e inferência de Redes Neurais Profundas com uma enorme quantidade de dados de treinamento. É a primeira arquitetura GPU que inclui Tensor Cores (TC), unidades de processamento projetadas para operações com Tensores em altíssima velocidade. A versão mais recente da linguagem CUDA (versão 9) e os SDKs da NVIDIA foram aprimorados para incluir algoritmos especializados e altamente otimizados para extrair o potencial completo de GPUs no treinamento DNN e nas tarefas de inferência em todos os Frameworks de Deep Learning como TensorFlow, CNTK, Caffe, etc. Uma grande variedade de dados pode ser eficientemente usada para treinamento, incluindo texto, áudio, imagens e vídeo. Este novo modelo de computação está fornecendo excelentes resultados em Visão Computacional, Processamento de Linguagem Natural, Tradução de Linguagem, Reconhecimento de Fala, Sistemas de Recomendação, Logística, Carros Autônomos e Robótica.
B) Projeto e implantação de nuvem acadêmica: A experiência da Cloud@UFSCar
Hermes Senger (UFSCar), Horário: 14/09, 13:30 - Local: Auditório do Instituto de Matemática e Estatística (IME)
Resumo: A Computação é apontada como uma área de pesquisa estruturante, capaz de contribuir para o desenvolvimento de várias outras áreas de pesquisa. Em diversas áreas da ciência, pesquisadores têm se apoiado cada vez mais no uso de ferramentas e recursos computacionais como ferramentas imprescindíveis para o avanço da pesquisa. Para atender a essa demanda, universidades e instituições de pesquisa têm se mobilizado para organizar e disponibilizar recursos computacionais e humanos em apoio às atividades de pesquisa que demandam grandes quantidades de recursos computacionais. Será apresentado um breve relato da experiência recente da UFSCar na implantação de uma nuvem privada acadêmica para pesquisa, bem como algumas outras estratégias que podem ser adotadas.
C) Os Desafios do Processamento de Alto Desempenho - HPC
Philippe Navaux (UFRGS) - Keynote speaker, Horário: 14/09, 16:00 - Local: Auditório do Instituto de Matemática e Estatística (IME)
A área de Processamento de Alto Desempenho, sigla em inglês HPC, preocupa-se com sistemas, máquinas, que possam atender grandes demandas de processamento, olhando aspectos de hardware e software. Considerando a necessidade de poder de processamento, a área está associada diretamente com supercomputadores, pois somente estes podem atender este poder. Hoje fala-se em máquinas que possam processar Exaflops operações por segundo. Nesta palestra será apresentada a evolução da área e sua importância atual em diversos temas como Deep Learning e Big Data.
D) Processamento de alto desempenho e a Competição de Cluster de Estudantes (SCC)
Daniel Weingaertner (UFPR), Horário: 15/09, 13:30 - Local: Sala 101 do Centro de Aulas B
Resumo: Será apresentada uma breve descrição da área de Processamento de Alto desempenho (PAD) e algumas ferramentas que permitem sua programação. Em seguida será explicado o funcionamento da Competição de Cluster de Estudantes (SCC), que acontece anualmente na Conferência Internacional de Supercomputação. O objetivo da competição é construir máquinas de alto desempenho com um limite de energia determinado. A SCC é uma oportunidade para os alunos mostrarem seus conhecimentos em uma competição amigável e ao mesmo tempo animada.
A) Introdução à programação de GPU com o OpenACC
João Paulo Navarro (NVIDIA), Horário: 14/09, 9:30 - Local: Laboratório sala 152 do INF
Aprenda como acelerar seu aplicativo C/C++ ou Fortran usando o OpenACC para aproveitar a potência massivamente paralela das GPUs NVIDIA. O OpenACC é uma abordagem baseada em diretivas para computação, na qual você fornece dicas para compilador acelerar seu código, em vez de escrever o código do acelerador sozinho. Em 90 minutos, você experimentará um processo de quatro etapas para acelerar aplicativos usando o OpenACC: (1) Caracterizar e criar perfil de seu aplicativo; (2) adicionar diretivas de computação; (3) Adicionar diretivas para otimizar a movimentação de dados; e (4) otimizar sua aplicação usando o escalonamento do kernel.
Número de vagas: 30
Pré-requisito: familiaridade com C/C++
B) Fundamentos de Computação Acelerada com CUDA C/C++
João Paulo Navarro (NVIDIA), Horário: 15/09, 9:30 - Local: Laboratório sala 106 do Centro de Aulas B
Este curso dará uma introdução ao desenvolvimento de aplicações massivamente paralelas com CUDA em C/C++ para GPUs da NVIDIA. O público-alvo deste curso são desenvolvedores com alguma experiência com as linguagens C/C++ que estejam interessados em acelerar o desempenho de suas aplicações além dos limites da programação somente para CPU. Neste curso, você aprenderá como: Estender seu código C/C++ com o modelo de programação CUDA; Escrever e executar kernels que executam com paralelismo massivo em uma GPU NVIDIA; Perfilar e otimizar seus programas acelerados. Após a conclusão, você poderá escrever programas massivamente paralelos para arquiteturas heterogêneas com poderosas GPUs NVIDIA, e otimizar seu desempenho utilizando o NVVP.
Número de vagas: 30
Pré-requisito: familiaridade com C/C++
C) Configuração e uso de clusters para processamento de alto desempenho
Daniel Weingaertner (UFPR) e Giovanne Marcelo Dos Santos (UFPR), Horário: 15/09, 14:30 - Local: Sala 257 do INF
Membros da equipe brasileira que participou da Competição de Cluster de Estudantes (SCC) na Conferência Internacional de Supercomputação, em junho deste ano na Alemanha, irão explicar o funcionamento da SSC e como montar equipes para participar da competição. Em seguida será fornecida uma breve descrição de paralelismo e da biblioteca de passagem de mensagens MPI. A parte prática envolverá a configuração de um cluster para processamento de alto desempenho e seu uso com benchmark pradronizado (HPL Linpack para resolução de equações de sistemas lineares) e aplicações paralelas científicas.
Número de vagas: 15
Pré-requisito: familiaridade com Linux e Makefile