Ambiente para apresentação e discussão de trabalhos desenvolvidos por alunos de iniciação científica e pós-graduação (mestrado/doutorado) em temas relacionados à PAD. Após seleção do comitê técnico, em breve colocaremos aqui a lista das apresentações.
O painel “Computação de Alto Desempenho na Região Nordeste: cenário atual e oportunidades (imediatas e futuras)” irá trazer representantes da academia (Rede CoCADA), de centros de supercomputação, da indústria e do governo.
A – Programação de arquiteturas paralelas
Clícia Pinto (UFBA), Pedro Marcelino (UFBA), Prof. Marcos Barreto (UFBA), Prof. Murilo Boratto (UNEB), Prof. Esbel Orellana (UESC)
Local: Laboratório da sala 144, prédio IME/UFBA
Resumo: Ao mesmo passo em que dados pessoais e corporativos vêm sendo produzidos, a exigência por estratégias escaláveis e eficientes de processamento e análise também cresce. O uso de placas gráficas como processadores para programação de propósito geral ganhou grande popularidade nos cenários de Computação de Alto Desempenho principalmente devido ao baixo custo para sua implantação e grande poder de processamento. Desde então, diversas aplicações científicas têm se beneficiado desta composição para, principalmente, reduzir tempo de execução, gerando respostas em tempo hábil. A proposta deste minicurso é apresentar aspectos introdutórios da programação para plataformas de alto desempenho baseadas em GPU. Serão apresentadas e discutidas questões práticas no que diz respeito à construção de soluções paralelas com foco em aplicações científicas.
B – Eficiência energética em PAD
Diêgo Braga (UFBA), Felippe Zacarias (SENAI CIMATEC/UFBA), Prof. Vinicius Petrucci (UFBA)
Resumo: Eficiência energética está entre os principais desafios para alcançar a computação exascale nos próximos anos. Neste mini curso iremos apresentar e discutir diversas direções de pesquisa que estão sendo apontadas para tornar os ambientes de PAD mais energeticamente eficientes. Para isso, tem sido necessário reexaminar todos os níveis da infra-estrutura de supercomputação, envolvendo aspectos importantes da interface hardware/software até o nível de aplicações/usuários.
C – Introdução a redes neurais e HPC
Julio Antonio do Amaral e José Cupertino Ruiz Vargas (NCC/UNESP)
Resumo: Há quase 60 anos o Perceptron foi proposto e, desde seus passos iniciais, a tarefa de treinar grandes redes neurais sempre tem sido computacionalmente intensiva. A recente popularização de arquiteturas altamente paralelas e a evolução em técnicas na área de computação de alto desempenho possibilitaram uma grande diminuição no tempo de treinamento dessas redes, tornando a sua utilização viável para a classificação de grandes quantidades de dados. Nós temos visto o assunto Redes Neurais Artificiais ser impulsionado, principalmente na área de Redes Neurais Profundas para reconhecimento de padrões em imagens. Com isso, o objetivo desse tutorial é apresentar os principais conceitos utilizados na criação de uma Rede Neural e mostrar como tirar proveito de técnicas e tecnologias relacionadas a HPC durante o treinamento e utilização desses modelos.
D – Simulação de sistemas complexos usando o NetLogo
Prof. Francisco Borges (IFBA)
Resumo: Sistemas complexos é uma abordagem da ciência que estuda como a relação entre entidades cria comportamento coletivo no sistema. O comportamento coletivo gerado pode permitir aos cientistas tirar conclusões e obter conhecimentos sobre determinado sistema através da verificação de hipóteses. Nesse minicurso mostraremos como o Netlogo, ferramenta desenvolvida na Northwestern University por Uri Wilensky, permite modelar e simular sistemas complexos usando a abordagem de modelagem baseada em agentes. Apresentaremos durante o curso diversos conceitos e definições, tais como: simulação e modelagem baseada em agentes, sistemas complexos e computação científica. Mostraremos também como caso de estudo um modelo que verifica a produtividade pupal do mosquito Aedes Aegypti. E finalmente, como o Netlogo pode ser usado em clusters para obter dados estatisticamente confiáveis.
Palestra 1 - New NVIDIA Platform for Artificial Intelligence (AI)
Pedro Mario Cruz e Silva (NVIDIA)
Resumo: Deep Learning (DL) is the Machine Learning (ML) technique enabling breakthroughs in several industrial, business, and scientific workflows. Modern AI is the 4th industrial revolution. The new NVIDIA’s Deep Learning platform is providing the computational power demanded by the recent advances in AI. The new Pascal architecture of GPUs was specially designed the High-Performance Computing workloads necessary to train a Deep Neural Network with a huge amount of training data. The latest version of the CUDA language (version 8), and NVIDIA SDKs were improved to include specialized and highly optimized algorithm to extract GPUs full potential in DNN training and inference tasks. Large variety of training data can be efficiently used for training including text, audio, images, and video. This new computing model is delivering outstanding results in Computer Vision, Natural Language Processing, Language Translation, Speech Recognition, Recommendation Systems, Logistics, and Autonomous Cars and other Autonomous Machines.
Palestra 2 - Arquitetura Intel: Tendências da Fusão entre Computação de Alto Desempenho e Inteligência Artificial
Silvio Luiz Stanzani (UNESP)
Resumo: Atualmente, o interesse no uso de aplicações de aprendizado de máquina tem crescido, entre outros aspectos, devido ao crescente volume e variedade de dados disponíveis e devido à disponibilidade de poder computacional. Nessa palestra será mostrado avanços e tendências nos sistemas de computação de alto desempenho (hardware e software), para atender as demandas computacionais das aplicações de Inteligência Artificial.
Palestra 3 - Co-Design e Auto-Tuning: Melhoria de Desempenho e Energia em HPC
Renato Miceli Costa Ribeiro (Université de Rennes I)