Programa do Curso

Introdução

Compreendendo os fundamentos da metodologia de computação heterogênea

Por que computação paralela? Compreendendo a necessidade de computação paralela

Processadores Multi-Core - Arquitetura e Design

Introdução aos Threads, Noções Básicas de Threads e Conceitos Básicos de Paralelo Programming

Compreendendo os fundamentos de GPU processos de otimização de software

OpenMP - Um padrão para paralelo baseado em diretiva Programming

Prática / Demonstração de vários programas em máquinas multicore

Introdução à GPU Computação

GPUs para computação paralela

Modelo de GPUs Programming

Prática / Demonstração de vários programas em GPU

SDK, Toolkit e Instalação de Ambiente para GPU

Trabalhando com várias bibliotecas

Demonstração de GPU e ferramentas com programas de exemplo e OpenACC

Compreendendo o modelo CUDA Programming

Aprendendo a arquitetura CUDA

Explorando e configurando os ambientes de desenvolvimento CUDA

Trabalhando com a API CUDA Runtime

Compreendendo o modelo de memória CUDA

Explorando recursos adicionais da API CUDA

Access ing memória global de forma eficiente em CUDA: Otimização de memória global

Otimizando transferências de dados em CUDA usando CUDA Streams

Usando memória compartilhada em CUDA

Compreendendo e usando operações e instruções atômicas em CUDA

Estudo de caso: Processamento Básico de Imagens Digitais com CUDA

Trabalhando com Multi-GPU Programming

Perfil e amostragem de hardware avançados em NVIDIA / CUDA

Usando API de Paralelismo Dinâmico CUDA para Lançamento de Kernel Dinâmico

Resumo e conclusão

Requisitos

  • C Programming
  • Linux GCC
 21 horas

Declaração de Clientes (1)