Programa do Curso
Introdução
Compreendendo os fundamentos da metodologia de computação heterogênea
Por que computação paralela? Compreendendo a necessidade de computação paralela
Processadores Multi-Core - Arquitetura e Design
Introdução aos Threads, Noções Básicas de Threads e Conceitos Básicos de Paralelo Programming
Compreendendo os fundamentos de GPU processos de otimização de software
OpenMP - Um padrão para paralelo baseado em diretiva Programming
Prática / Demonstração de vários programas em máquinas multicore
Introdução à GPU Computação
GPUs para computação paralela
Modelo de GPUs Programming
Prática / Demonstração de vários programas em GPU
SDK, Toolkit e Instalação de Ambiente para GPU
Trabalhando com várias bibliotecas
Demonstração de GPU e ferramentas com programas de exemplo e OpenACC
Compreendendo o modelo CUDA Programming
Aprendendo a arquitetura CUDA
Explorando e configurando os ambientes de desenvolvimento CUDA
Trabalhando com a API CUDA Runtime
Compreendendo o modelo de memória CUDA
Explorando recursos adicionais da API CUDA
Access ing memória global de forma eficiente em CUDA: Otimização de memória global
Otimizando transferências de dados em CUDA usando CUDA Streams
Usando memória compartilhada em CUDA
Compreendendo e usando operações e instruções atômicas em CUDA
Estudo de caso: Processamento Básico de Imagens Digitais com CUDA
Trabalhando com Multi-GPU Programming
Perfil e amostragem de hardware avançados em NVIDIA / CUDA
Usando API de Paralelismo Dinâmico CUDA para Lançamento de Kernel Dinâmico
Resumo e conclusão
Requisitos
- C Programming
- Linux GCC
Declaração de Clientes (1)
A energia e o humor dos formadores.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
Curso - NVIDIA GPU Programming - Extended
Máquina Traduzida