Programa del Curso
Introducción
Comprender los fundamentos de la metodología de computación heterogénea
¿Por qué la computación paralela? Comprender la necesidad de computación en paralelo
Procesadores multinúcleo: arquitectura y diseño
Introducción a Threads, Thread Basics y Conceptos básicos de programación paralela
Comprender los fundamentos de los procesos de optimización de software GPU
OpenMP - Un estándar para la programación paralela basada en directivas
Manos a la obra / Demostración de varios programas en máquinas multinúcleo
Introducción a la computación GPU
GPU para Computación Paralela
Modelo de programación de GPU
Manos a la obra / Demostración de varios programas en GPU
SDK, Toolkit e instalación de entorno para GPU
Trabajando con varias bibliotecas
Demostración de GPU y herramientas con ejemplos de programas y OpenACC
Comprender el modelo de programación CUDA
Aprendiendo la arquitectura CUDA
Explorando y configurando los entornos de desarrollo de CUDA
Trabajando con la API CUDA Runtime
Comprender el modelo de memoria CUDA
Explorando características adicionales de API CUDA
Acceder a la memoria global de manera eficiente en CUDA: Optimización de la memoria global
Optimización de transferencias de datos en CUDA usando flujos CUDA
Usando la memoria compartida en CUDA
Comprender y usar operaciones e instrucciones atómicas en CUDA
Estudio de caso: procesamiento básico de imágenes digitales con CUDA
Trabajando con Programación Multi-GPU
Perfiles avanzados de hardware y muestreo en NVIDIA / CUDA
Uso de la API de paralelismo dinámico de CUDA para el lanzamiento dinámico del kernel
Resumen y conclusión
Requerimientos
- C Programación
- GCC de Linux
Testimonios (1)
Entrenadores, energía y humor.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
Curso - NVIDIA GPU Programming - Extended
Traducción Automática