Programa del Curso

Introducción

Comprender los fundamentos de la metodología de computación heterogénea

¿Por qué la computación paralela? Comprender la necesidad de computación en paralelo

Procesadores multinúcleo: arquitectura y diseño

Introducción a Threads, Thread Basics y Conceptos básicos de programación paralela

Comprender los fundamentos de los procesos de optimización de software GPU

OpenMP - Un estándar para la programación paralela basada en directivas

Manos a la obra / Demostración de varios programas en máquinas multinúcleo

Introducción a la computación GPU

GPU para Computación Paralela

Modelo de programación de GPU

Manos a la obra / Demostración de varios programas en GPU

SDK, Toolkit e instalación de entorno para GPU

Trabajando con varias bibliotecas

Demostración de GPU y herramientas con ejemplos de programas y OpenACC

Comprender el modelo de programación CUDA

Aprendiendo la arquitectura CUDA

Explorando y configurando los entornos de desarrollo de CUDA

Trabajando con la API CUDA Runtime

Comprender el modelo de memoria CUDA

Explorando características adicionales de API CUDA

Acceder a la memoria global de manera eficiente en CUDA: Optimización de la memoria global

Optimización de transferencias de datos en CUDA usando flujos CUDA

Usando la memoria compartida en CUDA

Comprender y usar operaciones e instrucciones atómicas en CUDA

Estudio de caso: procesamiento básico de imágenes digitales con CUDA

Trabajando con Programación Multi-GPU

Perfiles avanzados de hardware y muestreo en NVIDIA / CUDA

Uso de la API de paralelismo dinámico de CUDA para el lanzamiento dinámico del kernel

Resumen y conclusión

Requerimientos

  • C Programación
  • GCC de Linux
 21 Horas

Número de participantes


Precio por Participante​

Testimonios (1)

Próximos cursos

Categorías Relacionadas