Los cursos de capacitación en línea o presenciales, dirigidos por un instructor, en vivo GPU (Unidad de procesamiento de gráficos) demuestran a través de discusiones interactivas y práctica los fundamentos de GPU y cómo programar GPUs.
GPU La formación está disponible como "Formación en vivo en línea" o "Formación en directo in situ". La capacitación en vivo en línea (también conocida como "capacitación remota en vivo") se lleva a cabo a través de un escritorio remoto interactivo. La capacitación en vivo in situ se puede llevar a cabo localmente en las instalaciones del cliente en Mississippi o en los centros de capacitación corporativa de NobleProg en Mississippi.
NobleProg -- Su proveedor local de capacitación
MS, Flowood - Market Street
232 Market Street, Flowood, united states, 39232
El lugar está ubicado en un complejo de edificios comerciales, justo al lado de Dick's Sporting Goods en la calle Lakeland Drive.
Esta capacitación en vivo dirigida por un instructor en Mississippi (en línea o presencial) está dirigida a desarrolladores de nivel principiante a intermedio que desean usar OpenACC para programar dispositivos heterogéneos y explotar su paralelismo.
Al final de esta formación, los participantes serán capaces de:
Configure un entorno de desarrollo OpenACC.
Escribir y ejecutar un programa básico de OpenACC.
Anote el código con directivas y cláusulas OpenACC.
Esta capacitación en vivo dirigida por un instructor en Mississippi (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen aprender los conceptos básicos de la programación GPU y los principales marcos y herramientas para desarrollar aplicaciones GPU.
Al final de esta capacitación, los participantes serán capaces de: Comprender la diferencia entre la CPU y la computación GPU y los beneficios y desafíos de la programación GPU.
Elija el marco y la herramienta adecuados para su aplicación GPU.
Cree un programa básico GPU que realice la suma de vectores utilizando uno o más de los marcos y herramientas.
Utilice las API, los lenguajes y las bibliotecas respectivos para consultar la información del dispositivo, asignar y desasignar la memoria del dispositivo, copiar datos entre el host y el dispositivo, iniciar kernels y sincronizar subprocesos.
Utilice los espacios de memoria respectivos, como global, local, constante y privado, para optimizar las transferencias de datos y los accesos a la memoria.
Utilice los modelos de ejecución respectivos, como elementos de trabajo, grupos de trabajo, subprocesos, bloques y cuadrículas, para controlar el paralelismo.
Depurar y probar GPU programas utilizando herramientas como CodeXL, CUDA-GDB, CUDA-MEMCHECK y NVIDIA Nsight.
Optimice GPU los programas mediante técnicas como la fusión, el almacenamiento en caché, la captura previa y la generación de perfiles.
Esta capacitación en vivo dirigida por un instructor en Mississippi (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que desean usar diferentes marcos para GPU programación y comparar sus características, rendimiento y compatibilidad.
Al final de esta formación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya OpenCL SDK, CUDA Toolkit, ROCm Platform, un dispositivo que admita OpenCL, CUDA o ROCm y Visual Studio Code.
Cree un programa básico GPU que realice la adición de vectores utilizando OpenCL, CUDA y ROCm, y compare la sintaxis, la estructura y la ejecución de cada marco.
Utilice las API respectivas para consultar información del dispositivo, asignar y desasignar la memoria del dispositivo, copiar datos entre el host y el dispositivo, iniciar kernels y sincronizar subprocesos.
Utilice los lenguajes respectivos para escribir kernels que se ejecuten en el dispositivo y manipulen los datos.
Utilice las funciones, variables y bibliotecas integradas respectivas para realizar tareas y operaciones comunes.
Utilice los espacios de memoria respectivos, como global, local, constante y privado, para optimizar las transferencias de datos y los accesos a la memoria.
Utilice los modelos de ejecución respectivos para controlar los subprocesos, bloques y cuadrículas que definen el paralelismo.
Depura y prueba programas GPU con herramientas como CodeXL, CUDA-GDB, CUDA-MEMCHECK y NVIDIA Nsight.
Optimice GPU programas mediante técnicas como la fusión, el almacenamiento en caché, la captura previa y la generación de perfiles.
CloudMatrix es la plataforma unificada de desarrollo y despliegue de IA de Huawei diseñada para apoyar tuberías de inferencia escalables y de grado de producción.
Esta formación en vivo dirigida por instructores (en línea o presencial) está orientada a profesionales de AI de nivel principiante a intermedio que desean implementar y monitorear modelos de IA utilizando la plataforma CloudMatrix con integración de CANN y MindSpore.
Al finalizar esta formación, los participantes podrán:
Utilizar CloudMatrix para empaquetar, implementar y servir modelos.
Convertir y optimizar modelos para chipsets Ascend.
Configurar tuberías para tareas de inferencia en tiempo real y por lotes.
Monitorear despliegues y ajustar el rendimiento en entornos de producción.
Formato del Curso
Conferencias interactivas y discusiones.
Uso práctico de CloudMatrix con escenarios de despliegue reales.
Ejercicios guiados enfocados en conversión, optimización y escalado.
Opciones de Personalización del Curso
Para solicitar una formación personalizada basada en su infraestructura de IA o entorno en la nube, contáctenos para organizarlo.
Esta capacitación en vivo dirigida por un instructor en Mississippi (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen instalar y usar ROCm en Windows para programar AMD GPU y explotar su paralelismo.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya la plataforma ROCm, un código AMD GPU y Visual Studio en Windows.
Cree un programa ROCm básico que realice la suma de vectores en GPU y recupere los resultados de la memoria GPU.
Utilice la API ROCm para consultar la información del dispositivo, asignar y desasignar la memoria del dispositivo, copiar datos entre el host y el dispositivo, iniciar kernels y sincronizar subprocesos.
Utilice el lenguaje HIP para escribir kernels que se ejecuten en el GPU y manipulen los datos.
Utilice las funciones, variables y bibliotecas integradas de HIP para realizar tareas y operaciones comunes.
Utilice los espacios de memoria ROCm y HIP, como global, compartido, constante y local, para optimizar las transferencias de datos y los accesos a la memoria.
Utilice los modelos de ejecución ROCm y HIP para controlar los subprocesos, los bloques y las cuadrículas que definen el paralelismo.
Depure y pruebe programas ROCm y HIP utilizando herramientas como ROCm Debugger y ROCm Profiler.
Optimice los programas ROCm y HIP mediante técnicas como la fusión, el almacenamiento en caché, la captura previa y la creación de perfiles.
Esta capacitación en vivo dirigida por un instructor en Mississippi (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen usar ROCm y HIP para programar AMD GPU y explotar su paralelismo.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya la plataforma ROCm, un código AMD GPU y Visual Studio.
Cree un programa ROCm básico que realice la suma de vectores en GPU y recupere los resultados de la memoria GPU.
Utilice la API ROCm para consultar la información del dispositivo, asignar y desasignar la memoria del dispositivo, copiar datos entre el host y el dispositivo, iniciar kernels y sincronizar subprocesos.
Utilice el lenguaje HIP para escribir kernels que se ejecuten en el GPU y manipulen los datos.
Utilice las funciones, variables y bibliotecas integradas de HIP para realizar tareas y operaciones comunes.
Utilice los espacios de memoria ROCm y HIP, como global, compartido, constante y local, para optimizar las transferencias de datos y los accesos a la memoria.
Utilice los modelos de ejecución ROCm y HIP para controlar los subprocesos, los bloques y las cuadrículas que definen el paralelismo.
Depure y pruebe programas ROCm y HIP utilizando herramientas como ROCm Debugger y ROCm Profiler.
Optimice los programas ROCm y HIP mediante técnicas como la fusión, el almacenamiento en caché, la captura previa y la creación de perfiles.
Ascend, Biren, and Cambricon are leading AI hardware platforms in China, each offering unique acceleration and profiling tools for production-scale AI workloads.
This instructor-led, live training (online or onsite) is aimed at advanced-level AI infrastructure and performance engineers who wish to optimize model inference and training workflows across multiple Chinese AI chip platforms.
By the end of this training, participants will be able to:
Benchmark models on Ascend, Biren, and Cambricon platforms.
Identify system bottlenecks and memory/compute inefficiencies.
Apply graph-level, kernel-level, and operator-level optimizations.
Tune deployment pipelines to improve throughput and latency.
Format of the Course
Interactive lecture and discussion.
Hands-on use of profiling and optimization tools on each platform.
Guided exercises focused on practical tuning scenarios.
Course Customization Options
To request a customized training for this course based on your performance environment or model type, please contact us to arrange.
Chinese GPU architectures such as Huawei Ascend, Biren, and Cambricon MLUs offer CUDA alternatives tailored for local AI and HPC markets.
This instructor-led, live training (online or onsite) is aimed at advanced-level GPU programmers and infrastructure specialists who wish to migrate and optimize existing CUDA applications for deployment on Chinese hardware platforms.
By the end of this training, participants will be able to:
Evaluate compatibility of existing CUDA workloads with Chinese chip alternatives.
Port CUDA codebases to Huawei CANN, Biren SDK, and Cambricon BANGPy environments.
Compare performance and identify optimization points across platforms.
Address practical challenges in cross-architecture support and deployment.
Format of the Course
Interactive lecture and discussion.
Hands-on code translation and performance comparison labs.
Guided exercises focused on multi-GPU adaptation strategies.
Course Customization Options
To request a customized training for this course based on your platform or CUDA project, please contact us to arrange.
Esta capacitación en vivo dirigida por un instructor en Mississippi (en línea o presencial) está dirigida a desarrolladores de nivel principiante a intermedio que desean usar CUDA para programar NVIDIA GPU y explotar su paralelismo.
Al final de esta formación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya CUDA Toolkit, un código NVIDIA GPU y Visual Studio.
Cree un programa CUDA básico que realice la adición de vectores en el GPU y recupere los resultados de la memoria GPU.
Utilice la API de CUDA para consultar información del dispositivo, asignar y desasignar memoria del dispositivo, copiar datos entre el host y el dispositivo, iniciar kernels y sincronizar subprocesos.
Utilice el lenguaje CUDA C/C++ para escribir kernels que se ejecuten en el GPU y manipulen los datos.
Utilice las funciones, variables y bibliotecas integradas de CUDA para realizar tareas y operaciones comunes.
Utilice los espacios de memoria CUDA, como global, compartido, constante y local, para optimizar las transferencias de datos y los accesos a la memoria.
Utilice el modelo de ejecución de CUDA para controlar los subprocesos, bloques y cuadrículas que definen el paralelismo.
Depure y pruebe programas CUDA con herramientas como CUDA-GDB, CUDA-MEMCHECK y NVIDIA Nsight.
Optimice los programas CUDA mediante técnicas como la fusión, el almacenamiento en caché, la captura previa y la generación de perfiles.
Huawei Ascend es una familia de procesadores de IA diseñados para inferencia y entrenamiento de alto rendimiento.
Este curso dirigido por un instructor (en línea o presencial) está destinado a ingenieros de AI intermedios y científicos de datos que desean desarrollar y optimizar modelos de redes neuronales utilizando la plataforma Ascend de Huawei y el kit de herramientas CANN.
Al final de este entrenamiento, los participantes podrán:
Configurar y configurar el entorno de desarrollo CANN.
Desarrollar aplicaciones AI usando MindSpore y flujos de trabajo CloudMatrix.
Optimizar el rendimiento en Ascend NPUs utilizando operadores personalizados y tiling.
Implementar modelos en entornos edge o cloud.
Formato del Curso
Conferencia interactiva y discusión.
Uso práctico de Huawei Ascend y el kit de herramientas CANN en aplicaciones de muestra.
Ejercicios guiados enfocados en la construcción, entrenamiento e implementación del modelo.
Opciones de Personalización del Curso
Para solicitar un entrenamiento personalizado para este curso basado en su infraestructura o conjuntos de datos, contáctenos para organizarlo.
Los aceleradores AI de Biren son GPU de alto rendimiento diseñados para cargas de trabajo de IA y HPC, con soporte para entrenamiento y inferencia a gran escala.
Esta formación en vivo dirigida por un instructor (en línea o presencial) está destinada a desarrolladores de nivel intermedio a avanzado que desean programar y optimizar aplicaciones utilizando la pila propietaria GPU de Biren, con comparaciones prácticas con entornos basados en CUDA.
Al final de esta formación, los participantes podrán:
Comprender la arquitectura y jerarquía de memoria de Biren GPU.
Configurar el entorno de desarrollo e implementar el modelo de programación de Biren.
Traducir y optimizar código estilo CUDA para plataformas Biren.
Aplicar técnicas de ajuste de rendimiento y depuración.
Formato del Curso
Conferencia interactiva y discusión.
Uso práctico del SDK Biren en cargas de trabajo de muestra GPU.
Ejercicios guiados enfocados en el porting y ajuste de rendimiento.
Opciones de Personalización del Curso
Para solicitar una formación personalizada para este curso basada en su pila de aplicaciones o necesidades de integración, por favor contáctenos para organizarlo.
Cambricon MLUs (Machine Learning Units) are specialized AI chips optimized for inference and training in edge and datacenter scenarios.
This instructor-led, live training (online or onsite) is aimed at intermediate-level developers who wish to build and deploy AI models using the BANGPy framework and Neuware SDK on Cambricon MLU hardware.
By the end of this training, participants will be able to:
Set up and configure the BANGPy and Neuware development environments.
Develop and optimize Python- and C++-based models for Cambricon MLUs.
Deploy models to edge and data center devices running Neuware runtime.
Integrate ML workflows with MLU-specific acceleration features.
Format of the Course
Interactive lecture and discussion.
Hands-on use of BANGPy and Neuware for development and deployment.
Guided exercises focused on optimization, integration, and testing.
Course Customization Options
To request a customized training for this course based on your Cambricon device model or use case, please contact us to arrange.
Esta capacitación en vivo dirigida por un instructor en Mississippi (en línea o en el sitio) está dirigida a administradores de sistemas de nivel principiante y profesionales de TI que deseen instalar, configurar, administrar y solucionar problemas de entornos CUDA.
Al final de esta capacitación, los participantes serán capaces de:
Comprender la arquitectura, los componentes y las capacidades de CUDA.
Esta capacitación en vivo dirigida por un instructor en Mississippi (en línea o en el sitio) está dirigida a desarrolladores de nivel principiante a intermedio que deseen usar OpenCL para programar dispositivos heterogéneos y explotar su paralelismo.
Al final de esta capacitación, los participantes serán capaces de:
Configure un entorno de desarrollo que incluya OpenCL SDK, un dispositivo que admita OpenCL y Visual Studio código.
Cree un programa básico OpenCL que realice la suma de vectores en el dispositivo y recupere los resultados de la memoria del dispositivo.
Utilice la API OpenCL para consultar información del dispositivo, crear contextos, colas de comandos, búferes, kernels y eventos.
Utilice el lenguaje C OpenCL para escribir kernels que se ejecuten en el dispositivo y manipulen datos.
Utilice OpenCL funciones, extensiones y bibliotecas integradas para realizar tareas y operaciones comunes.
Utilice OpenCL modelos de memoria de host y dispositivo para optimizar las transferencias de datos y los accesos a la memoria.
Utilice el modelo de ejecución OpenCL para controlar los elementos de trabajo, los grupos de trabajo y los intervalos ND.
Depurar y probar OpenCL programas utilizando herramientas como CodeXL, Intel VTune y NVIDIA Nsight.
Optimice OpenCL programas utilizando técnicas como la vectorización, el desenrollado de bucles, la memoria local y la creación de perfiles.
Esta formación impartida por un instructor en Mississippi (en línea o presencial) está dirigida a desarrolladores de nivel intermedio que deseen utilizar CUDA para construir aplicaciones Python que se ejecuten en paralelo en tarjetas NVIDIA GPU.
Al final de esta capacitación, los participantes serán capaces de:
Utilizar el compilador Numba para acelerar aplicaciones Python que se ejecutan en GPUs de NVIDIA.
Crear, compilar y lanzar kernels CUDA personalizados.
Gestionar la memoria de GPU.
Convertir una aplicación basada en CPU en una aplicación acelerada por GPU.
Este curso de capacitación en vivo dirigido por un instructor en Mississippi cubre cómo programar GPU para computación paralela, cómo usar varias plataformas, cómo trabajar con la plataforma CUDA y sus características, y cómo realizar varias técnicas de optimización usando CUDA. Algunas de las aplicaciones incluyen aprendizaje profundo, análisis, procesamiento de imágenes y aplicaciones de ingeniería.
Leer más...
Última Actualización:
Testimonios (2)
Muy interactivo con varios ejemplos, con una buena progresión en complejidad entre el inicio y el final de la formación.
Jenny - Andheo
Curso - GPU Programming with CUDA and Python
Traducción Automática
Entrenadores, energía y humor.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
Cursos de Fin de Semana de GPU (Graphics Processing Unit) en Mississippi, Capacitación por la Tarde de Graphics Processing Unit (GPU) en Mississippi, Graphics Processing Unit con instructor en Mississippi, Instructor de Graphics Processing Unit en Mississippi, Cursos Privados de Graphics Processing Unit en Mississippi, GPU boot camp en Mississippi, Clases de GPU en Mississippi, Cursos por la Tarde de Graphics Processing Unit (GPU) en Mississippi, Clases Particulares de GPU (Graphics Processing Unit) en Mississippi, Graphics Processing Unit coaching en Mississippi, Graphics Processing Unit (GPU) en sitio en Mississippi, Capacitación de Fin de Semana de GPU (Graphics Processing Unit) en Mississippi, Cursos de Formación de GPU (Graphics Processing Unit) en Mississippi, Capacitador de GPU (Graphics Processing Unit) en Mississippi