Los cursos de capacitación de Stream Processing en vivo, en línea o en el sitio, dirigidos por un instructor, demuestran a través de debates interactivos y prácticas prácticas los fundamentos y temas avanzados de Stream Processing. El entrenamiento de Stream Processing está disponible como "entrenamiento en vivo en el sitio" o "entrenamiento remoto en vivo". El entrenamiento en vivo en línea (también conocido como "entrenamiento remoto en vivo") se lleva a cabo a través de un escritorio remoto interactivo. El entrenamiento en vivo en el sitio se puede llevar a cabo localmente en las instalaciones del cliente en Michigan o en los centros de entrenamiento corporativos de NobleProg en Michigan. NobleProg: su proveedor local de capacitación
Detroit, MI - Renaissance Center
400 Renaissance Center, Detroit, United States, 48243
El GM Renaissance Center está convenientemente ubicado en el centro de Detroit y es fácilmente accesible en coche a través de las autopistas I‑75 o I‑94, con estacionamiento subterráneo seguro disponible en el edificio. Los visitantes que lleguen desde el Aeropuerto Metropolitano de Detroit (DTW) pueden llegar en unos 25 a 30 minutos en taxi o rideshare por la I‑94. El transporte público también es eficiente: el tranvía Detroit People Mover tiene una parada directa en la estación del Renaissance Center, y las rutas 3 y 9 de DDOT paran cerca sobre la avenida Jefferson. El complejo cuenta con pasarelas internas que conectan con hoteles, estacionamientos y el riverwalk.
Ann Arbor, MI – Regus - South State Commons I
2723 S State St, Ann Arbor, United States, 48104
Regus South State Commons I está convenientemente ubicado junto a la autopista I‑94 (salida 177 – State Street), con acceso rápido al centro de Ann Arbor y sus alrededores. El edificio ofrece estacionamiento gratuito en superficie para los visitantes. Desde el Aeropuerto Metropolitano de Detroit (DTW), se puede llegar en taxi o servicio rideshare en unos 20 a 25 minutos por la I‑94 oeste. El transporte público local (TheRide) opera la Ruta 24 por South State Street, con una parada a solo 2 minutos a pie del edificio.
Grand Rapids, MI - Regus – Calder Plaza
250 Monroe Ave NW, Grand Rapids, United States, 49503
El local está ubicado en el centro de Grand Rapids en 250 Monroe Avenue NW, con acceso fácil en coche desde US‑131 o I‑196 utilizando las salidas de Monroe u Ottawa, y cuenta con estacionamiento subterráneo y superficie compartido. Desde el Aeropuerto Internacional Gerald R. Ford, tome la I‑96 Este y luego la I‑196 Oeste hacia el centro de la ciudad; el trayecto dura aproximadamente 20 minutos. El transporte público a través de las líneas de autobús Rapid tiene paradas cerca de Monroe u Ottawa Avenue, a pocos minutos a pie de la entrada de Regus; la zona céntrica es peatonal y accesible.
Lansing, MI - Regus - One Michigan Avenue
120 North Washington Square, Lansing, United States, 48933
El lugar está ubicado en el corazón del distrito comercial de Lansing, en 120 North Washington Square, con acceso fácil en coche a través de la I‑496 o la US‑127 y dispone de estacionamiento en la calle y un garaje cercano. Desde el Aeropuerto Regional de la Capital (LAN), se llega en unos 12 minutos conduciendo hacia el oeste por la I‑96 y US‑127; hay taxis y servicios de transporte compartido disponibles con facilidad. Los usuarios de transporte público pueden tomar rutas de autobuses CATA con paradas a una cuadra en Washington o Grand Avenue, lo que permite un acceso eficiente al lugar.
Confluent Apache Kafka es una plataforma de streaming de eventos distribuida y de nivel empresarial construida sobre Apache Kafka. Apoya pipelines de datos con alta capacidad de transferencia, tolerancia a fallos y aplicaciones de streaming en tiempo real.
Este entrenamiento dirigido por instructores (en línea o presencial) está destinado a ingenieros y administradores de nivel intermedio que desean implementar, configurar y optimizar clústeres Confluent Kafka en entornos de producción.
Al final de este entrenamiento, los participantes serán capaces de:
Instalar, configurar y operar clústeres Confluent Kafka con múltiples brokers.
Diseñar configuraciones de alta disponibilidad utilizando Zookeeper y técnicas de replicación.
Ajustar el rendimiento, monitorear métricas y aplicar estrategias de recuperación.
Seguridad, escalado e integración de Kafka con entornos empresariales.
Formato del Curso
Charlas interactivas y discusiones.
Numerosos ejercicios y prácticas.
Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
Para solicitar un entrenamiento personalizado para este curso, por favor contáctenos para coordinar.
Confluent Apache Kafka es una plataforma de streaming de eventos distribuida diseñada para tuberías de datos de alta capacidad y análisis en tiempo real tolerantes a fallos.
Este entrenamiento dirigido por un instructor (en línea o presencial) está destinado a administradores de sistemas de nivel intermedio y profesionales DevOps que desean instalar, configurar, monitorear y solucionar problemas en clusters de Confluent Apache Kafka.
Al finalizar este entrenamiento, los participantes podrán:
Comprender los componentes y la arquitectura de Confluent Kafka.
Implementar y administrar brokers Kafka, cuórum Zookeeper y servicios clave.
Configurar características avanzadas que incluyen seguridad, replicación y ajuste de rendimiento.
Utilizar herramientas de gestión para monitorear y mantener clusters Kafka.
Formato del Curso
Charla interactiva y discusión.
Numerosos ejercicios y prácticas.
Implementación práctica en un entorno de laboratorio vivo.
Opciones de Personalización del Curso
Para solicitar una formación personalizada para este curso, por favor contáctenos para organizarlo.
Apache Beam es un modelo de programación unificado de código abierto para definir y ejecutar tuberías de procesamiento de datos paralelas. Su poder radica en su capacidad para ejecutar canalizaciones por lotes y de transmisión, y la ejecución la lleva a cabo uno de los back-ends de procesamiento distribuido compatibles con Beam: Apache Apex, Apache Flink, Apache Spark y Google Cloud Dataflow. Apache Beam es útil para tareas ETL (Extracción, Transformación y Carga), como mover datos entre diferentes medios de almacenamiento y fuentes de datos, transformar datos a un formato más deseable y cargar datos en un nuevo sistema.
En esta capacitación en vivo dirigida por un instructor (presencial o remota), los participantes aprenderán a implementar los SDK Apache Beam en una aplicación Java o Python que define una canalización de procesamiento de datos para descomponer un conjunto de datos grandes en fragmentos más pequeños para un procesamiento paralelo e independiente.
Al final de esta formación, los participantes serán capaces de:
Instalar y configurar Apache Beam.
Utilice un único modelo de programación para llevar a cabo el procesamiento por lotes y por secuencias desde su aplicación Java o Python.
Ejecute canalizaciones en múltiples entornos.
Formato del curso
En parte conferencia, en parte discusión, ejercicios y práctica práctica pesada
Nota
Este curso estará disponible Scala en el futuro. Póngase en contacto con nosotros para organizarlo.
este entrenamiento en vivo (in situ o remoto) dirigido por un instructor está dirigido a ingenieros que deseen utilizar Confluent (una distribución de Kafka) para construir y administrar una plataforma de procesamiento de datos en tiempo real para sus aplicaciones.
al final de esta formación, los participantes podrán:
Instalar y configurar Confluent Platform.
Utilizar las herramientas y servicios de administración de Confluent para ejecutar Kafka de manera más sencilla.
Almacenar y procesar datos de flujo entrantes.
Optimizar y gestionar clústeres de Kafka.
Seguridad de los flujos de datos.
Format del curso
Conferencia interactiva y discusión.
Numerosos ejercicios y práctica.
Implementación práctica en un entorno de laboratorio en vivo.
Course
Este curso se basa en la versión open source de Confluent: Confluent Open Source.
Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Esta capacitación en vivo dirigida por un instructor en Michigan (en línea o presencial) presenta los principios y enfoques detrás del procesamiento de datos de flujo distribuido y por lotes, y guía a los participantes a través de la creación de una aplicación de transmisión de datos en tiempo real en Apache Flink.
Al final de esta formación, los participantes serán capaces de:
Configure un entorno para desarrollar aplicaciones de análisis de datos.
Comprender cómo funciona la biblioteca de procesamiento de gráficos (Gelly) de Apache Flink.
Empaquete, ejecute y supervise aplicaciones de transmisión de datos tolerantes a errores y basadas en Flink.
Administre diversas cargas de trabajo.
Realizar analíticas avanzadas.
Configure un clúster de Flink de varios nodos.
Mida y optimice el rendimiento.
Integre Flink con diferentes Big Data sistemas.
Compare las capacidades de Flink con las de otros marcos de procesamiento de big data.
En esta capacitación en vivo dirigida por un instructor en Michigan (presencial o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos Stream Processing con los sistemas de almacenamiento de big data existentes y las aplicaciones de software y microservicios relacionados.
Al final de esta formación, los participantes serán capaces de:
Instale y configure diferentes marcos Stream Processing, como Spark Streaming y Kafka Streaming.
Comprender y seleccionar el marco más adecuado para el trabajo.
Procesamiento de datos de forma continua, simultánea y registro por registro.
Integre Stream Processing soluciones con bases de datos, almacenes de datos, lagos de datos, etc. existentes.
Integre la biblioteca de procesamiento de flujos más adecuada con aplicaciones empresariales y microservicios.
Esta capacitación en vivo dirigida por un instructor en Michigan (en línea o presencial) está dirigida a ingenieros de datos, científicos de datos y programadores que deseen utilizar las funciones Apache Kafka en la transmisión de datos con Python.
Al final de esta capacitación, los participantes podrán usar Apache Kafka para monitorear y administrar condiciones en flujos de datos continuos utilizando Python programación.
Kafka Streams es una biblioteca del lado del cliente para crear aplicaciones y microservicios cuyos datos se pasan hacia y desde un sistema de mensajería de Kafka. Tradicionalmente, Apache Kafka se ha basado en Apache Spark o Apache Storm para procesar datos entre los productores de mensajes y los consumidores. Al llamar a la API de Kafka Streams desde una aplicación, los datos se pueden procesar directamente dentro de Kafka, evitando la necesidad de enviar los datos a un clúster independiente para su procesamiento.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones de muestra Java que pasan datos hacia y desde Apache Kafka para el procesamiento de flujos.
Al final de esta formación, los participantes serán capaces de:
Comprender las características y ventajas de Kafka Streams sobre otros marcos de procesamiento de flujos
Procesar datos de flujo directamente dentro de un clúster de Kafka
Escribir una aplicación o microservicio Java o Scala que se integre con Kafka y Kafka Streams
Escribir código conciso que transforme temas de entrada de Kafka en temas de salida de Kafka
Construir, empaquetar y desplegar la aplicación
Audiencia
Desarrolladores
Formato del curso
Parte teórica, parte discusión, ejercicios y práctica intensiva
Notas
Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar
Esta capacitación en vivo dirigida por un instructor en Michigan (en línea o presencial) está dirigida a desarrolladores que desean implementar Apache Kafka el procesamiento de flujos sin escribir código.
Al final de esta formación, los participantes serán capaces de:
Instale y configure Confluent KSQL.
Configure una canalización de procesamiento de secuencias utilizando solo los comandos SQL (sin codificación Java o Python).
Lleve a cabo el filtrado de datos, las transformaciones, las agregaciones, las uniones, las ventanas y la sessionización íntegramente en SQL.
Diseñe e implemente consultas interactivas y continuas para la transmisión de ETL y análisis en tiempo real.
En esta capacitación en vivo dirigida por un instructor en Michigan (presencial o remoto), los participantes aprenderán cómo implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.
Al final de esta formación, los participantes serán capaces de:
Instala y configura Apachi NiFi.
Obtenga, transforme y administre datos de fuentes de datos dispares y distribuidas, incluidas bases de datos y lagos de big data.
Automatice los flujos de datos.
Habilite el análisis de transmisión.
Aplique varios enfoques para la ingesta de datos.
Transforme Big Data y conviértase en información empresarial.
En esta capacitación en vivo dirigida por un instructor en Michigan, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una serie de extensiones, componentes y procesadores de demostración utilizando Apache NiFi.
Al final de esta formación, los participantes serán capaces de:
Comprenda la arquitectura de NiFi y los conceptos de flujo de datos.
Desarrolle extensiones utilizando NiFi y API de terceros.
Desarrollar a medida su propio procesador Apache Nifi.
Ingiera y procese datos en tiempo real de formatos de archivo y fuentes de datos dispares y poco comunes.
Esta capacitación en vivo dirigida por un instructor en Michigan (en línea o en el sitio) está dirigida a ingenieros de datos, científicos de datos y programadores que deseen utilizar Spark Streaming funciones en el procesamiento y análisis de datos en tiempo real.
Al final de esta capacitación, los participantes podrán usar Spark Streaming para procesar flujos de datos en vivo para su uso en bases de datos, sistemas de archivos y paneles de control en vivo.
Leer más...
Última Actualización:
Testimonios (4)
Suficiente práctica, el instructor es conocedor
Chris Tan
Curso - A Practical Introduction to Stream Processing
Traducción Automática
Durante los ejercicios, James me explicó cada paso en detalle donde me estaba atascando. Yo era completamente nuevo en NIFI. Él explicó el propósito real de NIFI, incluso conceptos básicos como ser código abierto. Cubrió todos los conceptos de Nifi, desde nivel principiante hasta nivel desarrollador.
Firdous Hashim Ali - MOD A BLOCK
Curso - Apache NiFi for Administrators
Traducción Automática
Que lo tuviera en primer lugar.
Peter Scales - CACI Ltd
Curso - Apache NiFi for Developers
Traducción Automática
Recordatorio/revisión de puntos clave de los temas discutidos.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Curso - Building Stream Processing Applications with Kafka Streams
Cursos de Fin de Semana de Procesamiento de flujo en Michigan, Capacitación por la Tarde de Procesamiento de flujo en Michigan, Procesamiento de flujo con instructor en Michigan, Instructor de Procesamiento de flujo en Michigan, Capacitador de Procesamiento de flujo en Michigan, Clases de Procesamiento de flujo en Michigan, Procesamiento de flujo boot camp en Michigan, Cursos Privados de Procesamiento de flujo en Michigan, Cursos de Formación de Procesamiento de flujo en Michigan, Procesamiento de flujo coaching en Michigan, Cursos por la Tarde de Procesamiento de flujo en Michigan, Clases Particulares de Procesamiento de flujo en Michigan, Procesamiento de flujo en sitio en Michigan, Capacitación de Fin de Semana de Procesamiento de flujo en MichiganCursos de Fin de Semana de Stream Processing en Michigan, Capacitación por la Tarde de Stream Processing en Michigan, Stream Processing con instructor en Michigan, Capacitador de Stream Processing en Michigan, Clases Particulares de Stream Processing en Michigan, Cursos de Formación de Stream Processing en Michigan, Cursos Privados de Stream Processing en Michigan, Stream Processing en sitio en Michigan, Instructor de Stream Processing en Michigan, Stream Processing boot camp en Michigan, Capacitación de Fin de Semana de Stream Processing en Michigan, Stream Processing coaching en Michigan, Clases de Stream Processing en Michigan, Cursos por la Tarde de Stream Processing en Michigan