Con conocimientos previos
Ingeniería de datos para plataformas modernas
Arquitectura, Data Lakes y procesamiento batch en la nube
Unidad 1 | Fundamentos de ingeniería de Datos y Cloud
Comprenderás el rol del ingeniero de datos y las bases de las arquitecturas modernas en la nube, con enfoque en gobierno, calidad y linaje de la información.
20 horas asincrónicas
20 horas sincrónicas
Unidad 2 | Bases de datos relacionales y NoSQL
Diseñarás y gestionarás bases de datos relacionales y NoSQL, creando modelos eficientes según el caso de uso.
20 horas asincrónicas
20 horas sincrónicas
Unidad 3 | Arquitectura escalable y Data Lakes
Construye arquitecturas escalables de datos con Data Lakes, utilizando tecnologías modernas en entornos cloud.
20 horas sincrónicas
20 horas asincrónicas
Unidad 4 | Procesamiento Distribuido con Spark (Batch)
Procesarás grandes volúmenes de datos con Apache Spark y PySpark, aplicando procesamiento batch y optimización en la nube.
20 horas sincrónicas
20 horas asincrónicas
Unidad 5 | Proyéctate al mundo laboral tech
Optimiza tu perfil en LinkedIn, crea una hoja de vida efectiva y prepárate para entrevistas técnicas y blandas. Convierte tu formación en oportunidades reales de empleo.
8 horas asincrónicas
01.
Clases en vivo
En enyoi aplicamos el Aprendizaje Basado en Proyectos (ABP), para que desarrolles habilidades reales desde el primer día.
02.
Plataforma 24/7
Accede a +500 contenidos pedagógicos; videos, lecturas y ejercicios que refuerzan tu aprendizaje.
03.
Aprender haciendo
Desarrolla proyectos prácticos que simulan escenarios del mundo laboral.
04.
Acompañamiento real
Mentores y comunidad te apoyan en cada paso para que nunca avances solo.
Divide el valor total en dos cuotas. Una opción flexible para organizar tu inversión y avanzar en tu formación paso a paso.
¿Necesito conocimientos previos en programación para este curso?
Sí. Este curso requiere conocimientos básicos de programación y lógica, ya que se enfoca en el diseño y construcción de soluciones reales de ingeniería de datos.
¿Qué herramientas aprenderé a usar?
Aprenderás a trabajar con SQL, Python, bases de datos relacionales y NoSQL, Apache Spark y PySpark, Data Lakes y servicios en la nube como AWS (S3 y Glue).