Implement a Data Analytics Solution with Azure Databricks.

DP-3011B
 
Fecha de publicación KeD: 17 Febrero 2026
Duración: 1 Día.
Examen: Este curso no tiene examen asociado.
 
Descarga el Temario en versión PDF
 
Este curso explora cómo usar Databricks y Apache Spark en Azure para llevar proyectos de datos desde la exploración hasta la producción. Aprenderás a ingerir, transformar y analizar conjuntos de datos a gran escala con Spark DataFrames, Spark SQL y PySpark, mientras ganas confianza en la gestión del procesamiento distribuido de datos. En el camino, podrás experimentar directamente el espacio de trabajo de Databricks: navegando por clústeres y creando y optimizando tablas Delta. También profundizarás en prácticas de ingeniería de datos, incluyendo el diseño de pipelines ETL, la gestión de la evolución de esquemas y la aplicación de la calidad de los datos. El curso pasa entonces a la orquestación, mostrándote cómo automatizar y gestionar cargas de trabajo con Lakeflow Jobs y pipelines. Para rematar, explorarás capacidades de gobernanza y seguridad como la integración con Unity Catalog y Purview, asegurando que puedas trabajar con datos en un entorno seguro, bien gestionado y listo para producción.
 

Perfil del público.

Antes de realizar este curso, los estudiantes ya deberían sentirse cómodos con los fundamentos de Python y SQL. Esto incluye la capacidad de escribir scripts simples en Python y trabajar con estructuras de datos comunes, así como escribir consultas SQL para filtrar, unir y agregar datos. Un conocimiento básico de formatos de archivo comunes como CSV, JSON o Parquet también ayudará al trabajar con conjuntos de datos. Además, es importante conocer el portal de Azure y servicios centrales como Azure Storage, junto con una conciencia general de conceptos de datos como procesamiento por lotes frente a procesamiento en streaming y datos estructurados frente a no estructurados. Aunque no es obligatorio, la experiencia previa con frameworks de big data como Spark y la experiencia trabajando con notebooks Jupyter pueden facilitar la transición a Databricks.
 

Temario.

Módulo 1: Explore Azure Databricks.

Azure Databricks es un servicio en la nube que proporciona una plataforma escalable para el análisis de datos utilizando Apache Spark.

Introducción.
Empieza con Azure Databricks.
Identificar cargas de traballo Azure Databricks.
Entiende los conceptos clave.
Gobernanza de datos usando Unity Catalog y Microsoft Champview.
Ejercicio: Explore Azure Databricks.


Módulo 2: Realizar análisis de datos con Azure Databricks.

Aprende a realizar análisis de datos usando Azure Databricks. Explora varios métodos de ingesta de datos y cómo integrar datos de fuentes como Azure Data Lake y Azure SQL Database. Este módulo te guía en el uso de cuadernos colaborativos para realizar análisis exploratorio de datos (EDA), para que puedas visualizar, manipular y examinar datos y descubrir patrones, anomalías y correlaciones.

Ingest data with Azure Databricks.
Herramientas de exploración de datos en Azure Databricks.
Análisis de datos usando APIs de DataFrame.
Ejercicio: Explorar datos con Azure Databricks.


Módulo 3: Use Apache Spark in Azure Databricks.

Azure Databricks está construido sobre Apache Spark y permite a ingenieros de datos y analistas ejecutar trabajos de Spark para transformar, analizar y visualizar datos a gran escala.

Conoce a Spark.
Crear un clúster Spark.
Usa Spark en los cuadernos.
Usa Spark para trabajar con archivos de datos.
Visualizar datos.
Ejercicio: Usar Spark en Azure Databricks.


Módulo 4: Gestionar datos con Delta Lake.

Delta Lake es una solución de gestión de datos en Azure Databricks que ofrece funciones como transacciones ACID, aplicación de esquemas y viajes en el tiempo, garantizando coherencia, integridad y capacidades de versionado de datos.

Empieza con Delta Lake.
Crear tablas Delta.
Implementar la aplicación de esquemas.
Versionado de datos y viajes en el tiempo en Delta Lake.
Integridad de datos con Delta Lake.
Ejercicio: Uso de Delta Lake in Azure Databricks.


Módulo 5: Construir Oleoductos Declarativos de Flujo de Lago.

Construir Lakeflow Declarative Pipelines permite un procesamiento de datos en tiempo real, escalable y fiable utilizando las funciones avanzadas de Delta Lake en Azure Databricks.

Explora los Oleoductos Declarativos de Flujo de Lago.
Ingesta e integración de datos.
Procesamiento en tiempo real.
Ejercicio: Crear una Tubería Declarativa de Flujo de Lago.


Módulo 6: Despliega cargas de trabajo con Lakeflow Jobs.

Desplegar cargas de trabajo con Lakeflow Jobs implica orquestar y automatizar procesos complejos de procesamiento de datos, flujos de trabajo de aprendizaje automático y tareas analíticas. En este módulo, aprendes a desplegar cargas de trabajo con los trabajos Lakeflow de Databricks.

¿Qué son los empleos de Lakeflow?
Comprende los componentes clave de los empleos en Lakeflow.
Explora los beneficios de los empleos en Lakeflow.
Despliega cargas de trabajo usando Lakeflow Jobs.
Ejercicio: Crear un trabajo de flujo de lago.

 
Garantia Ofrecemos la garantía 100% de satisfacción
Si no te gusta el resultado de tu curso, puedes volver a tomarlo en cualquier otra fecha calendario.
 
Regresa a la página anterior