Módulo 1: Explore Azure Databricks.
Azure Databricks es un servicio en la nube que proporciona una plataforma escalable para el análisis de datos utilizando Apache Spark.
• Introducción.
• Empieza con Azure Databricks.
• Identificar cargas de traballo Azure Databricks.
• Entiende los conceptos clave.
• Gobernanza de datos usando Unity Catalog y Microsoft Champview.
• Ejercicio: Explore Azure Databricks.
Módulo 2: Realizar análisis de datos con Azure Databricks.
Aprende a realizar análisis de datos usando Azure Databricks. Explora varios métodos de ingesta de datos y cómo integrar datos de fuentes como Azure Data Lake y Azure SQL Database. Este módulo te guía en el uso de cuadernos colaborativos para realizar análisis exploratorio de datos (EDA), para que puedas visualizar, manipular y examinar datos y descubrir patrones, anomalías y correlaciones.
• Ingest data with Azure Databricks.
• Herramientas de exploración de datos en Azure Databricks.
• Análisis de datos usando APIs de DataFrame.
• Ejercicio: Explorar datos con Azure Databricks.
Módulo 3: Use Apache Spark in Azure Databricks.
Azure Databricks está construido sobre Apache Spark y permite a ingenieros de datos y analistas ejecutar trabajos de Spark para transformar, analizar y visualizar datos a gran escala.
• Conoce a Spark.
• Crear un clúster Spark.
• Usa Spark en los cuadernos.
• Usa Spark para trabajar con archivos de datos.
• Visualizar datos.
• Ejercicio: Usar Spark en Azure Databricks.
Módulo 4: Gestionar datos con Delta Lake.
Delta Lake es una solución de gestión de datos en Azure Databricks que ofrece funciones como transacciones ACID, aplicación de esquemas y viajes en el tiempo, garantizando coherencia, integridad y capacidades de versionado de datos.
• Empieza con Delta Lake.
• Crear tablas Delta.
• Implementar la aplicación de esquemas.
• Versionado de datos y viajes en el tiempo en Delta Lake.
• Integridad de datos con Delta Lake.
• Ejercicio: Uso de Delta Lake in Azure Databricks.
Módulo 5: Construir Oleoductos Declarativos de Flujo de Lago.
Construir Lakeflow Declarative Pipelines permite un procesamiento de datos en tiempo real, escalable y fiable utilizando las funciones avanzadas de Delta Lake en Azure Databricks.
• Explora los Oleoductos Declarativos de Flujo de Lago.
• Ingesta e integración de datos.
• Procesamiento en tiempo real.
• Ejercicio: Crear una Tubería Declarativa de Flujo de Lago.
Módulo 6: Despliega cargas de trabajo con Lakeflow Jobs.
Desplegar cargas de trabajo con Lakeflow Jobs implica orquestar y automatizar procesos complejos de procesamiento de datos, flujos de trabajo de aprendizaje automático y tareas analíticas. En este módulo, aprendes a desplegar cargas de trabajo con los trabajos Lakeflow de Databricks.
• ¿Qué son los empleos de Lakeflow?
• Comprende los componentes clave de los empleos en Lakeflow.
• Explora los beneficios de los empleos en Lakeflow.
• Despliega cargas de trabajo usando Lakeflow Jobs.
• Ejercicio: Crear un trabajo de flujo de lago.
|