Formación

Data Engineering on Microsoft Azure (DP-203T00)

Curso desarrollado en colaboración con Nextraining

Formato:  Online en directo (aula virtual)

Cuándo: Del 14 al 18 de febrero. Lunes a viernes de 09:00 a 14:00h.

Cuánto: Externos: 995€. Asociados: 895€

Se puede bonificar el curso a través de la Fundación Estatal para la Formación en el Empleo en función del crédito disponible de la empresa, pero hay que tener presente que es necesario comunicar a la Fundación la realización del curso con una antelación mínima a su inicio de 10 días naturales.

Fin plazo de matrícula: 6 de febrero

boton otros cursos

Presentación del curso

Azure Data Engineers ayudan a los interesados a entender los datos mediante la exploración, y construyen y mantienen canalizaciones de procesamiento de datos seguras y conformes utilizando diferentes herramientas y técnicas. Estos profesionales utilizan varios lenguajes y Azure data services para almacenar y producir conjuntos de datos limpios y mejorados para su análisis.

Aprenda acerca de la ingeniería de datos en lo que se refiere a trabajar con soluciones analíticas por lotes y en tiempo real utilizando las tecnologías de la plataforma de datos de Azure. Los estudiantes comenzarán entendiendo las tecnologías básicas de computación y almacenamiento que se utilizan para construir una solución analítica.

Requisitos previos

Los alumnos que aprueben este curso tendrán conocimientos sobre computación en cloud y conceptos básicos de datos, así como experiencia profesional con soluciones de datos.

Dirigido a

El público principal de este curso son profesionales de datos, arquitectos de datos y profesionales de la inteligencia empresarial que quieren aprender sobre ingeniería de datos y construcción de soluciones analíticas utilizando tecnologías de plataformas de datos que existen en Microsoft Azure. El asistente secundario de este curso son analistas y científicos de datos que trabajan con soluciones analíticas construidas en Microsoft Azure.

Contenidos

Módulo 1: Explorar las opciones de computación y almacenamiento para las cargas de trabajo de ingeniería de datos
Introducción a Azure Synapse Analytics
Describir Azure Databricks
Introducción al almacenamiento de Azure Data Lake
Describir la arquitectura de Delta Lake
Trabajar con flujos de datos utilizando Azure Stream Analytics
Laboratorio : Explora opciones de computación y almacenamiento para cargas de trabajo de ingeniería de datos
Combinar el procesamiento en flujo y por lotes con una única canalización
Organizar el lago de datos en niveles de transformación de archivos
Indexar el almacenamiento del lago de datos para acelerar las consultas y las cargas de trabajo

Módulo 2: Ejecutar consultas interactivas utilizando los pools SQL sin servidor de Azure Synapse Analytics
Explorar capacidades de los pools SQL sin servidor de Azure Synapse
Consultar de datos en el lago utilizando pools SQL sin servidor de Azure Synapse
Crear objetos de metadatos en pools SQL sin servidor de Azure Synapse
Proteger datos y gestionar usuarios en pools SQL sin servidor de Azure Synapse
Laboratorio : Realiza consultas interactivas utilizando pools SQL sin servidor
Consultar datos de Parquet con pools SQL sin servidor
Crear tablas externas para archivos Parquet y CSV
Crear vistas con pools SQL sin servidor
Asegurar el acceso a los datos de un lago de datos utilizando pools SQL sin servidor
Configurar la seguridad del lago de datos utilizando el Control de Acceso Basado en Cargos (RBAC) y la Lista de Control de Acceso

Módulo 3: Exploración y transformación de datos en Azure Databricks
Describir Azure Databricks
Leer y escribir datos en Azure Databricks
Trabajar con DataFrames en Azure Databricks
Trabajar con métodos avanzados de DataFrames en Azure Databricks
Laboratorio : Exploración y Transformación de Datos en Azure Databricks
Utiliza DataFrames en Azure Databricks para explorar y filtrar datos
Almacena un DataFrame para agilizar las consultas posteriores
Eliminar datos duplicados

Manipular valores de fecha/hora
Eliminar y renombrar columnas de DataFrame
Agregar datos almacenados en un DataFrame

Módulo 4: Explorar, transformar y cargar datos en el Almacén de Datos utilizando Apache Spark
Entender la ingeniería de big data con Apache Spark en Azure Synapse Analytics
Ingesta de datos con cuadernos de Apache Spark en Azure Synapse Analytics
Transformar datos con DataFrames en grupos de Apache Spark en Azure Synapse Analytics
Integrar grupos de SQL y Apache Spark en Azure Synapse Analytics
Laboratorio : Explorar, transformar y cargar datos en el almacén de datos utilizando Apache Spark
Realiza la Exploración de Datos en Synapse Studio
Ingesta de datos con cuadernos Spark en Azure Synapse Analytics
Transformar datos con DataFrames en grupos de Spark en Azure Synapse Analytics
Integrar grupos de SQL y Spark en Azure Synapse Analytics


Módulo 5: Ingesta y carga de datos en el almacén de datos
Utilizar las mejores prácticas de carga de datos en Azure Synapse Analytics
Ingesta a escala de petabytes con Azure Data Factory
Laboratorio : Ingesta y carga de datos en el Almacén de Datos
Realiza la ingestión a escala de petabytes con Azure Synapse Pipelines
Importar datos con PolyBase y COPY utilizando T-SQL
Utilizar las mejores prácticas de carga de datos en Azure Synapse Analytics

Módulo 6: Transformar datos con Azure Data Factory o Azure Synapse Pipelines
Integración de datos con Azure Data Factory o Azure Synapse Pipelines
Transformación sin código a escala con Azure Data Factory o Azure Synapse Pipelines
Laboratorio : Transformación de datos con Azure Data Factory o Azure Synapse Pipelines
Ejecutar transformaciones sin código a escala con Azure Synapse Pipelines
Crear una canalización de datos para importar archivos CSV mal formateados
Crear Flujos de Datos de Mapeo

Módulo 7: Orquestar el movimiento y la transformación de datos en Azure Synapse Pipelines
Orquestar el movimiento y la transformación de datos en Azure Data Factory
Laboratorio : Orquestar el movimiento y la transformación de datos en Azure Synapse Pipelines
Integrar Datos desde Cuadernos con Azure Data Factory o Azure Synapse Pipelines

Módulo 8: Seguridad integral con Azure Synapse Analytics
Asegurar un almacén de datos en Azure Synapse Analytics
Configurar y gestionar los secretos en Azure Key Vault
Implementar controles de cumplimiento para datos sensibles
Laboratorio : Seguridad integral con Azure Synapse Analytics
Asegura la infraestructura compatible con Azure Synapse Analytics
Asegura el espacio de trabajo de Azure Synapse Analytics y los servicios gestionados
Asegurar los datos del espacio de trabajo de Azure Synapse Analytics

Módulo 9: Soportar Hybrid Transactional Analytical Processing (HTAP) con Azure Synapse Link
Diseñar un procesamiento transaccional y analítico híbrido utilizando Azure Synapse Analytics
Configurar Azure Synapse Link con Azure Cosmos DB
Consulta de Azure Cosmos DB con grupos de Apache Spark
Consulta de Azure Cosmos DB con grupos de SQL sin servidor
Laboratorio : Soportar Hybrid Transactional Analytical Processing (HTAP) con Azure Synapse Link
Configurar Azure Synapse Link con Azure Cosmos DB
Consultar Azure Cosmos DB con Apache Spark para Synapse Analytics
Consultar Azure Cosmos DB con un grupo de SQL sin servidor para Azure Synapse Analytics

Módulo 10: Procesamiento de flujos en tiempo real con Stream Analytics
Habilitar la mensajería fiable para las aplicaciones de Big Data utilizando Azure Event Hubs
Trabajar con flujos de datos utilizando Azure Stream Analytics
Ingerir flujos de datos con Azure Stream Analytics
Laboratorio : Procesamiento de flujos en tiempo real con Stream Analytics
Utiliza Stream Analytics para procesar datos en tiempo real desde Event Hubs
Utiliza las funciones de ventana de Stream Analytics para crear agregados y enviarlos a Synapse Analytics
Escala el trabajo de Azure Stream Analytics para aumentar el rendimiento mediante la partición
Repartición de la aportación del flujo para optimizar la paralelización

Módulo 11: Crear una Solución de Procesamiento de Flujo con Event Hubs y Azure Databricks
Procesar datos en streaming con Azure Databricks structured streaming
Laboratorio : Crear una solución de procesamiento de streaming con Event Hubs y Azure Databricks
Explora las principales funciones y usos del Structured Streaming
Transmitir datos desde un archivo y escribirlos en un sistema de archivos distribuido
Utilizar ventanas deslizantes para agregar trozos de datos en lugar de todos los datos
Aplicar marcas de agua para eliminar los datos obsoletos
Conectar con flujos de lectura y escritura de Event Hubs

 

Formalización de matricula:
Tras rellenar el formulario de inscripción, el COIICV se pondrá en contacto con usted para indicarle las instrucciones para finalizar la matrícula en el curso. No es necesario que rellene los datos de facturación (se le solicitarán posteriormente).

 

boton inscripcion

 

 

 

logo SomDigitals

C/ Almirante Cadarso 26
46005 Valencia

+34 963622994

secretaria@somdigitals.org


logo SomDigitals

+34 963622994
secretaria@somdigitals.org

Save
Cookies - preferencia del usuario
Utilizamos cookies para garantizar que obtiene la mejor experiencia en nuestro sitio web. Si rechaza el uso de cookies, es posible que este sitio web no funcione como se esperaba.
Aceptar todo
Rechazar todo
Leer más
De análisis
Cookies utilizadas para analizar los datos y medir la efectividad de un sitio web y comprender cómo funciona.
Google Analytics
Aceptar
Rechazar