Description
Explorer les options de calcul et de stockage pour les workloads de Data Engineering
Exécuter des requêtes interactives à l'aide des pools SQL sans serveur Azure Synapse Analytics
- Explorer les capacités des pools SQL sans serveur Azure Synapse
- Interroger des données dans le Data Lake à l'aide des pools SQL sans serveur Azure Synapse
- Créer des objets de métadonnées dans les pools SQL sans serveur Azure Synapse
- Sécuriser des données et gérer des utilisateurs dans les pools SQL sans serveur Azure Synapse
Exploration et transformation des données dans Azure Databricks
Explorer, transformer et charger des données dans le Data Warehouse à l'aide d'Apache Spark
- Comprendre l'ingénierie du Big Data avec Apache Spark dans Azure Synapse Analytics
- Ingérer des données avec les notebooks d'Apache Spark dans Azure Synapse Analytics
- Transformer les données avec des DataFrames dans les pools Apache Spark dans Azure Synapse Analytics
- Intégrer des pools SQL et Apache Spark dans Azure Synapse Analytics
Ingérer et charger des données dans le Data Warehouse
- Utiliser les bonnes pratiques de chargement de données dans Azure Synapse Analytics
- Ingérer à l'échelle du pétaoctet avec Azure Data Factory
Transformation des données avec Azure Data Factory ou Azure Synapse Pipelines
- Intégrer des données avec Azure Data Factory ou Azure Synapse Pipelines
- Transformer sans code et à l'échelle avec Azure Data Factory ou Azure Synapse Pipelines
Orchestrer le mouvement et la transformation des données dans Azure Synapse Pipelines
Sécurité end-to-end avec Azure Synapse Analytics
- Sécuriser un Data Warehouse dans Azure Synapse Analytics
- Configurer et gérer les secrets dans Azure Key Vault
- Mettre en oeuvre des contrôles de conformité pour les données sensibles
Prise en charge du traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
- Concevoir un traitement transactionnel et analytique hybride à l'aide d'Azure Synapse Analytics
- Configuration d'Azure Synapse Link avec Azure Cosmos DB
- Interroger Azure Cosmos DB avec des pools :
Traitement des flux en temps réel avec Stream Analytics
- Mettre en place une messagerie fiable pour les applications Big Data à l'aide d'Azure Event Hubs
- Travailler avec des flux de données à l'aide d'Azure Stream Analytics
- Ingérer des flux de données avec Azure Stream Analytics
Créer une solution de traitement de flux avec Event Hubs et Azure Databricks
Certification
- Le passage de l'examen se fera (ultérieurement) dans un centre agréé Pearson Vue
- L'examen (en anglais) s'effectuera en ligne
Objectifs
- Expérimenter les options de calcul et de stockage pour les workloads de Data Engineering dans Azure
- Exécuter des requêtes interactives à l'aide de pools SQL sans serveur
- Effectuer l'exploration et la transformation des données dans Azure Databricks
- Explorer, transformer et charger des données dans le Data Warehouse à l'aide d'Apache Spark
- Ingérer et charger des données dans le Data Warehouse
- Transformer les données avec Azure Data Factory ou Azure Synapse Pipelines
- Intégrer les données à partir des notebooks avec Azure Data Factory ou Azure Synapse Pipelines
- Prendre en charge le traitement analytique transactionnel hybride (HTAP) avec Azure Synapse Link
- Assurer la sécurité end-to-end avec Azure Synapse Analytics
- Effectuer un traitement de flux en temps réel avec Stream Analytics
- Créer une solution de traitement de flux avec Event Hubs et Azure Databricks.
Résultats
- Concevoir et développer des solutions de stockage et de traitement de données pour l'entreprise
- Configurer et déployer des services de données Cloud tels que des services Blob, des bases de données et des fonctionnalités d'analytique
- Sécuriser la plateforme et les données stockées
- Vérifier que seuls les utilisateurs autorisés peuvent accéder aux données
- Assurer la continuité de l'activité dans les situations exceptionnelles à l'aide des techniques de haute disponibilité et de reprise d'activité après sinistre
- Assurer la supervision des systèmes pour vérifier qu'ils s'exécutent correctement et qu'ils sont économiques.
Lien pour visualiser la fiche RS : [lien privée]>