Description
Notre programme de formation en Data Engineering
et Big Data a pour objectif de fournir aux participants les compétences nécessaires pour concevoir, mettre en place et gérer des pipelines de données à grande échelle. Les
participants apprendront à utiliser les technologies
de pointe telles que Databricks, Hadoop, Spark et Kafka pour collecter, stocker, traiter et analyser des données volumineuses.
Objectifs
Acquérir les compétences nécessaires pour maîtriser les solutions Cloud d¿Amazon AWS et Google Cloud, ainsi que la surveillance de l¿activité des serveurs. Apprendre également à développer et manipuler ses propres API.
Apprendre à mettre en production un projet de données, en découvrant les notions de dockerisation, de clusters Kubernetes et les apports des solutions Hadoop. Comprendre l¿architecture des applicatifs Hadoop et identifier les cas d¿usage des solutions Hadoop.
Apprendre à manipuler les bases de données SQL et NoSQL telles que MongoDB, ElasticSearch et
Neo4J, ainsi que la création d¿un Data Streaming Pipeline et la maîtrise de l¿utilisation de Kafka. Mise en
pratique avec un projet de données pour consolider les compétences acquises.
Résultats
Acquérir les compétences nécessaires pour maîtriser les solutions Cloud d¿Amazon AWS et Google
Cloud, ainsi que la surveillance de l¿activité des serveurs. Apprendre également à développer et
manipuler ses propres API.