Accéder au contenu principal
AccueilPython

cursus

Ingénieur professionnel en données en Python

Plongez dans les compétences avancées et les outils de pointe qui révolutionnent les rôles de l'ingénierie des données aujourd'hui avec notre filière Professional Data Engineer.
Démarrez Le Parcours Gratuitement

Inclus avecPremium or Teams

Pythontopics.ingenierieDesDonnees40 heures

Créez votre compte gratuit

GoogleLinkedInFacebook

ou

En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données sont stockées aux États-Unis.
Group

Formation de 2 personnes ou plus ?

Essayer DataCamp for Business

Apprécié par les apprenants de milliers d’entreprises

Description du cursus

Ingénieur professionnel en données en Python

Faites passer vos compétences au niveau supérieur grâce à notre formation d'ingénieur en données professionnel. Ce parcours avancé est conçu pour compléter les parcours Associate Data Engineer in SQL et Data Engineer in Python. Il vous permet d'acquérir les connaissances et les outils de pointe nécessaires à l'exercice des fonctions modernes d'ingénierie des données. Tout au long de ce voyage, vous maîtriserez les architectures de données modernes, améliorerez vos compétences en Python grâce à une plongée en profondeur dans la programmation orientée objet, explorerez les bases de données NoSQL et exploiterez la puissance de dbt pour une transformation transparente des données. Découvrez les secrets de DevOps avec des pratiques essentielles, des techniques de test avancées et des outils tels que Docker pour rationaliser vos processus de développement et de déploiement. Plongez dans les technologies big data avec PySpark et maîtrisez le traitement des données et l'automatisation à l'aide de scripts shell. Participez à des projets pratiques et attaquez-vous à des ensembles de données du monde réel pour appliquer vos connaissances, déboguer des flux de travail complexes et optimiser les processus de données. En suivant ce parcours, vous acquerrez non seulement les compétences avancées nécessaires pour relever des défis complexes en matière d'ingénierie des données, mais aussi la confiance nécessaire pour les appliquer dans le monde dynamique de l'ingénierie des données.

Conditions préalables

Ingénieur de données
  • Course

    1

    Understanding Modern Data Architecture

    Discover modern data architecture's key components, from ingestion and serving to governance and orchestration.

  • Course

    This course introduces dbt for data modeling, transformations, testing, and building documentation.

  • Course

    Conquer NoSQL and supercharge data workflows. Learn Snowflake to work with big data, Postgres JSON for handling document data, and Redis for key-value data.

  • Course

    In this Introduction to DevOps, you’ll master the DevOps basics and learn the key concepts, tools, and techniques to improve productivity.

  • Course

    Maîtrisez les tests Python : Apprenez des méthodes, créez des vérifications et assurez-vous d'un code sans erreur avec pytest et unittest.

  • Project

    Bonus

    Debugging a Sales Data Workflow

    Sometimes, things that once worked perfectly suddenly hit a snag. Practice your knowledge of DataFrames to find the problem and fix it!

  • Course

    10

    Introduction à Docker

  • Chapter

    In this chapter, you'll learn how Spark manages data and how can you read and write tables from Python.

  • Chapter

    In this chapter, you'll learn about the pyspark.sql module, which provides optimized data queries to your Spark session.

  • Chapter

    This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.

  • Chapter

    The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.

  • Chapter

    In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.

  • Chapter

    In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.

  • Chapter

    In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.

  • Course

    Learn about the difference between batching and streaming, scaling streaming systems, and real-world applications.

  • Course

    Master Apache Kafka! From core concepts to advanced architecture, learn to create, manage, and troubleshoot Kafka for real-world data streaming challenges!

  • Course

    In this course, you will learn the fundamentals of Kubernetes and deploy and orchestrate containers using Manifests and kubectl instructions.

Ingénieur professionnel en données en Python
12 cours
Piste
terminée

Earn Déclaration de réalisation

Ajoutez ces informations d’identification à votre profil LinkedIn, à votre CV ou à votre CV
Partagez-le sur les réseaux sociaux et dans votre évaluation de performance

Inclus avecPremium or Teams

S'inscrire Maintenant

Inscrivez-vous 15 millions d’apprenants et commencer Ingénieur professionnel en données en Python Aujourd’hui!

Créez votre compte gratuit

GoogleLinkedInFacebook

ou

En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données sont stockées aux États-Unis.