Cursus
Ingénieur professionnel en données en Python
Créez votre compte gratuit
ou
En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données seront hébergées aux États-Unis.Formation de 2 personnes ou plus ?
Essayer DataCamp for BusinessApprécié par des utilisateurs provenant de milliers d'entreprises
Description du cursus
Ingénieur professionnel en données en Python
Conditions préalables
Ingénieur de donnéesCourse
Découvrez les composants clés de l'architecture de données moderne, de l'ingestion et du service à la gouvernance et à l'orchestration.
Course
Course
Apprenez les principes fondamentaux des machines virtuelles, des conteneurs, de Docker et de Kubernetes. Comprenez les différences pour vous lancer.
Course
Ce cours présente dbt pour la modélisation, la transformation, le test et la création de documentation de données.
Course
Découvrez les concepts fondamentaux de la programmation orientée objet (POO), en construisant des classes et des objets personnalisés !
Course
Course
Dans cette introduction au DevOps, vous maîtriserez les bases du DevOps et découvrirez les concepts, outils et techniques clés pour améliorer la productivité.
Course
Maîtrisez les tests Python : Apprenez des méthodes, créez des vérifications et assurez-vous d'un code sans erreur avec pytest et unittest.
Project
BonusDebugging Code
Sharpen your debugging skills to enhance sales data accuracy.
Course
Découvrez Docker et son importance dans la boîte à outils du professionnel des données. Découvrez les conteneurs Docker, les images et bien plus encore.
Course
Chapter
This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.
Chapter
The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.
Chapter
In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.
Project
Step into a data engineer's shoes and master data cleaning with PySpark on an e-commerce orders dataset!
Chapter
In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.
Chapter
In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.
Course
Découvrez la différence entre le traitement par lots et le streaming, la mise à l'échelle des systèmes de streaming et les applications concrètes.
Course
Course
Dans ce cours, vous apprendrez les fondamentaux de Kubernetes et à déployer et orchestrer des conteneurs à l'aide de Manifests et d'instructions kubectl.
Resource
Understand how data engineering can impact your business.
terminée
Obtenez un certificat de réussite
Ajoutez ces informations d’identification à votre profil LinkedIn, à votre CV ou à votre CVPartagez-le sur les réseaux sociaux et dans votre évaluation de performance
Inclus avecPremium or Teams
S'inscrire MaintenantRejoignez plus de 18 millions d'utilisateurs et commencez Ingénieur professionnel en données en Python dès aujourd'hui !
Créez votre compte gratuit
ou
En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données seront hébergées aux États-Unis.