Programma
Ingegnere dei dati professionale in Python
Incluso conPremium or Team
Crea il tuo account gratuito
o
Continuando, accetti i nostri Termini di utilizzo, la nostra Informativa sulla privacy e che i tuoi dati siano conservati negli Stati Uniti.Preferito dagli studenti di migliaia di aziende
Vuoi formare 2 o più persone?
Prova DataCamp for BusinessDescrizione del programma
Ingegnere dei dati professionale in Python
Prerequisiti
Ingegnere dei datiCourse
Scopri i pezzi chiave dell'architettura moderna dei dati, dall'acquisizione e distribuzione alla governance e all'orchestrazione.
Course
Course
Impara le basi di VM, container, Docker e Kubernetes. Scopri le differenze per iniziare!
Course
Questo corso ti spiega cos'è il DBT per modellare i dati, trasformarli, testarli e creare la documentazione.
Course
Scopri i concetti base della programmazione orientata agli oggetti (OOP), creando classi e oggetti personalizzati!
Course
Course
In questa Introduzione a DevOps imparerai le basi di DevOps e scoprirai i concetti chiave, gli strumenti e le tecniche per migliorare la produttività.
Course
Diventa un esperto dei test Python: Impara i metodi, crea controlli e assicurati che il codice sia privo di errori con pytest e unittest.
Project
bonusDebugging Code
Sharpen your debugging skills to enhance sales data accuracy.
Course
Scopri cos'è Docker e perché è importante per chi lavora con i dati. Scopri i container Docker, le immagini e molto altro ancora.
Course
Master PySpark to handle big data with ease—learn to process, query, and optimize massive datasets for powerful analytics!
Chapter
This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.
Chapter
The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.
Chapter
In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.
Project
Step into a data engineer's shoes and master data cleaning with PySpark on an e-commerce orders dataset!
Chapter
In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.
Chapter
In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.
Course
Scopri la differenza tra elaborazione in batch e streaming, come far crescere i sistemi di streaming e le applicazioni nel mondo reale.
Course
Course
In questo corso imparerai le basi di Kubernetes e imparerai a distribuire e gestire i container usando i manifesti e le istruzioni kubectl.
Resource
Understand how data engineering can impact your business.
completato
Ottieni Attestato di conseguimento
Aggiungi questa certificazione al tuo profilo LinkedIn, al curriculum o al CVCondividila sui social e nella valutazione delle tue performance
Incluso conPremium or Team
Iscriviti OraUnisciti a oltre 19 milioni di studenti e inizia Ingegnere dei dati professionale in Python oggi!
Crea il tuo account gratuito
o
Continuando, accetti i nostri Termini di utilizzo, la nostra Informativa sulla privacy e che i tuoi dati siano conservati negli Stati Uniti.