Vai al contenuto principale
HomePython

Programma

Ingegnere dei dati professionale in Python

Aggiornato 08/2025
Approfondisci le competenze avanzate e gli strumenti all'avanguardia che oggi rivoluzionano i ruoli dell'ingegneria dei dati con il nostro percorso Professional Data Engineer.
Inizia Il Programma Gratis

Incluso conPremium or Team

PythonData Engineering40 h9,117

Crea il tuo account gratuito

o

Continuando, accetti i nostri Termini di utilizzo, la nostra Informativa sulla privacy e che i tuoi dati siano conservati negli Stati Uniti.
Group

Vuoi formare 2 o più persone?

Prova DataCamp for Business

Preferito dagli studenti di migliaia di aziende

Descrizione del programma

Ingegnere dei dati professionale in Python

Porta le tue competenze a un livello superiore con il percorso Professional Data Engineer. Questo percorso avanzato è stato progettato per sviluppare i percorsi Associate Data Engineer in SQL e Data Engineer in Python. Ti fornisce le conoscenze e gli strumenti all'avanguardia richiesti dai moderni ruoli di ingegneria dei dati. Nel corso di questo viaggio, imparerai a conoscere le moderne architetture di dati, migliorerai le tue competenze in Python con un'immersione profonda nella programmazione orientata agli oggetti, esplorerai i database NoSQL e sfrutterai la potenza del dbt per una trasformazione dei dati senza soluzione di continuità. Scopri i segreti di DevOps con pratiche essenziali, tecniche di test avanzate e strumenti come Docker per ottimizzare i processi di sviluppo e distribuzione. Immergiti nelle tecnologie dei big data con PySpark e raggiungi la padronanza dell'elaborazione e dell'automazione dei dati utilizzando lo shell scripting. Partecipa a progetti pratici e affronta set di dati reali per applicare le tue conoscenze, eseguire il debug di flussi di lavoro complessi e ottimizzare i processi dei dati. Completando questo percorso, non solo acquisirai le competenze avanzate necessarie per affrontare le sfide complesse dell'ingegneria dei dati, ma anche la fiducia necessaria per applicarle nel dinamico mondo dell'ingegneria dei dati.

Prerequisiti

Ingegnere dei dati
  • Course

    1

    Understanding Modern Data Architecture

    Discover modern data architecture's key components, from ingestion and serving to governance and orchestration.

  • Course

    The Unix command line helps users combine existing programs in new ways, automate repetitive tasks, and run programs on clusters and clouds.

  • Course

    This course introduces dbt for data modeling, transformations, testing, and building documentation.

  • Course

    Conquer NoSQL and supercharge data workflows. Learn Snowflake to work with big data, Postgres JSON for handling document data, and Redis for key-value data.

  • Course

    In this Introduction to DevOps, you’ll master the DevOps basics and learn the key concepts, tools, and techniques to improve productivity.

  • Project

    bonus

    Debugging Code

    Sharpen your debugging skills to enhance sales data accuracy.

  • Course

    10

    Introduction to Docker

    Gain an introduction to Docker and discover its importance in the data professional’s toolkit. Learn about Docker containers, images, and more.

  • Course

    Master PySpark to handle big data with ease—learn to process, query, and optimize massive datasets for powerful analytics!

  • Chapter

    This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.

  • Chapter

    The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.

  • Chapter

    In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.

  • Chapter

    In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.

  • Chapter

    In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.

  • Course

    Learn about the difference between batching and streaming, scaling streaming systems, and real-world applications.

  • Course

    Master Apache Kafka! From core concepts to advanced architecture, learn to create, manage, and troubleshoot Kafka for real-world data streaming challenges!

  • Course

    In this course, you will learn the fundamentals of Kubernetes and deploy and orchestrate containers using Manifests and kubectl instructions.

Ingegnere dei dati professionale in Python
13 Corsi
Programma
completato

Ottieni Attestato di conseguimento

Aggiungi questa certificazione al tuo profilo LinkedIn, al curriculum o al CV
Condividila sui social e nella valutazione delle tue performance

Incluso conPremium or Team

Iscriviti Ora

Unisciti a oltre 18 milioni di studenti e inizia Ingegnere dei dati professionale in Python oggi!

Crea il tuo account gratuito

o

Continuando, accetti i nostri Termini di utilizzo, la nostra Informativa sulla privacy e che i tuoi dati siano conservati negli Stati Uniti.