본문으로 바로가기
Python

tracks

전문 데이터 엔지니어 파이썬에서

업데이트됨 2026. 3.
저희 전문 데이터 엔지니어 과정을 통해 오늘날 데이터 엔지니어링 직무를 혁신하는 고급 기술과 최첨단 도구를 심도 있게 학습하세요.
무료로 트랙을 시작하세요

포함 사항프리미엄 or 팀

Python데이터 엔지니어링4010,226

무료 계정을 만드세요

또는

계속 진행하시면 당사의 이용약관, 개인정보처리방침 및 귀하의 데이터가 미국에 저장되는 것에 동의하시는 것입니다.

수천 개의 회사에서 학습자들에게 사랑받는 제품입니다.

Group

2명 이상을 교육하시나요?

DataCamp for Business 사용해 보세요

트랙 설명

전문 데이터 엔지니어 파이썬에서

저희 전문 데이터 엔지니어 과정을 통해 여러분의 역량을 한 단계 더 높여보세요. 이 고급 과정은 SQL 기반 데이터 엔지니어 과정과 Python 기반 데이터 엔지니어 과정을 기반으로 설계되었습니다. 이 과정은 현대 데이터 엔지니어링 직무에 필요한 최첨단 지식과 도구를 제공합니다. 이 여정을 통해 여러분은 최신 데이터 아키텍처를 익히고, 객체 지향 프로그래밍에 대한 심층적인 학습을 통해 Python 기술을 향상시키며, NoSQL 데이터베이스를 탐구하고, dbt의 강력한 기능을 활용하여 원활한 데이터 변환을 구현하게 될 것입니다. DevOps의 핵심 원칙, 고급 테스트 기법, 그리고 Docker와 같은 도구를 활용하여 개발 및 배포 프로세스를 간소화하고 DevOps의 비밀을 풀어보세요. PySpark를 통해 빅데이터 기술에 몰입하고 셸 스크립트를 사용하여 데이터 처리 및 자동화 분야에서 전문가가 되십시오. 실제 프로젝트에 참여하고 실제 데이터 세트를 다루면서 지식을 적용하고, 복잡한 워크플로우를 디버깅하고, 데이터 처리를 최적화하세요. 이 과정을 이수하면 복잡한 데이터 엔지니어링 문제를 해결하는 데 필요한 고급 기술뿐만 아니라 역동적인 데이터 엔지니어링 분야에서 이러한 기술을 적용할 수 있는 자신감까지 얻게 될 것입니다.

필수 조건

데이터 엔지니어
  • Course

    1

    현대 데이터 아키텍처 이해하기

    현대 데이터 아키텍처의 핵심 요소를 학습하세요: ingestion부터 serving, 거버넌스, 오케스트레이션까지.

  • Course

    The Unix command line helps users combine existing programs in new ways, automate repetitive tasks, and run programs on clusters and clouds.

  • Course

    가상 머신(VM), 컨테이너, Docker 및 Kubernetes의 핵심 개념을 익히세요. 시작하기 위해 차이점을 이해하세요!

  • Course

    이 과정은 데이터 모델링, 변환, 테스트 및 문서 생성을 위한 DBT를 소개합니다.

  • Course

    NoSQL을 정복하고 데이터 워크플로를 강화하세요. 대용량 처리는 Snowflake, 문서형 데이터는 Postgres JSON, 키-값은 Redis로 다룹니다.

  • Course

    이 Introduction to DevOps에서 DevOps 기본을 익히고, 핵심 개념·도구·기법으로 생산성을 향상시키는 방법을 배우세요.

  • Course

    pytest와 unittest로 Python 테스트를 마스터하세요. 다양한 기법을 배우고 체크를 작성해 오류 없는 코드를 보장합니다.

  • Project

    보너스

    Debugging Code

    Sharpen your debugging skills to enhance sales data accuracy.

  • Course

    10

    Docker 입문

    Docker에 대한 소개를 얻고 데이터 전문가의 도구 모음에서 그 중요성을 알아보세요. Docker 컨테이너, 이미지 등에 대해 알아보세요.

  • Course

    PySpark를 마스터하여 빅데이터를 손쉽게 처리하세요—대규모 데이터셋을 처리하고 쿼리하며 최적화하여 강력한 분석을 수행하는 방법을 배우세요!

  • Chapter

    This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.

  • Chapter

    The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.

  • Chapter

    In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.

  • Chapter

    In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.

  • Chapter

    In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.

  • Course

    배치와 스트리밍의 차이, 스트리밍 시스템 확장 방법, 그리고 실제 활용 사례를 학습합니다.

  • Course

    Apache Kafka 완전 정복! 핵심부터 고급 아키텍처까지, 실무 스트리밍을 위한 Kafka 생성·관리·문제 해결을 학습하세요.

  • Course

    이 과정에서는 Kubernetes 기본을 배우고, Manifests와 kubectl 명령으로 컨테이너를 배포·오케스트레이션합니다.

전문 데이터 엔지니어 파이썬에서
13 courses
트랙
완료

성과 증명서 발급

이 자격증을 링크드인 프로필, 이력서 또는 자기소개서에 추가하세요.
소셜 미디어와 업무 평가에 공유하세요.

포함 사항프리미엄 or 팀

지금 등록하세요

함께 참여하세요 19 백만 명의 학습자 지금 바로 전문 데이터 엔지니어 파이썬에서 시작하세요!

무료 계정을 만드세요

또는

계속 진행하시면 당사의 이용약관, 개인정보처리방침 및 귀하의 데이터가 미국에 저장되는 것에 동의하시는 것입니다.