tracks
전문 데이터 엔지니어 파이썬에서
수천 개의 회사에서 학습자들에게 사랑받는 제품입니다.
2명 이상을 교육하시나요?
DataCamp for Business 사용해 보세요트랙 설명
전문 데이터 엔지니어 파이썬에서
필수 조건
데이터 엔지니어Course
현대 데이터 아키텍처의 핵심 요소를 학습하세요: ingestion부터 serving, 거버넌스, 오케스트레이션까지.
Course
The Unix command line helps users combine existing programs in new ways, automate repetitive tasks, and run programs on clusters and clouds.
Course
가상 머신(VM), 컨테이너, Docker 및 Kubernetes의 핵심 개념을 익히세요. 시작하기 위해 차이점을 이해하세요!
Course
이 과정은 데이터 모델링, 변환, 테스트 및 문서 생성을 위한 DBT를 소개합니다.
Course
객체 지향 프로그래밍(OOP)의 기본 개념을 발견하고, 사용자 정의 클래스와 객체를 구축해 보세요!
Course
NoSQL을 정복하고 데이터 워크플로를 강화하세요. 대용량 처리는 Snowflake, 문서형 데이터는 Postgres JSON, 키-값은 Redis로 다룹니다.
Course
이 Introduction to DevOps에서 DevOps 기본을 익히고, 핵심 개념·도구·기법으로 생산성을 향상시키는 방법을 배우세요.
Course
pytest와 unittest로 Python 테스트를 마스터하세요. 다양한 기법을 배우고 체크를 작성해 오류 없는 코드를 보장합니다.
Project
Sharpen your debugging skills to enhance sales data accuracy.
Course
Docker에 대한 소개를 얻고 데이터 전문가의 도구 모음에서 그 중요성을 알아보세요. Docker 컨테이너, 이미지 등에 대해 알아보세요.
Course
PySpark를 마스터하여 빅데이터를 손쉽게 처리하세요—대규모 데이터셋을 처리하고 쿼리하며 최적화하여 강력한 분석을 수행하는 방법을 배우세요!
Chapter
This chapter introduces the exciting world of Big Data, as well as the various concepts and different frameworks for processing Big Data. You will understand why Apache Spark is considered the best framework for BigData.
Chapter
The main abstraction Spark provides is a resilient distributed dataset (RDD), which is the fundamental and backbone data type of this engine. This chapter introduces RDDs and shows how RDDs can be created and executed using RDD Transformations and Actions.
Chapter
In this chapter, you'll learn about Spark SQL which is a Spark module for structured data processing. It provides a programming abstraction called DataFrames and can also act as a distributed SQL query engine. This chapter shows how Spark SQL allows you to use DataFrames in Python.
Project
Step into a data engineer's shoes and master data cleaning with PySpark on an e-commerce orders dataset!
Chapter
In this chapter, we learn how to download data files from web servers via the command line. In the process, we also learn about documentation manuals, option flags, and multi-file processing.
Chapter
In the last chapter, we bridge the connection between command line and other data science languages and learn how they can work together. Using Python as a case study, we learn to execute Python on the command line, to install dependencies using the package manager pip, and to build an entire model pipeline using the command line.
Course
18스트리밍 개념
배치와 스트리밍의 차이, 스트리밍 시스템 확장 방법, 그리고 실제 활용 사례를 학습합니다.
Course
Apache Kafka 완전 정복! 핵심부터 고급 아키텍처까지, 실무 스트리밍을 위한 Kafka 생성·관리·문제 해결을 학습하세요.
Course
이 과정에서는 Kubernetes 기본을 배우고, Manifests와 kubectl 명령으로 컨테이너를 배포·오케스트레이션합니다.
Resource
Understand how data engineering can impact your business.