Przejdź do treści głównej
DomPython

course

Efficient AI Model Training with PyTorch

ZaawansowanyPoziom umiejętności
Zaktualizowano 04.2026
Learn how to reduce training times for large language models with Accelerator and Trainer for distributed training
Rozpocznij Kurs Za Darmo
PythonArtificial Intelligence4 godz.13 videos45 Exercises3,850 PDOświadczenie o osiągnięciu

Utwórz bezpłatne konto

Lub

Kontynuując, akceptujesz nasze Warunki korzystania, naszą Politykę prywatności oraz fakt, że Twoje dane są przechowywane w USA.

Uwielbiany przez pracowników tysięcy firm

Group

Szkolenie 2 lub więcej osób?

Wypróbuj DataCamp for Business

Opis kursu

Distributed training is an essential skill in large-scale machine learning, helping you to reduce the time required to train large language models with trillions of parameters. In this course, you will explore the tools, techniques, and strategies essential for efficient distributed training using PyTorch, Accelerator, and Trainer.

Preparing Data for Distributed Training

You'll begin by preparing data for distributed training by splitting datasets across multiple devices and deploying model copies to each device. You'll gain hands-on experience in preprocessing data for distributed environments, including images, audio, and text.

Exploring Efficiency Techniques

Once your data is ready, you'll explore ways to improve efficiency in training and optimizer use across multiple interfaces. You'll see how to address these challenges by improving memory usage, device communication, and computational efficiency with techniques like gradient accumulation, gradient checkpointing, local stochastic gradient descent, and mixed precision training. You'll understand the tradeoffs between different optimizers to help you decrease your model's memory footprint. By the end of this course, you'll be equipped with the knowledge and tools to build distributed AI-powered services.

Wymagania wstępne

Intermediate Deep Learning with PyTorchWorking with Hugging Face
1

Data Preparation with Accelerator

You'll prepare data for distributed training by splitting the data across multiple devices and copying the model on each device. Accelerator provides a convenient interface for data preparation, and you'll learn how to preprocess images, audio, and text as a first step in distributed training.
Rozpocznij Rozdział
2

Distributed Training with Accelerator and Trainer

3

Improving Training Efficiency

Distributed training strains resources with large models and datasets, but you can address these challenges by improving memory usage, device communication, and computational efficiency. You'll discover the techniques of gradient accumulation, gradient checkpointing, local stochastic gradient descent, and mixed precision training.
Rozpocznij Rozdział
4

Training with Efficient Optimizers

Efficient AI Model Training with PyTorch
Kurs
ukończony

Zdobądź oświadczenie o osiągnięciach

Dodaj te dane uwierzytelniające do swojego profilu na LinkedIn, CV lub życiorysu
Udostępnij w mediach społecznościowych i w swojej ocenie okresowej
Zapisz Się Teraz

Dołącz do nas 19 milionów uczniów i zacznij Efficient AI Model Training with PyTorch już dziś!

Utwórz bezpłatne konto

Lub

Kontynuując, akceptujesz nasze Warunki korzystania, naszą Politykę prywatności oraz fakt, że Twoje dane są przechowywane w USA.

Rozwijaj swoje umiejętności w zakresie danych dzięki DataCamp dla urządzeń mobilnych

Rób postępy w podróży dzięki naszym kursom mobilnym i codziennym 5-minutowym wyzwaniom kodowania.