Accéder au contenu principal
AccueilPython

Cours

Efficient AI Model Training with PyTorch

AvancéNiveau de compétence
Actualisé 06/2025
Learn how to reduce training times for large language models with Accelerator and Trainer for distributed training
Commencer Le Cours Gratuitement

Inclus avecPremium or Teams

PythonArtificial Intelligence4 heures13 vidéos45 Exercices3,850 XPCertificat de réussite.

Créez votre compte gratuit

ou

En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données sont stockées aux États-Unis.
Group

Formation de 2 personnes ou plus ?

Essayer DataCamp for Business

Apprécié par les apprenants de milliers d’entreprises

Description du cours

Distributed training is an essential skill in large-scale machine learning, helping you to reduce the time required to train large language models with trillions of parameters. In this course, you will explore the tools, techniques, and strategies essential for efficient distributed training using PyTorch, Accelerator, and Trainer.

Preparing Data for Distributed Training

You'll begin by preparing data for distributed training by splitting datasets across multiple devices and deploying model copies to each device. You'll gain hands-on experience in preprocessing data for distributed environments, including images, audio, and text.

Exploring Efficiency Techniques

Once your data is ready, you'll explore ways to improve efficiency in training and optimizer use across multiple interfaces. You'll see how to address these challenges by improving memory usage, device communication, and computational efficiency with techniques like gradient accumulation, gradient checkpointing, local stochastic gradient descent, and mixed precision training. You'll understand the tradeoffs between different optimizers to help you decrease your model's memory footprint. By the end of this course, you'll be equipped with the knowledge and tools to build distributed AI-powered services.

Conditions préalables

Intermediate Deep Learning with PyTorchWorking with Hugging Face
1

Data Preparation with Accelerator

Commencer Le Chapitre
2

Distributed Training with Accelerator and Trainer

Commencer Le Chapitre
3

Improving Training Efficiency

Commencer Le Chapitre
4

Training with Efficient Optimizers

Commencer Le Chapitre
Efficient AI Model Training with PyTorch
Cours
terminé

Obtenez un certificat de réussite

Ajoutez ces informations d’identification à votre profil LinkedIn, à votre CV ou à votre CV
Partagez-le sur les réseaux sociaux et dans votre évaluation de performance

Inclus avecPremium or Teams

S'inscrire Maintenant

Rejoignez plus de 17 millions d’apprenants et commencer Efficient AI Model Training with PyTorch dès aujourd'hui !

Créez votre compte gratuit

ou

En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données sont stockées aux États-Unis.