Cours
Entraîner efficacement des modèles d’IA avec PyTorch
AvancéNiveau de compétence
Actualisé 03/2026PythonArtificial Intelligence4 h13 vidéos45 Exercices3,850 XPCertificat de réussite.
Créez votre compte gratuit
ou
En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données seront hébergées aux États-Unis.Apprécié par des utilisateurs provenant de milliers d'entreprises
Former 2 personnes ou plus ?
Essayez DataCamp for BusinessDescription du cours
Préparation des données pour la formation distribuée
Vous commencerez par préparer les données pour la formation distribuée en divisant les ensembles de données sur plusieurs appareils et en déployant des copies de modèle sur chaque appareil. Vous acquerrez une expérience pratique dans le prétraitement des données pour les environnements distribués, y compris les images, le son et le texte.Explorer les techniques d'efficacité
Une fois que vos données sont prêtes, vous explorerez les moyens d'améliorer l'efficacité de la formation et de l'utilisation des optimiseurs à travers de multiples interfaces. Vous verrez comment relever ces défis en améliorant l'utilisation de la mémoire, la communication avec les périphériques et l'efficacité des calculs grâce à des techniques telles que l'accumulation du gradient, le contrôle du gradient, la descente stochastique locale du gradient et l'apprentissage en précision mixte. Vous comprendrez les compromis entre les différents optimiseurs pour vous aider à réduire l'empreinte mémoire de votre modèle. À l'issue de ce cours, vous disposerez des connaissances et des outils nécessaires pour créer des services distribués alimentés par l'IA.Prérequis
Intermediate Deep Learning with PyTorchWorking with Hugging Face1
Data Preparation with Accelerator
You'll prepare data for distributed training by splitting the data across multiple devices and copying the model on each device. Accelerator provides a convenient interface for data preparation, and you'll learn how to preprocess images, audio, and text as a first step in distributed training.
2
Distributed Training with Accelerator and Trainer
In distributed training, each device trains on its data in parallel. You'll investigate two methods for distributed training: Accelerator enables custom training loops, and Trainer simplifies the interface for training.
3
Improving Training Efficiency
Distributed training strains resources with large models and datasets, but you can address these challenges by improving memory usage, device communication, and computational efficiency. You'll discover the techniques of gradient accumulation, gradient checkpointing, local stochastic gradient descent, and mixed precision training.
4
Training with Efficient Optimizers
You'll focus on optimizers as levers to improve distributed training efficiency, highlighting tradeoffs between AdamW, Adafactor, and 8-bit Adam. Reducing the number of parameters or using low precision helps to decrease a model's memory footprint.
Entraîner efficacement des modèles d’IA avec PyTorch
Cours terminé
Obtenez un certificat de réussite
Ajoutez cette certification à votre profil LinkedIn, à votre CV ou à votre portfolioPartagez-la sur les réseaux sociaux et dans votre évaluation de performance
Inclus avecPremium or Teams
S'inscrire MaintenantRejoignez plus de 19 millions d'utilisateurs et commencez Entraîner efficacement des modèles d’IA avec PyTorch dès aujourd'hui !
Créez votre compte gratuit
ou
En continuant, vous acceptez nos Conditions d'utilisation, notre Politique de confidentialité et le fait que vos données seront hébergées aux États-Unis.