Curso
Treinamento Eficiente de Modelos de IA com PyTorch
AvançadoNível de habilidade
Atualizado 03/2026Iniciar Curso Gratuitamente
Incluído comPremium or Teams
PythonArtificial Intelligence4 h13 vídeos45 Exercícios3,850 XPCertificado de conclusão
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.Preferido por alunos de milhares de empresas
Treinar 2 ou mais pessoas?
Experimentar DataCamp for BusinessDescrição do curso
Preparação de dados para treinamento distribuído
Você começará preparando os dados para o treinamento distribuído, dividindo os conjuntos de dados em vários dispositivos e implantando cópias do modelo em cada dispositivo. Você ganhará experiência prática no pré-processamento de dados para ambientes distribuídos, incluindo imagens, áudio e texto.Explorando técnicas de eficiência
Quando os dados estiverem prontos, você explorará maneiras de aumentar a eficiência do treinamento e do uso do otimizador em várias interfaces. Você verá como enfrentar esses desafios melhorando o uso da memória, a comunicação do dispositivo e a eficiência computacional com técnicas como acumulação de gradiente, checkpointing de gradiente, descida de gradiente estocástica local e treinamento de precisão mista. Você entenderá as compensações entre diferentes otimizadores para ajudá-lo a diminuir o espaço de memória do seu modelo. Ao final deste curso, você estará equipado com o conhecimento e as ferramentas para criar serviços distribuídos com tecnologia de IA.Pré-requisitos
Intermediate Deep Learning with PyTorchWorking with Hugging Face1
Data Preparation with Accelerator
You'll prepare data for distributed training by splitting the data across multiple devices and copying the model on each device. Accelerator provides a convenient interface for data preparation, and you'll learn how to preprocess images, audio, and text as a first step in distributed training.
2
Distributed Training with Accelerator and Trainer
In distributed training, each device trains on its data in parallel. You'll investigate two methods for distributed training: Accelerator enables custom training loops, and Trainer simplifies the interface for training.
3
Improving Training Efficiency
Distributed training strains resources with large models and datasets, but you can address these challenges by improving memory usage, device communication, and computational efficiency. You'll discover the techniques of gradient accumulation, gradient checkpointing, local stochastic gradient descent, and mixed precision training.
4
Training with Efficient Optimizers
You'll focus on optimizers as levers to improve distributed training efficiency, highlighting tradeoffs between AdamW, Adafactor, and 8-bit Adam. Reducing the number of parameters or using low precision helps to decrease a model's memory footprint.
Treinamento Eficiente de Modelos de IA com PyTorch
Curso concluído
Obtenha um certificado de conclusão
Adicione esta credencial ao seu perfil do LinkedIn, currículo ou CVCompartilhe nas redes sociais e em sua avaliação de desempenho
Incluído comPremium or Teams
Inscreva-se AgoraFaça como mais de 19 milhões de alunos e comece Treinamento Eficiente de Modelos de IA com PyTorch hoje mesmo!
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.