Curso
Entrenamiento eficiente de modelos de IA con PyTorch
AvanzadoNivel de habilidad
Actualizado 3/2026Comienza El Curso Gratis
Incluido conPremium or Teams
PythonArtificial Intelligence4 h13 vídeos45 Ejercicios3,850 XPCertificado de logros
Crea Tu Cuenta Gratuita
o
Al continuar, aceptas nuestros Términos de uso, nuestra Política de privacidad y que tus datos se almacenen en los EE. UU.Preferido por estudiantes en miles de empresas
¿Formar a 2 o más personas?
Probar DataCamp for BusinessDescripción del curso
Preparar los datos para el entrenamiento distribuido
Empezarás preparando los datos para el entrenamiento distribuido, dividiendo los conjuntos de datos en varios dispositivos y desplegando copias del modelo en cada dispositivo. Adquirirás experiencia práctica en el preprocesamiento de datos para entornos distribuidos, incluyendo imágenes, audio y texto.Explorar técnicas de eficiencia
Una vez que tus datos estén listos, explorarás formas de mejorar la eficacia en el entrenamiento y el uso del optimizador a través de múltiples interfaces. Verás cómo abordar estos retos mejorando el uso de la memoria, la comunicación entre dispositivos y la eficiencia computacional con técnicas como la acumulación de gradiente, la comprobación de gradiente, el descenso de gradiente estocástico local y el entrenamiento de precisión mixta. Comprenderás las ventajas y desventajas de los distintos optimizadores para ayudarte a reducir la huella de memoria de tu modelo. Al final de este curso, estarás equipado con los conocimientos y las herramientas para construir servicios distribuidos impulsados por IA.Requisitos previos
Intermediate Deep Learning with PyTorchWorking with Hugging Face1
Data Preparation with Accelerator
You'll prepare data for distributed training by splitting the data across multiple devices and copying the model on each device. Accelerator provides a convenient interface for data preparation, and you'll learn how to preprocess images, audio, and text as a first step in distributed training.
2
Distributed Training with Accelerator and Trainer
In distributed training, each device trains on its data in parallel. You'll investigate two methods for distributed training: Accelerator enables custom training loops, and Trainer simplifies the interface for training.
3
Improving Training Efficiency
Distributed training strains resources with large models and datasets, but you can address these challenges by improving memory usage, device communication, and computational efficiency. You'll discover the techniques of gradient accumulation, gradient checkpointing, local stochastic gradient descent, and mixed precision training.
4
Training with Efficient Optimizers
You'll focus on optimizers as levers to improve distributed training efficiency, highlighting tradeoffs between AdamW, Adafactor, and 8-bit Adam. Reducing the number of parameters or using low precision helps to decrease a model's memory footprint.
Entrenamiento eficiente de modelos de IA con PyTorch
Curso completo
Obtener certificado de logros
Añade esta certificación a tu perfil de LinkedIn o a tu currículum.Compártelo en redes sociales y en tu evaluación de desempeño.
Incluido conPremium or Teams
Inscríbete Ahora¡Únete a 19 millones de estudiantes y empieza Entrenamiento eficiente de modelos de IA con PyTorch hoy mismo!
Crea Tu Cuenta Gratuita
o
Al continuar, aceptas nuestros Términos de uso, nuestra Política de privacidad y que tus datos se almacenen en los EE. UU.