Curso
Modelos Transformer con PyTorch
AvanzadoNivel de habilidad
Actualizado 1/2025Comienza El Curso Gratis
Incluido conPremium or Teams
PyTorchArtificial Intelligence2 h7 vídeos23 Ejercicios1,900 XP6,498Certificado de logros
Crea Tu Cuenta Gratuita
o
Al continuar, aceptas nuestros Términos de uso, nuestra Política de privacidad y que tus datos se almacenen en los EE. UU.Preferido por estudiantes en miles de empresas
¿Formar a 2 o más personas?
Probar DataCamp for BusinessDescripción del curso
Profundiza en la arquitectura Transformer
Los modelos transformadores han revolucionado el modelado de texto, impulsando el auge de la IA generativa al hacer posibles los grandes modelos de lenguaje (LLM) actuales. En este curso, se estudiarán los componentes clave de esta arquitectura, incluyendo la codificación posicional, los mecanismos de atención y las subcapas de alimentación directa. Programarás estos componentes de forma modular para construir tu propio transformador paso a paso.Implementar mecanismos de atención con PyTorch
El mecanismo de atención es un avance clave que contribuyó a formalizar la arquitectura del transformador. La autoatención permite a los transformadores identificar mejor las relaciones entre los tokens, lo que mejora la calidad del texto generado. Aprende a crear una clase de mecanismo de atención multitesta que constituirá un elemento fundamental en tus modelos de transformador.Construye tus propios modelos de Transformers
Aprende a crear modelos de transformadores solo codificadores, solo decodificadores y codificadores-decodificadores. Aprende a elegir y codificar estas diferentes arquitecturas de transformadores para distintas tareas lingüísticas, como la clasificación de textos y el análisis de opiniones, la generación y finalización de textos, y la traducción secuencia a secuencia.Requisitos previos
Deep Learning for Text with PyTorch1
The Building Blocks of Transformer Models
Discover what makes the hottest deep learning architecture in AI tick! Learn about the components that make up Transformer models, including the famous self-attention mechanisms described in the renowned paper "Attention is All You Need."
2
Building Transformer Architectures
Design transformer encoder and decoder blocks, and combine them with positional encoding, multi-headed attention, and position-wise feed-forward networks to build your very own Transformer architectures. Along the way, you'll develop a deep understanding and appreciation for how transformers work under the hood.
Modelos Transformer con PyTorch
Curso completo
Obtener certificado de logros
Añade esta certificación a tu perfil de LinkedIn o a tu currículum.Compártelo en redes sociales y en tu evaluación de desempeño.
Incluido conPremium or Teams
Inscríbete Ahora¡Únete a 19 millones de estudiantes y empieza Modelos Transformer con PyTorch hoy mismo!
Crea Tu Cuenta Gratuita
o
Al continuar, aceptas nuestros Términos de uso, nuestra Política de privacidad y que tus datos se almacenen en los EE. UU.