Pular para o conteúdo principal
InícioPyTorch

Curso

Modelos Transformer com PyTorch

AvançadoNível de habilidade
Atualizado 01/2025
O que faz os LLMs funcionarem? Descubra como os transformadores revolucionaram a modelagem de texto e deram início ao boom da IA generativa.
Iniciar Curso Gratuitamente
PyTorchArtificial Intelligence2 h7 vídeos23 Exercícios1,900 XP7,159Certificado de conclusão

Crie sua conta gratuita

ou

Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.

Preferido por alunos de milhares de empresas

Group

Treinar 2 ou mais pessoas?

Experimentar DataCamp for Business

Descrição do curso

Mergulhe fundo na arquitetura do Transformer

Os modelos Transformer revolucionaram a modelagem de texto, dando início ao boom da IA generativa ao possibilitar os grandes modelos de linguagem (LLMs) atuais. Neste curso, você vai conhecer os principais componentes dessa arquitetura, incluindo codificação posicional, mecanismos de atenção e subcamadas feed-forward. Você vai programar esses componentes de forma modular para construir seu próprio transformador passo a passo.

Implementar mecanismos de atenção com o PyTorch

O mecanismo de atenção é um desenvolvimento importante que ajudou a formalizar a arquitetura do transformador. A autoatenção permite que os transformadores identifiquem melhor as relações entre os tokens, o que melhora a qualidade do texto gerado. Aprenda a criar uma classe de mecanismo de atenção multi-head que vai ser um elemento fundamental nos seus modelos transformadores.

Crie seus próprios modelos de transformadores

Aprenda a criar modelos de transformador apenas codificador, apenas decodificador e codificador-decodificador. Aprenda a escolher e codificar essas diferentes arquiteturas de transformadores para diferentes tarefas de linguagem, incluindo classificação de texto e análise de sentimentos, geração e conclusão de texto e tradução sequência a sequência.

Pré-requisitos

Deep Learning for Text with PyTorch
1

The Building Blocks of Transformer Models

Discover what makes the hottest deep learning architecture in AI tick! Learn about the components that make up Transformer models, including the famous self-attention mechanisms described in the renowned paper "Attention is All You Need."
Iniciar Capítulo
2

Building Transformer Architectures

Design transformer encoder and decoder blocks, and combine them with positional encoding, multi-headed attention, and position-wise feed-forward networks to build your very own Transformer architectures. Along the way, you'll develop a deep understanding and appreciation for how transformers work under the hood.
Iniciar Capítulo
Modelos Transformer com PyTorch
Curso
concluído

Obtenha um certificado de conclusão

Adicione esta credencial ao seu perfil do LinkedIn, currículo ou CV
Compartilhe nas redes sociais e em sua avaliação de desempenho
Inscreva-se Agora

Faça como mais de 19 milhões de alunos e comece Modelos Transformer com PyTorch hoje mesmo!

Crie sua conta gratuita

ou

Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.

Desenvolva suas habilidades em dados com o app do DataCamp

Continue progredindo em qualquer lugar com nossos cursos para celular e desafios diários de programação de 5 minutos.