Curso
Modelos Transformer com PyTorch
AvançadoNível de habilidade
Atualizado 01/2025Iniciar Curso Gratuitamente
Incluído comPremium or Teams
PyTorchArtificial Intelligence2 h7 vídeos23 Exercícios1,900 XP6,483Certificado de conclusão
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.Preferido por alunos de milhares de empresas
Treinar 2 ou mais pessoas?
Experimentar DataCamp for BusinessDescrição do curso
Mergulhe fundo na arquitetura do Transformer
Os modelos Transformer revolucionaram a modelagem de texto, dando início ao boom da IA generativa ao possibilitar os grandes modelos de linguagem (LLMs) atuais. Neste curso, você vai conhecer os principais componentes dessa arquitetura, incluindo codificação posicional, mecanismos de atenção e subcamadas feed-forward. Você vai programar esses componentes de forma modular para construir seu próprio transformador passo a passo.Implementar mecanismos de atenção com o PyTorch
O mecanismo de atenção é um desenvolvimento importante que ajudou a formalizar a arquitetura do transformador. A autoatenção permite que os transformadores identifiquem melhor as relações entre os tokens, o que melhora a qualidade do texto gerado. Aprenda a criar uma classe de mecanismo de atenção multi-head que vai ser um elemento fundamental nos seus modelos transformadores.Crie seus próprios modelos de transformadores
Aprenda a criar modelos de transformador apenas codificador, apenas decodificador e codificador-decodificador. Aprenda a escolher e codificar essas diferentes arquiteturas de transformadores para diferentes tarefas de linguagem, incluindo classificação de texto e análise de sentimentos, geração e conclusão de texto e tradução sequência a sequência.Pré-requisitos
Deep Learning for Text with PyTorch1
The Building Blocks of Transformer Models
Discover what makes the hottest deep learning architecture in AI tick! Learn about the components that make up Transformer models, including the famous self-attention mechanisms described in the renowned paper "Attention is All You Need."
2
Building Transformer Architectures
Design transformer encoder and decoder blocks, and combine them with positional encoding, multi-headed attention, and position-wise feed-forward networks to build your very own Transformer architectures. Along the way, you'll develop a deep understanding and appreciation for how transformers work under the hood.
Modelos Transformer com PyTorch
Curso concluído
Obtenha um certificado de conclusão
Adicione esta credencial ao seu perfil do LinkedIn, currículo ou CVCompartilhe nas redes sociais e em sua avaliação de desempenho
Incluído comPremium or Teams
Inscreva-se AgoraFaça como mais de 19 milhões de alunos e comece Modelos Transformer com PyTorch hoje mesmo!
Crie sua conta gratuita
ou
Ao continuar, você aceita nossos Termos de Uso, nossa Política de Privacidade e que seus dados serão armazenados nos EUA.