Corso
Modelli Transformer con PyTorch
AvanzatoLivello di competenza
Aggiornato 01/2025Inizia Il Corso Gratis
Incluso conPremium or Team
PyTorchArtificial Intelligence2 h7 video23 Esercizi1,900 XP6,514Attestato di conseguimento
Crea il tuo account gratuito
o
Continuando, accetti i nostri Termini di utilizzo, la nostra Informativa sulla privacy e che i tuoi dati siano conservati negli Stati Uniti.Preferito dagli studenti di migliaia di aziende
Vuoi formare 2 o più persone?
Prova DataCamp for BusinessDescrizione del corso
Approfondimento sull'architettura Transformer
I modelli Transformer hanno cambiato il modo di modellare il testo, dando il via al boom dell'IA generativa e rendendo possibili i grandi modelli linguistici (LLM) di oggi. In questo corso vedrai i componenti chiave di questa architettura, come la codifica posizionale, i meccanismi di attenzione e i sottolivelli feed-forward. Scriverai il codice di questi componenti in modo modulare per costruire il tuo trasformatore passo dopo passo.Implementare meccanismi di attenzione con PyTorch
Il meccanismo di attenzione è una cosa importante che ha aiutato a mettere a punto l'architettura del trasformatore. L'auto-attenzione permette ai trasformatori di capire meglio le relazioni tra i token, migliorando così la qualità del testo che viene generato. Scopri come creare una classe di meccanismi di attenzione multi-head che sarà un pezzo fondamentale nei tuoi modelli di trasformatori.Costruisci i tuoi modelli di Transformers
Impara a costruire modelli di trasformatori solo codificatori, solo decodificatori e codificatori-decodificatori. Scopri come scegliere e programmare queste diverse architetture di trasformatori per vari compiti linguistici, come la classificazione dei testi e l'analisi del sentiment, la generazione e il completamento dei testi e la traduzione da sequenza a sequenza.Prerequisiti
Deep Learning for Text with PyTorch1
The Building Blocks of Transformer Models
Discover what makes the hottest deep learning architecture in AI tick! Learn about the components that make up Transformer models, including the famous self-attention mechanisms described in the renowned paper "Attention is All You Need."
2
Building Transformer Architectures
Design transformer encoder and decoder blocks, and combine them with positional encoding, multi-headed attention, and position-wise feed-forward networks to build your very own Transformer architectures. Along the way, you'll develop a deep understanding and appreciation for how transformers work under the hood.
Modelli Transformer con PyTorch
Corso completato
Ottieni Attestato di conseguimento
Aggiungi questa certificazione al tuo profilo LinkedIn, al curriculum o al CVCondividila sui social e nella valutazione delle tue performance
Incluso conPremium or Team
Iscriviti OraUnisciti a oltre 19 milioni di studenti e inizia Modelli Transformer con PyTorch oggi!
Crea il tuo account gratuito
o
Continuando, accetti i nostri Termini di utilizzo, la nostra Informativa sulla privacy e che i tuoi dati siano conservati negli Stati Uniti.