Cursus
Transformermodels met PyTorch
GevorderdVaardigheidsniveau
Bijgewerkt 01-2025Start Cursus Kosteloos
Inbegrepen bijPremium or Teams
PyTorchArtificial Intelligence2 u7 videos23 Opdrachten1,900 XP6,514Prestatieverklaring
Maak je gratis account aan
of
Door verder te gaan accepteer je onze Gebruiksvoorwaarden, ons Privacybeleid en dat je gegevens worden opgeslagen in de VS.Geliefd bij leerlingen van duizenden bedrijven
Wil je 2 of meer mensen trainen?
Probeer DataCamp for BusinessCursusbeschrijving
Duik diep in de Transformer-architectuur
Transformatiemodellen hebben tekstmodellering echt veranderd en hebben de generatieve AI-boom op gang gebracht door de huidige grote taalmodellen (LLM's) mogelijk te maken. In deze cursus ga je kijken naar de belangrijkste onderdelen van deze architectuur, zoals positionele codering, aandachtsmechanismen en feed-forward-sublagen. Je gaat deze onderdelen op een modulaire manier programmeren om stap voor stap je eigen transformator te bouwen.Implementeren van aandachtsmechanismen met PyTorch
Het aandachtsmechanisme is echt belangrijk geweest voor het vormgeven van de transformatorarchitectuur. Door zelfaandacht kunnen transformatoren de verbanden tussen tokens beter zien, wat de kwaliteit van de gegenereerde tekst verbetert. Leer hoe je een multi-head attention mechanism-klasse kunt maken die een belangrijke bouwsteen vormt in je transformatiemodellen.Bouw je eigen transformatormodellen
Leer hoe je modellen kunt maken met alleen een encoder, alleen een decoder en een encoder-decoder-transformator. Leer hoe je deze verschillende transformatorarchitecturen kunt kiezen en coderen voor verschillende taaltaken, zoals tekstclassificatie en sentimentanalyse, tekstgeneratie en -aanvulling, en sequentie-naar-sequentievertaling.Vereisten
Deep Learning for Text with PyTorch1
The Building Blocks of Transformer Models
Discover what makes the hottest deep learning architecture in AI tick! Learn about the components that make up Transformer models, including the famous self-attention mechanisms described in the renowned paper "Attention is All You Need."
2
Building Transformer Architectures
Design transformer encoder and decoder blocks, and combine them with positional encoding, multi-headed attention, and position-wise feed-forward networks to build your very own Transformer architectures. Along the way, you'll develop a deep understanding and appreciation for how transformers work under the hood.
Transformermodels met PyTorch
Cursus voltooid
Verdien een prestatieverklaring
Voeg deze referentie toe aan je LinkedIn-profiel, cv of curriculum vitaeDeel het op sociale media en in je functioneringsgesprek
Inbegrepen bijPremium or Teams
Schrijf Je Nu inSluit je aan bij meer dan 19 miljoen leerlingen en start vandaag nog met Transformermodels met PyTorch!
Maak je gratis account aan
of
Door verder te gaan accepteer je onze Gebruiksvoorwaarden, ons Privacybeleid en dat je gegevens worden opgeslagen in de VS.