Cursus
Fijn-afstemmen met Llama 3
GemiddeldVaardigheidsniveau
Bijgewerkt 01-2025Start Cursus Kosteloos
Inbegrepen bijPremium or Teams
LlamaArtificial Intelligence2 u7 videos22 Opdrachten1,700 XP3,356Prestatieverklaring
Maak je gratis account aan
of
Door verder te gaan accepteer je onze Gebruiksvoorwaarden, ons Privacybeleid en dat je gegevens worden opgeslagen in de VS.Geliefd bij leerlingen van duizenden bedrijven
Wil je 2 of meer mensen trainen?
Probeer DataCamp for BusinessCursusbeschrijving
Het Llama-model nog wat bijschaven
Deze cursus is een complete handleiding voor het maken en werken met Llama-modellen. Met behulp van praktische voorbeelden en oefeningen leer je hoe je verschillende Llama-fijnafstemmingstaken kunt instellen.Maak datasets klaar voor het afstemmen
Begin met het verkennen van technieken voor het voorbereiden van datasets, zoals het laden, splitsen en opslaan van datasets met behulp van de Hugging Face Datasets-bibliotheek, zodat je verzekerd bent van hoogwaardige data voor je Llama-projecten.Werk met frameworks voor fijnafstemming
Check eens hoe je workflows kunt finetunen met toffe bibliotheken zoals TorchTune en SFTTrainer van Hugging Face. Je leert hoe je recepten kunt afstemmen, trainingsargumenten kunt instellen en handige technieken zoals LoRA (Low-Rank Adaptation) en kwantisering met BitsAndBytes kunt gebruiken om je gebruik van bronnen te optimaliseren. Door de technieken die je tijdens de cursus hebt geleerd te combineren, kun je Llama-modellen op een efficiënte manier aanpassen aan de behoeften van je projecten.Vereisten
Working with Llama 31
Preparing for Llama fine-tuning
Explore options for fine-tuning Llama 3 models and dive into TorchTune, a library built to simplify fine-tuning. This chapter guides you through data preparation, TorchTune's recipe-based system, and efficient task configuration, providing the key steps to launch your first fine-tuning task.
2
Fine-tuning with SFTTrainer on Hugging Face
Learn how fine-tuning can significantly improve the performance of smaller models for specific tasks. Start with fine-tuning smaller Llama models to enhance their task-specific capabilities. Next, discover parameter-efficient fine-tuning techniques such as LoRA, and explore quantization to load and use even larger models.
Fijn-afstemmen met Llama 3
Cursus voltooid
Verdien een prestatieverklaring
Voeg deze referentie toe aan je LinkedIn-profiel, cv of curriculum vitaeDeel het op sociale media en in je functioneringsgesprek
Inbegrepen bijPremium or Teams
Schrijf Je Nu inSluit je aan bij meer dan 19 miljoen leerlingen en start vandaag nog met Fijn-afstemmen met Llama 3!
Maak je gratis account aan
of
Door verder te gaan accepteer je onze Gebruiksvoorwaarden, ons Privacybeleid en dat je gegevens worden opgeslagen in de VS.