Перейти к основному содержимому
ДомAI

Course

Fine-Tuning with Llama 3

СреднийУровень мастерства
Обновлено 03.2026
Fine-tune Llama for custom tasks using TorchTune, and learn techniques for efficient fine-tuning such as quantization.
Начать Курс Бесплатно
LlamaArtificial Intelligence2 ч7 videos22 Exercises1,700 XP3,514Свидетельство о достижениях

Создайте бесплатный аккаунт

или

Продолжая, вы принимаете наши Условия использования, нашу Политику конфиденциальности и подтверждаете, что ваши данные хранятся в США.

Пользуется популярностью среди обучающихся в тысячах компаний.

Group

Обучение двух или более человек?

Попробуйте DataCamp for Business

Описание курса

Fine-tuning the Llama model

This course provides a comprehensive guide to preparing and working with Llama models. Through hands-on examples and practical exercises, you'll learn how to configure various Llama fine-tuning tasks.

Prepare datasets for fine-tuning

Start by exploring dataset preparation techniques, including loading, splitting, and saving datasets using the Hugging Face Datasets library, ensuring high-quality data for your Llama projects.

Work with fine-tuning frameworks

Explore fine-tuning workflows using cutting-edge libraries such TorchTune and Hugging Face’s SFTTrainer. You'll learn how to configure fine-tuning recipes, set up training arguments, and utilize efficient techniques like LoRA (Low-Rank Adaptation) and quantization using BitsAndBytes to optimize resource usage. By combining techniques learned throughout the course, you’ll be able to customize Llama models to suit your projects' needs in an efficient way.

Предварительные требования

Working with Llama 3
1

Preparing for Llama fine-tuning

Explore options for fine-tuning Llama 3 models and dive into TorchTune, a library built to simplify fine-tuning. This chapter guides you through data preparation, TorchTune's recipe-based system, and efficient task configuration, providing the key steps to launch your first fine-tuning task.
Начало Главы
2

Fine-tuning with SFTTrainer on Hugging Face

Learn how fine-tuning can significantly improve the performance of smaller models for specific tasks. Start with fine-tuning smaller Llama models to enhance their task-specific capabilities. Next, discover parameter-efficient fine-tuning techniques such as LoRA, and explore quantization to load and use even larger models.
Начало Главы
Fine-Tuning with Llama 3
Курс
завершен

Получите свидетельство о достижениях

Добавьте эти данные в свой профиль LinkedIn, резюме или CV.
Поделитесь этим в социальных сетях и в своем отчете об оценке эффективности работы.
Запишитесь Прямо Сейчас

Присоединяйтесь 19 миллионов учащихся и начните Fine-Tuning with Llama 3 сегодня!

Создайте бесплатный аккаунт

или

Продолжая, вы принимаете наши Условия использования, нашу Политику конфиденциальности и подтверждаете, что ваши данные хранятся в США.

Развивайте свои навыки работы с данными с помощью DataCamp для мобильных устройств.

Успевайте в обучении на ходу с помощью наших мобильных курсов и ежедневных 5-минутных заданий по программированию.