Kursus
Fine-Tuning dengan Llama 3
MenengahTingkat Keterampilan
Diperbarui 03/2026Mulai Kursus Gratis
Termasuk denganPremium or Team
LlamaArtificial Intelligence2 jam7 videos22 Latihan1,700 XP3,356Bukti Prestasi
Buat Akun Gratis Anda
atau
Dengan melanjutkan, Anda menerima Ketentuan Penggunaan kami, Kebijakan Privasi kami dan bahwa data Anda disimpan di Amerika Serikat.Dipercaya oleh para pelajar di ribuan perusahaan
Pelatihan untuk 2 orang atau lebih?
Coba DataCamp for BusinessDeskripsi Kursus
Menyesuaikan model Llama
Kursus ini memberikan panduan lengkap tentang cara menyiapkan dan bekerja dengan model Llama. Melalui contoh-contoh praktis dan latihan-latihan yang aplikatif, Anda akan belajar cara mengonfigurasi berbagai tugas penyempurnaan model Llama.Siapkan dataset untuk fine-tuning
Mulailah dengan mempelajari teknik persiapan dataset, termasuk memuat, membagi, dan menyimpan dataset menggunakan perpustakaan Hugging Face Datasets, untuk memastikan data berkualitas tinggi untuk proyek Llama Anda.Bekerja dengan kerangka kerja penyempurnaan
Jelajahi proses penyempurnaan model menggunakan perpustakaan canggih seperti TorchTune dan SFTTrainer dari Hugging Face. Anda akan belajar cara mengonfigurasi resep penyesuaian halus, menyiapkan argumen pelatihan, dan memanfaatkan teknik efisien seperti LoRA (Low-Rank Adaptation) dan kuantisasi menggunakan BitsAndBytes untuk mengoptimalkan penggunaan sumber daya. Dengan menggabungkan teknik-teknik yang dipelajari sepanjang kursus, Anda akan dapat menyesuaikan model Llama sesuai dengan kebutuhan proyek Anda secara efisien.Persyaratan
Working with Llama 31
Preparing for Llama fine-tuning
Explore options for fine-tuning Llama 3 models and dive into TorchTune, a library built to simplify fine-tuning. This chapter guides you through data preparation, TorchTune's recipe-based system, and efficient task configuration, providing the key steps to launch your first fine-tuning task.
2
Fine-tuning with SFTTrainer on Hugging Face
Learn how fine-tuning can significantly improve the performance of smaller models for specific tasks. Start with fine-tuning smaller Llama models to enhance their task-specific capabilities. Next, discover parameter-efficient fine-tuning techniques such as LoRA, and explore quantization to load and use even larger models.
Fine-Tuning dengan Llama 3
Kursus Selesai
Memperoleh Surat Keterangan Prestasi
Tambahkan kredensial ini ke profil LinkedIn, resume, atau CV AndaBagikan di media sosial dan dalam penilaian kinerja Anda
Termasuk denganPremium or Team
Daftar SekarangBergabung dengan 19 juta pelajar dan mulai Fine-Tuning dengan Llama 3 Hari Ini!
Buat Akun Gratis Anda
atau
Dengan melanjutkan, Anda menerima Ketentuan Penggunaan kami, Kebijakan Privasi kami dan bahwa data Anda disimpan di Amerika Serikat.