Kursus
Model Transformer dengan PyTorch
LanjutanTingkat Keterampilan
Diperbarui 01/2025Mulai Kursus Gratis
Termasuk denganPremium or Team
PyTorchArtificial Intelligence2 jam7 videos23 Latihan1,900 XP6,514Bukti Prestasi
Buat Akun Gratis Anda
atau
Dengan melanjutkan, Anda menerima Ketentuan Penggunaan kami, Kebijakan Privasi kami dan bahwa data Anda disimpan di Amerika Serikat.Dipercaya oleh para pelajar di ribuan perusahaan
Pelatihan untuk 2 orang atau lebih?
Coba DataCamp for BusinessDeskripsi Kursus
Penjelajahan Mendalam tentang Arsitektur Transformer
Model transformer telah merevolusi pemodelan teks, memicu ledakan kecerdasan buatan generatif dengan memfasilitasi pengembangan model bahasa besar (LLMs) yang ada saat ini. Dalam kursus ini, Anda akan mempelajari komponen-komponen utama dalam arsitektur ini, termasuk positional encoding, mekanisme perhatian, dan lapisan feed-forward. Anda akan mengkodekan komponen-komponen ini secara modular untuk membangun transformator Anda sendiri secara bertahap.Implementasikan Mekanisme Perhatian dengan PyTorch
Mekanisme perhatian merupakan perkembangan kunci yang membantu mengformalkan arsitektur transformer. Self-attention memungkinkan transformers untuk lebih baik mengidentifikasi hubungan antara token, yang meningkatkan kualitas teks yang dihasilkan. Pelajari cara membuat kelas mekanisme perhatian multi-head yang akan menjadi blok bangunan kunci dalam model transformer Anda.Bangun Model Transformer Anda Sendiri
Pelajari cara membangun model transformer yang hanya menggunakan encoder, hanya menggunakan decoder, dan model transformer encoder-decoder. Pelajari cara memilih dan mengimplementasikan arsitektur transformer yang berbeda untuk tugas-tugas bahasa yang berbeda, termasuk klasifikasi teks dan analisis sentimen, generasi dan penyelesaian teks, serta terjemahan urutan-ke-urutan.Persyaratan
Deep Learning for Text with PyTorch1
The Building Blocks of Transformer Models
Discover what makes the hottest deep learning architecture in AI tick! Learn about the components that make up Transformer models, including the famous self-attention mechanisms described in the renowned paper "Attention is All You Need."
2
Building Transformer Architectures
Design transformer encoder and decoder blocks, and combine them with positional encoding, multi-headed attention, and position-wise feed-forward networks to build your very own Transformer architectures. Along the way, you'll develop a deep understanding and appreciation for how transformers work under the hood.
Model Transformer dengan PyTorch
Kursus Selesai
Memperoleh Surat Keterangan Prestasi
Tambahkan kredensial ini ke profil LinkedIn, resume, atau CV AndaBagikan di media sosial dan dalam penilaian kinerja Anda
Termasuk denganPremium or Team
Daftar SekarangBergabung dengan 19 juta pelajar dan mulai Model Transformer dengan PyTorch Hari Ini!
Buat Akun Gratis Anda
atau
Dengan melanjutkan, Anda menerima Ketentuan Penggunaan kami, Kebijakan Privasi kami dan bahwa data Anda disimpan di Amerika Serikat.