Kursus
Model Transformer dengan PyTorch
LanjutanTingkat Keterampilan
Diperbarui 01/2025PyTorchArtificial Intelligence2 jam7 videos23 Latihan1,900 XP7,225Bukti Prestasi
Buat Akun Gratis Anda
atau
Dengan melanjutkan, Anda menerima Ketentuan Penggunaan kami, Kebijakan Privasi kami dan bahwa data Anda disimpan di Amerika Serikat.Dipercaya oleh para pelajar di ribuan perusahaan
Pelatihan untuk 2 orang atau lebih?
Coba DataCamp for BusinessDeskripsi Kursus
Penjelajahan Mendalam tentang Arsitektur Transformer
Model transformer telah merevolusi pemodelan teks, memicu ledakan kecerdasan buatan generatif dengan memfasilitasi pengembangan model bahasa besar (LLMs) yang ada saat ini. Dalam kursus ini, Anda akan mempelajari komponen-komponen utama dalam arsitektur ini, termasuk positional encoding, mekanisme perhatian, dan lapisan feed-forward. Anda akan mengkodekan komponen-komponen ini secara modular untuk membangun transformator Anda sendiri secara bertahap.Implementasikan Mekanisme Perhatian dengan PyTorch
Mekanisme perhatian merupakan perkembangan kunci yang membantu mengformalkan arsitektur transformer. Self-attention memungkinkan transformers untuk lebih baik mengidentifikasi hubungan antara token, yang meningkatkan kualitas teks yang dihasilkan. Pelajari cara membuat kelas mekanisme perhatian multi-head yang akan menjadi blok bangunan kunci dalam model transformer Anda.Bangun Model Transformer Anda Sendiri
Pelajari cara membangun model transformer yang hanya menggunakan encoder, hanya menggunakan decoder, dan model transformer encoder-decoder. Pelajari cara memilih dan mengimplementasikan arsitektur transformer yang berbeda untuk tugas-tugas bahasa yang berbeda, termasuk klasifikasi teks dan analisis sentimen, generasi dan penyelesaian teks, serta terjemahan urutan-ke-urutan.Persyaratan
Deep Learning for Text with PyTorch1
The Building Blocks of Transformer Models
Discover what makes the hottest deep learning architecture in AI tick! Learn about the components that make up Transformer models, including the famous self-attention mechanisms described in the renowned paper "Attention is All You Need."
2
Building Transformer Architectures
Design transformer encoder and decoder blocks, and combine them with positional encoding, multi-headed attention, and position-wise feed-forward networks to build your very own Transformer architectures. Along the way, you'll develop a deep understanding and appreciation for how transformers work under the hood.
Model Transformer dengan PyTorch
Kursus Selesai
Memperoleh Surat Keterangan Prestasi
Tambahkan kredensial ini ke profil LinkedIn, resume, atau CV AndaBagikan di media sosial dan dalam penilaian kinerja AndaDaftar Sekarang
Bergabung dengan 19 juta pelajar dan mulai Model Transformer dengan PyTorch Hari Ini!
Buat Akun Gratis Anda
atau
Dengan melanjutkan, Anda menerima Ketentuan Penggunaan kami, Kebijakan Privasi kami dan bahwa data Anda disimpan di Amerika Serikat.Kembangkan keterampilan data Anda dengan DataCamp untuk Mobile
Buat kemajuan di mana saja dengan kursus mobile kami dan tantangan coding harian 5 menit.