Khóa học
Transformer Models with PyTorch
Nâng caoTrình độ kỹ năng
Đã cập nhật tháng 01, 2025Bắt Đầu Khóa Học Miễn Phí
Bao gồm vớiCao cấp or Đội nhóm
PyTorchArtificial Intelligence2 giờ7 video23 Bài tập1,900 XP6,514Giấy Chứng Nhận Thành Tích
Tạo tài khoản miễn phí
hoặc
Bằng cách tiếp tục, bạn chấp nhận Điều khoản sử dụng, Chính sách bảo mật và việc dữ liệu của bạn được lưu trữ tại Hoa Kỳ.Được yêu thích bởi học viên tại hàng nghìn công ty
Đào tạo 2 người trở lên?
Thử DataCamp for BusinessMô tả khóa học
Deep-Dive into the Transformer Architecture
Transformer models have revolutionized text modeling, kickstarting the generative AI boom by enabling today's large language models (LLMs). In this course, you'll look at the key components in this architecture, including positional encoding, attention mechanisms, and feed-forward sublayers. You'll code these components in a modular way to build your own transformer step-by-step.Implement Attention Mechanisms with PyTorch
The attention mechanism is a key development that helped formalize the transformer architecture. Self-attention allows transformers to better identify relationships between tokens, which improves the quality of generated text. Learn how to create a multi-head attention mechanism class that will form a key building block in your transformer models.Build Your Own Transformer Models
Learn to build encoder-only, decoder-only, and encoder-decoder transformer models. Learn how to choose and code these different transformer architectures for different language tasks, including text classification and sentiment analysis, text generation and completion, and sequence-to-sequence translation.Điều kiện tiên quyết
Deep Learning for Text with PyTorch1
The Building Blocks of Transformer Models
Discover what makes the hottest deep learning architecture in AI tick! Learn about the components that make up Transformer models, including the famous self-attention mechanisms described in the renowned paper "Attention is All You Need."
2
Building Transformer Architectures
Design transformer encoder and decoder blocks, and combine them with positional encoding, multi-headed attention, and position-wise feed-forward networks to build your very own Transformer architectures. Along the way, you'll develop a deep understanding and appreciation for how transformers work under the hood.
Transformer Models with PyTorch
Hoàn Thành
Nhận Giấy Chứng Nhận Hoàn Thành
Thêm chứng chỉ này vào hồ sơ LinkedIn, CV hoặc sơ yếu lý lịch của banChia sẻ trên mạng xã hội và trong đánh giá hiệu suất của ban
Bao gồm vớiCao cấp or Đội nhóm
Đăng Ký NgayTham gia cùng hơn 19 triệu học viên và bắt đầu Transformer Models with PyTorch ngay hôm nay!
Tạo tài khoản miễn phí
hoặc
Bằng cách tiếp tục, bạn chấp nhận Điều khoản sử dụng, Chính sách bảo mật và việc dữ liệu của bạn được lưu trữ tại Hoa Kỳ.