Kurs
Effizientes KI-Modelltraining mit PyTorch
ExperteSchwierigkeitsgrad
Aktualisiert 03.2026Kurs kostenlos starten
Im Lieferumfang enthalten beiPremium or Teams
PythonArtificial Intelligence4 Std.13 Videos45 Übungen3,850 XPLeistungsnachweis
Kostenloses Konto erstellen
oder
Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.Beliebt bei Lernenden in Tausenden Unternehmen
Training für 2 oder mehr Personen?
Probiere es mit DataCamp for BusinessKursbeschreibung
Daten für verteiltes Training vorbereiten
Du beginnst damit, die Daten für das verteilte Training vorzubereiten, indem du die Datensätze auf mehrere Geräte aufteilst und Modellkopien auf jedem Gerät bereitstellst. Du sammelst praktische Erfahrungen in der Vorverarbeitung von Daten für verteilte Umgebungen, einschließlich Bildern, Audio und Text.Erkundung von Effizienztechniken
Sobald deine Daten fertig sind, erkundest du, wie du die Effizienz der Ausbildung und die Nutzung der Optimierer über verschiedene Schnittstellen hinweg verbessern kannst. Du wirst sehen, wie du diese Herausforderungen meistern kannst, indem du die Speichernutzung, die Gerätekommunikation und die Recheneffizienz mit Techniken wie Gradientenakkumulation, Gradienten-Checkpointing, lokalem stochastischem Gradientenabstieg und Training mit gemischter Genauigkeit verbesserst. Du wirst die Kompromisse zwischen den verschiedenen Optimierern verstehen, die dir helfen, den Speicherbedarf deines Modells zu verringern. Am Ende dieses Kurses wirst du mit dem Wissen und den Werkzeugen ausgestattet sein, um verteilte KI-gestützte Dienste aufzubauen.Voraussetzungen
Intermediate Deep Learning with PyTorchWorking with Hugging Face1
Data Preparation with Accelerator
You'll prepare data for distributed training by splitting the data across multiple devices and copying the model on each device. Accelerator provides a convenient interface for data preparation, and you'll learn how to preprocess images, audio, and text as a first step in distributed training.
2
Distributed Training with Accelerator and Trainer
In distributed training, each device trains on its data in parallel. You'll investigate two methods for distributed training: Accelerator enables custom training loops, and Trainer simplifies the interface for training.
3
Improving Training Efficiency
Distributed training strains resources with large models and datasets, but you can address these challenges by improving memory usage, device communication, and computational efficiency. You'll discover the techniques of gradient accumulation, gradient checkpointing, local stochastic gradient descent, and mixed precision training.
4
Training with Efficient Optimizers
You'll focus on optimizers as levers to improve distributed training efficiency, highlighting tradeoffs between AdamW, Adafactor, and 8-bit Adam. Reducing the number of parameters or using low precision helps to decrease a model's memory footprint.
Effizientes KI-Modelltraining mit PyTorch
Kurs abgeschlossen
Leistungsnachweis verdienen
Füge diesen Fähigkeitsnachweis zu Deinem LinkedIn-Profil, Anschreiben oder Lebenslauf hinzuTeile es auf Social Media und in Deiner Leistungsbeurteilung
Im Lieferumfang enthalten beiPremium or Teams
Jetzt anmeldenSchließe dich 19 Millionen Lernenden an und starte Effizientes KI-Modelltraining mit PyTorch heute!
Kostenloses Konto erstellen
oder
Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.