Weiter zum Inhalt
StartseitePython

Kurs

Effizientes KI-Modelltraining mit PyTorch

ExperteSchwierigkeitsgrad
Aktualisiert 04/2026
Lerne, wie du das Training von LLMs mithilfe von Accelerator und Trainer für verteilte Trainingsprozesse beschleunigst.
Kurs kostenlos starten
PythonArtificial Intelligence4 Std.13 Videos45 Übungen3,850 XPLeistungsnachweis

Kostenloses Konto erstellen

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.

Beliebt bei Lernenden in Tausenden Unternehmen

Group

Training für 2 oder mehr Personen?

Probiere es mit DataCamp for Business

Kursbeschreibung

Verteiltes Training ist eine wichtige Fähigkeit beim maschinellen Lernen in großem Maßstab. Es hilft dir, die Zeit zu verkürzen, die zum Trainieren großer Sprachmodelle mit Billionen von Parametern benötigt wird. In diesem Kurs lernst du die Werkzeuge, Techniken und Strategien kennen, die für ein effizientes verteiltes Training mit PyTorch, Accelerator und Trainer notwendig sind.

Daten für verteiltes Training vorbereiten

Du beginnst damit, die Daten für das verteilte Training vorzubereiten, indem du die Datensätze auf mehrere Geräte aufteilst und Modellkopien auf jedem Gerät bereitstellst. Du sammelst praktische Erfahrungen in der Vorverarbeitung von Daten für verteilte Umgebungen, einschließlich Bildern, Audio und Text.

Erkundung von Effizienztechniken

Sobald deine Daten fertig sind, erkundest du, wie du die Effizienz der Ausbildung und die Nutzung der Optimierer über verschiedene Schnittstellen hinweg verbessern kannst. Du wirst sehen, wie du diese Herausforderungen meistern kannst, indem du die Speichernutzung, die Gerätekommunikation und die Recheneffizienz mit Techniken wie Gradientenakkumulation, Gradienten-Checkpointing, lokalem stochastischem Gradientenabstieg und Training mit gemischter Genauigkeit verbesserst. Du wirst die Kompromisse zwischen den verschiedenen Optimierern verstehen, die dir helfen, den Speicherbedarf deines Modells zu verringern. Am Ende dieses Kurses wirst du mit dem Wissen und den Werkzeugen ausgestattet sein, um verteilte KI-gestützte Dienste aufzubauen.

Voraussetzungen

Intermediate Deep Learning with PyTorchWorking with Hugging Face
1

Data Preparation with Accelerator

You'll prepare data for distributed training by splitting the data across multiple devices and copying the model on each device. Accelerator provides a convenient interface for data preparation, and you'll learn how to preprocess images, audio, and text as a first step in distributed training.
Kapitel starten
2

Distributed Training with Accelerator and Trainer

3

Improving Training Efficiency

Distributed training strains resources with large models and datasets, but you can address these challenges by improving memory usage, device communication, and computational efficiency. You'll discover the techniques of gradient accumulation, gradient checkpointing, local stochastic gradient descent, and mixed precision training.
Kapitel starten
4

Training with Efficient Optimizers

Effizientes KI-Modelltraining mit PyTorch
Kurs
abgeschlossen

Leistungsnachweis verdienen

Füge diesen Fähigkeitsnachweis zu Deinem LinkedIn-Profil, Anschreiben oder Lebenslauf hinzu
Teile es auf Social Media und in Deiner Leistungsbeurteilung
Jetzt anmelden

Schließe dich 19 Millionen Lernenden an und starte Effizientes KI-Modelltraining mit PyTorch heute!

Kostenloses Konto erstellen

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.

DataCamp gibt es auch für Mobilgeräte

Mit unseren Kursen für Mobilgeräte und täglichen Programmier-Challenges erweiterst du deine Datenkompetenz von unterwegs.