Weiter zum Inhalt
StartseitePython

Kurs

Reinforcement Learning aus menschlichem Feedback (RLHF)

ExperteSchwierigkeitsgrad
Aktualisiert 10/2024
Hier erfährst du, wie du GenAI-Modellen menschliche Werte vermittelst, und sammelst praktische Erfahrungen mit fortgeschrittenen LLMs.
Kurs kostenlos starten
PythonArtificial Intelligence4 Std.13 Videos38 Übungen2,900 XP3,492Leistungsnachweis

Kostenloses Konto erstellen

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.

Beliebt bei Lernenden in Tausenden Unternehmen

Group

Training für 2 oder mehr Personen?

Probiere es mit DataCamp for Business

Kursbeschreibung

Kombiniere in diesem Kurs zur Methode Reinforcement Learning aus menschlichem Feedback die Effizienz von Generative AI mit dem Verständnis menschlicher Expertise. Du lernst, wie GenAI-Modelle menschliche Werte und Vorlieben wirklich widerspiegeln und sammelst praktische Erfahrung mit LLMs. Außerdem navigierst du die Komplexität von Belohnungsmodellen und erfährst, wie du auf LLMs aufbaust, um KI zu entwickeln, die nicht nur lernt, sondern sich auch an reale Szenarien anpasst.

Voraussetzungen

Deep Reinforcement Learning in Python
1

Foundational Concepts

This chapter introduces the basics of Reinforcement Learning with Human Feedback (RLHF), a technique that uses human input to help AI models learn more effectively. Get started with RLHF by understanding how it differs from traditional reinforcement learning and why human feedback can enhance AI performance in various domains.
Kapitel starten
2

Gathering Human Feedback

Discover how to set up systems for gathering human feedback in this Chapter. Learn best practices for collecting high-quality data, from pairwise comparisons to uncertainty sampling, and explore strategies for enhancing your data collection.
Kapitel starten
3

Tuning Models with Human Feedback

In this Chapter, you'll get into the core of Reinforcement Learning from Human Feedback training. This includes exploring fine-tuning with PPO, techniques to train efficiently, and handling potential divergences from your metrics' objectives.
Kapitel starten
4

Model Evaluation

Explore key techniques for assessing and improving model performance in this last Chapter of Reinforcement Learning from Human Feedback (RLHF): from fine-tuning metrics to incorporating diverse feedback sources, you'll be provided with a comprehensive toolkit to refine your models effectively.
Kapitel starten
Reinforcement Learning aus menschlichem Feedback (RLHF)
Kurs
abgeschlossen

Leistungsnachweis verdienen

Füge diesen Fähigkeitsnachweis zu Deinem LinkedIn-Profil, Anschreiben oder Lebenslauf hinzu
Teile es auf Social Media und in Deiner Leistungsbeurteilung
Jetzt anmelden

Schließe dich 19 Millionen Lernenden an und starte Reinforcement Learning aus menschlichem Feedback (RLHF) heute!

Kostenloses Konto erstellen

oder

Durch Klick auf die Schaltfläche akzeptierst du unsere Nutzungsbedingungen, unsere Datenschutzrichtlinie und die Speicherung deiner Daten in den USA.

DataCamp gibt es auch für Mobilgeräte

Mit unseren Kursen für Mobilgeräte und täglichen Programmier-Challenges erweiterst du deine Datenkompetenz von unterwegs.