Kurs
12 LLM-Projekte für alle Niveaus
Lernen durch das Erstellen von Projekten ist der beste Weg, um dein Verständnis und deine praktischen Fähigkeiten im Bereich der Large Language Models (LLMs) und KI zu vertiefen. Durch die Arbeit an Projekten lernst du neue Tools, Techniken und Modelle kennen, mit denen du deine Anwendungen optimieren und hochpräzise und schnelle KI-Anwendungen entwickeln kannst.
Durch die Fehlerbehebung in diesen Projekten sammelst du wertvolle Erfahrungen, erhöhst deine Chancen auf deinen Traumjob und kannst ein zusätzliches Einkommen erzielen, indem du deine Projekte monetarisierst und ein marktfähiges Produkt erstellst.
Bild vom Autor
In diesem Blog werden wir LLM-Projekte vorstellen, die für Anfänger, Fortgeschrittene, Studierende im letzten Studienjahr und Experten konzipiert sind. Jedes Projekt enthält einen Leitfaden und Quellenmaterial, um die Ergebnisse zu studieren und zu reproduzieren.
Wenn du neu bei LLMs bist, fülle bitte die AI-Grundlagen Lernpfad ab, bevor du mit dem unten genannten Projekt beginnst. So kannst du dir praktisches Wissen über beliebte KI-Themen wie chatGPT, große Sprachmodelle, generative KI und mehr aneignen.
Willst du mit generativer KI beginnen?
Lerne, wie du mit LLMs in Python direkt in deinem Browser arbeiten kannst

LLM-Projekte für Einsteiger
In den Einsteigerprojekten lernst du, wie du die OpenAI API nutzt, um Modelle zu verfeinern, Antworten zu generieren, KI-Assistenten mit multimodalen Fähigkeiten zu erstellen und API-Endpunkte deiner Anwendung mit FastAPI zu bedienen.
Voraussetzungen: Ein Verständnis von Python ist erforderlich.
1. Feinabstimmung der Modelle von OpenAI
Projekt-Link: Feinabstimmung des GPT-4 von OpenAI
Die Feinabstimmung von GPT-4 auf einem benutzerdefinierten Datensatz ist ganz einfach geworden. Du brauchst keine teuren GPUs, keine Software zu installieren und keinen Python-Code zu schreiben. Das Einzige, was du tun musst, ist, den Datensatz hochzuladen und die OpenAI API für die Feinabstimmung auszuführen. Einfach.
Nachdem die Feinabstimmung abgeschlossen ist, kannst du dieses Modell in deiner KI-Anwendung verwenden, ähnlich wie jedes andere Modell, das die OpenAI API nutzt.
In diesem Projekt lernst du die OpenAI API kennen und erfährst, wie du den Datensatz ändern und hochladen kannst. Am Ende kannst du auf das feinabgestimmte Modell zugreifen und die maßgeschneiderte Antwort erstellen.
Quelle: Feinabstimmung des GPT-4 von OpenAI
2. Aufbau eines KI-Assistenten für die Datenwissenschaft mit multimodalen Fähigkeiten
Projekt-Link: KI-Assistenten mit GPT-4o erstellen
In diesem Projekt erstellst du deinen eigenen KI-Assistenten, ähnlich wie ChatGPT. Du wirst lernen, die OpenAI API und GPT-4o zu nutzen, um einen spezialisierten KI-Assistenten zu erstellen, der auf Data Science-Aufgaben zugeschnitten ist. Dazu gehören die Bereitstellung von benutzerdefinierten Anweisungen, der Umgang mit Dateien und Daten und die Nutzung multimodaler Funktionen.
Das Lustige daran ist, dass du für das ganze Projekt nur verschiedene Funktionen der OpenAI Python API verstehen musst. Mit ein paar Zeilen Code kannst du deine eigene automatisierte KI erstellen, die die Daten für dich verarbeitet und dir die Analyse präsentiert.
Quelle: KI-Assistenten mit GPT-4o erstellen
3. Servieren einer LLM-Anwendung als API-Endpunkt mit FastAPI
Projekt-Link: Eine LLM-Anwendung als API-Endpunkt mit FastAPI in Python bereitstellen
Was ist der nächste Schritt, nachdem du deine Anwendung mit der OpenAI API erstellt hast? Du wirst sie auf einem Server bereitstellen und verteilen. Das bedeutet, dass du eine REST-API-Anwendung erstellst, die jeder nutzen kann, um deine KI-Anwendung in sein System zu integrieren.
In diesem Projekt lernst du FastAPI kennen und erfährst, wie du KI-Anwendungen erstellen und bedienen kannst. Du lernst auch, wie die API funktioniert und wie du sie lokal testen kannst.
Quelle: Eine LLM-Anwendung als API-Endpunkt mit FastAPI in Python bereitstellen
LLM-Projekte für Fortgeschrittene
In den LLM-Projekten für Fortgeschrittene wirst du lernen, verschiedene LLM-APIs wie Groq, OpenAI und Cohere mit Frameworks wie LlamaIndex und LangChain zu integrieren. Du wirst lernen, kontextbezogene Anwendungen zu entwickeln und mehrere externe Quellen zu verbinden, um hochrelevante und genaue Antworten zu generieren.
Voraussetzungen: Erfahrung mit Python und ein Verständnis dafür, wie KI-Agenten funktionieren.
4. Aufbau einer kontextabhängigen ChatPDF-Anwendung
Projekt-Link: Groq LPU Inference Engine Tutorial
Die Groq-API ist der OpenAI-API ähnlich, bietet aber eine Geschwindigkeit von fast 500 Token pro Sekunde im Vergleich zu den 45 Token pro Sekunde von OpenAI und ermöglicht so Antworten in Echtzeit.
In diesem Projekt lernst du die Groq Python API kennen und erfährst, wie du mit ihr KI-Anwendungen erstellen kannst. Du wirst Konzepte wie Vektorspeicher, Indexierung, Einbettungen, LLMs, Chat-Engines und Speicherpuffer kennenlernen.
Mit diesen Komponenten baust du eine kontextabhängige RAG-Anwendung (Retrieval-Augmented Generation), die relevante Antworten aus PDF-Dateien generieren kann.
Quelle: Groq LPU Inference Engine Tutorial
5. Aufbau einer DuckDB SQL Query Engine mit einer LLM
Projekt-Link: DuckDB Tutorial: KI-Projekte bauen
DuckDB ist ein modernes, hochleistungsfähiges, analytisches In-Memory-Datenbankmanagementsystem (DBMS), das als Vektorspeicher und als SQL-Abfrage-Engine verwendet werden kann.
In diesem Projekt lernst du das LlamaIndex-Framework kennen, um eine RAG-Anwendung mit DuckDB als Vektorspeicher zu erstellen. Außerdem baust du eine DuckDB-SQL-Abfrage-Engine, die natürliche Sprache in SQL-Abfragen umwandelt und Antworten erzeugt, die als Kontext für die Eingabeaufforderung verwendet werden können. Es ist ein spaßiges Projekt, bei dem du viele Funktionen und Agenten von LlamaIndex kennenlernen wirst.
Quelle: DuckDB Tutorial: KI-Projekte bauen
LLM-Projekte für Studierende im letzten Studienjahr
Studierende im letzten Studienjahr haben die Möglichkeit, richtige LLM-Bewerbungen zu erstellen. Daher erfordern die meisten der in diesem Abschnitt erwähnten Projekte Kenntnisse über Feinabstimmung, LLM-Architekturen, multimodale Anwendungen, KI-Agenten und schließlich den Einsatz der Anwendung auf einem Server.
Voraussetzungen: Gute Kenntnisse der Sprache Python, LLMs, KI-Agenten und der Feinabstimmung von Modellen.
6. Multimodale KI-Anwendungen mit LangChain und der OpenAI API erstellen
Projekt-Link: Multimodale KI-Anwendungen mit LangChain und der OpenAI API erstellen
Generative KI macht es leicht, über die reine Arbeit mit Text hinauszugehen. Wir können jetzt die Leistung von Text- und Audio-KI-Modellen kombinieren, um einen Bot zu bauen, der Fragen zu YouTube-Videos beantwortet.
In diesem Projekt lernst du, wie du YouTube-Videos mit der KI Whisper Sprache-zu-Text transkribieren und dann mit GPT Fragen zu den Inhalten stellen kannst. Du wirst auch etwas über LangChain und verschiedene OpenAI-Funktionen lernen.
Das Projekt umfasst einen Video-Guide und Code-Along-Sessions, in denen du die Anwendung gemeinsam mit dem Ausbilder erstellen kannst.
Nimm die Entwickeln von LLM-Anwendungen mit LangChain Kurs, um mehr über die Funktionen von LangChain anhand von interaktiven Übungen, Folien, Quizfragen, Videotutorials und Bewertungsfragen zu erfahren.
Quelle: Multimodale KI-Anwendungen mit LangChain und der OpenAI API erstellen
7. Feinabstimmung von Llama 3 und Einsatz vor Ort
Projekt-Link: Die Feinabstimmung von Llama 3 und die Nutzung vor Ort: Eine Schritt-für-Schritt-Anleitung
Die Feinabstimmung mit der OpenAI API ist einfach, hat aber ihre Grenzen. Es kann nur eine Feinabstimmung des OpenAI-Modells vornehmen, und du opferst die Privatsphäre und zahlst mehr als für die Feinabstimmung auf deinem eigenen Rechner. Letztendlich kommt es auf die Kosten und die Sicherheit an.
In diesem Projekt lernst du, das Transformers-Framework zu nutzen, um das Llama 3-Modell auf Patienten- und Arztgespräche abzustimmen. Außerdem lernst du, das Basismodell mit dem Feinabstimmungsadapter zusammenzuführen, es in das GGUF-Format zu konvertieren, zu quantisieren und es lokal mit einer Jan-Anwendung zu verwenden.
Wenn du dieses Projekt abschließt, wirst du Wissen über LLMs, Feinabstimmung, Quantisierung und verschiedene Methoden zur Optimierung der Speicher- und Rechennutzung erwerben.
Quelle: Feinabstimmung von Llama 3 und Einsatz vor Ort
8. Baue einen mehrstufigen KI-Agenten mit der LangChain und Cohere API
Projekt-Link: Cohere Command R+: Eine vollständige Schritt-für-Schritt-Anleitung
Die Cohere API ist der OpenAI API ähnlich und bietet im Vergleich zu anderen LLM-Frameworks viele Funktionen. In diesem Projekt lernst du die Kernfunktionen der Cohere API kennen und nutzt sie, um einen mehrstufigen KI-Agenten zu bauen.
Du wirst auch das LangChain-Framework und die Verkettung verschiedener KI-Agenten beherrschen.
Am Ende wirst du eine KI-Anwendung erstellen, die die Suchanfrage des Nutzers annimmt und Python-Code generiert. Dann wird der Code mit Hilfe der Python REPL ausgeführt und die vom Nutzer gewünschte Visualisierung zurückgegeben.
Quelle: Cohere Command R+: Eine vollständige Schritt-für-Schritt-Anleitung
9. Einsatz von LLM-Anwendungen mit LangServe
Projekt-Link: Einsatz von LLM-Anwendungen mit LangServe
In diesem Projekt lernst du, wie du LLM-Anwendungen mit LangServe einsetzen kannst. Du beginnst damit, LangServe einzurichten, einen Server mit FastAPI zu erstellen, den Server lokal zu testen und dann die Anwendung zu implementieren. Du wirst auch lernen, die Leistung des LLM mit dem Prometheus-Framework zu überwachen und dann Grafana zu verwenden, um die Modellleistung im Dashboard zu visualisieren.
Es gibt viel zu lernen, und es wird dir helfen, einen Job im Bereich LLMOps zu bekommen, der immer gefragter wird.
Quelle: Einsatz von LLM-Anwendungen mit LangServe
LLM-Projekte für Fortgeschrittene
Die fortgeschrittenen LLM-Projekte sind für Experten gedacht, die produktionsreife Anwendungen erstellen und bereits eingesetzte LLM-Anwendungen verbessern wollen. Bei der Arbeit an diesen Projekten lernst du, wie du mit TPUs anstelle von GPUs eine schnellere Leistung erzielst, wie du Taxonomieerstellung und Textklassifizierung automatisierst und wie du KI-Anwendungen in der Microsoft Azure Cloud erstellst.
Voraussetzungen: Gute Kenntnisse in Python, LLMs, Modellfeinabstimmung, TPUs und Cloud Computing.
10. Feinabstimmung und Inferenz für Googles Gemma-Modell mit TPUs
Projekt-Link: Feinabstimmung und Inferenz auf Googles Gemma-Modell mit TPU
Die Feinabstimmung und die Ausführung von Modellinferenzen auf TPUs bringen eine Reihe von Problemen und Einschränkungen mit sich, aber im Gegenzug erhältst du die vierfache Geschwindigkeit im Vergleich zu einem Multi-GPU-Setup.
In diesem Projekt lernst du CPUs, GPUs und TPUs kennen und erfährst, wie du TPUs nutzen kannst, um schnellere Antworten zu generieren und Modelle in einem Viertel der Zeit fein abzustimmen. Du wirst auch etwas über die verteilte Feinabstimmung und Inferenz von Modellen mit TPUs lernen. Dies wird durch die Modellparallelität erreicht, die die Gewichte eines einzelnen Modells auf mehrere Geräte verteilt, was eine horizontale Skalierung ermöglicht und das Training beschleunigt.
Quelle: Feinabstimmung und Inferenz auf Googles Gemma-Modell mit TPU
11. Eine TNT-LLM Anwendung erstellen
Projekt-Link: GPT-4o und LangGraph Tutorial: Eine TNT-LLM Anwendung erstellen
TNT-LLM von Microsoft ist ein hochmodernes System, das die Erstellung von Taxonomien und die Klassifizierung von Texten automatisiert, indem es die Leistungsfähigkeit großer Sprachmodelle (LLMs) wie GPT-4 nutzt, um die Effizienz und Genauigkeit bei minimalem menschlichem Eingriff zu verbessern. In diesem Projekt wirst du TNT-LLM mit LangGraph, LangChain und der OpenAI API implementieren.
Du definierst die StateGraph-Klasse, lädst Datensätze, fasst Dokumente zusammen, erstellst Minibatches, generierst und aktualisierst die Taxonomie, überprüfst sie, orchestrierst die TNT-LLM-Pipeline mit StateGraph und schließlich clusterst du die Taxonomie und stellst sie dar.
Quelle: GPT-4o und LangGraph Tutorial
12. Aufbau einer KI-Anwendung mit Azure Cloud
Projekt-Link: GPT auf Azure verwenden
Erfahrungen im Bereich Cloud Computing sind eine wichtige Voraussetzung, um eine Stelle in einem LLM-bezogenen Bereich zu bekommen. Wenn du es schaffst, eine LLM-Pipeline in der Azure-Cloud zu erstellen, zu automatisieren, bereitzustellen und zu warten, wirst du dich als Experte für LLMs bezeichnen.
In diesem Projekt lernst du, wie du eine kostenpflichtige Instanz von OpenAI einrichtest und einfache Anwendungen erstellst, die die Leistungsfähigkeit von LLMs und generativer KI mit deinen Daten demonstrieren. Du wirst auch einen Vektorspeicher verwenden, um eine RAG-Anwendung zu erstellen und Halluzinationen in der KI-Anwendung zu reduzieren.
Quelle: GPT auf Azure verwenden
Schlussgedanken
Wenn du die oben genannten Projekte durcharbeitest, wirst du genug Erfahrung sammeln, um dein eigenes Produkt zu entwickeln oder dir sogar einen Job im LLM-Bereich zu sichern. Der Schlüssel zum Erfolg ist nicht nur das Programmieren oder die Feinabstimmung, sondern auch die Dokumentation und das Teilen deiner Arbeit in den sozialen Medien, um Aufmerksamkeit zu erregen. Stelle sicher, dass dein Projekt gut erklärt und benutzerfreundlich ist, indem du eine Demo oder einen Leitfaden zur Benutzerfreundlichkeit in die Dokumentation aufnimmst.
In diesem Blog haben wir uns 12 LLM-Projekte angesehen, die dir helfen können, deinen Traumjob als LLM-Wissenschaftler zu bekommen. Wenn du mehr über LLMs erfahren möchtest, empfehlen wir dir die Entwicklung von großen Sprachmodellen Lernpfad. Er vermittelt die neuesten Techniken für die Entwicklung modernster Sprachmodelle, die Beherrschung von Deep Learning mit PyTorch, die Erstellung deines eigenen Transformer-Modells von Grund auf und die Feinabstimmung der vortrainierten LLMs von Hugging Face.

Als zertifizierter Data Scientist ist es meine Leidenschaft, modernste Technologien zu nutzen, um innovative Machine Learning-Anwendungen zu entwickeln. Mit meinem fundierten Hintergrund in den Bereichen Spracherkennung, Datenanalyse und Reporting, MLOps, KI und NLP habe ich meine Fähigkeiten bei der Entwicklung intelligenter Systeme verfeinert, die wirklich etwas bewirken können. Neben meinem technischen Fachwissen bin ich auch ein geschickter Kommunikator mit dem Talent, komplexe Konzepte in eine klare und prägnante Sprache zu fassen. Das hat dazu geführt, dass ich ein gefragter Blogger zum Thema Datenwissenschaft geworden bin und meine Erkenntnisse und Erfahrungen mit einer wachsenden Gemeinschaft von Datenexperten teile. Zurzeit konzentriere ich mich auf die Erstellung und Bearbeitung von Inhalten und arbeite mit großen Sprachmodellen, um aussagekräftige und ansprechende Inhalte zu entwickeln, die sowohl Unternehmen als auch Privatpersonen helfen, das Beste aus ihren Daten zu machen.
Top DataCamp Kurse
Lernpfad
KI-Grundlagen
Kurs