Kategorie
Technologien
LLM Tutorien
Bleib auf dem Laufenden über die neuesten Nachrichten, Techniken und Ressourcen für große Sprachmodelle. Unsere Tutorials sind voller praktischer Beispiele und Anwendungsfälle, die du nutzen kannst, um dich weiterzubilden.
Andere Technologien:
Training für 2 oder mehr Personen?Probiere es mit DataCamp for Business
DeepSeek V4 Flash lokal ausführen: So geht’s
Lerne in diesem praxisnahen Tutorial, wie du das komplette DeepSeek V4 Flash Modell auf einer einzelnen GPU mit einer modifizierten llama.cpp-Version und einer kompatiblen GGUF-Datei lokal betreibst.
Abid Ali Awan
5. Mai 2026
Feintuning von NVIDIA Nemotron-3-Nano mit Psychologie-Q&A-Daten
Lerne, NVIDIA Nemotron-3-Nano-4B mit einem Psychologie-Q&A-Datensatz auf einer RTX 3090 mit LoRA und TRL zu feintunen, nachdem du das Modell von Hugging Face heruntergeladen hast.
Abid Ali Awan
29. April 2026
Qwen 3.6 Plus API-Tutorial: Eine Pipeline zur Rechnungsverarbeitung in Python bauen
Lerne, wie du Alibabas Qwen 3.6 Plus, Python und das OpenAI SDK nutzt, um eine automatisierte Pipeline zur Rechnungsverarbeitung mit nativer Vision und Tool-Aufrufen zu erstellen.
Bex Tuychiev
27. April 2026
Nano Banana 2: Der komplette Guide mit Python
Erfahre alles über Googles neuestes Bildgenerierungsmodell Nano Banana 2 – inklusive Anleitung, wie du mit der API und Python einen iterativen Chat‑Bildeditor baust.
François Aubry
22. April 2026
OpenClaw (Clawdbot) Tutorial: Steuere deinen PC über WhatsApp
Richte OpenClaw (ehemals Clawdbot/Moltbot) ein: ein selbst gehosteter Agent, der Claude per WhatsApp mit deinem Mac verbindet. Durchsuche Dateien und führe Shell-Befehle vom Smartphone aus.
Bex Tuychiev
22. April 2026
GLM-5 lokal für agentisches Coding ausführen
Führe GLM-5, das führende Open-Weight-KI-Modell, mit llama.cpp auf einer einzelnen GPU aus und verbinde es mit Aider – für einen mächtigen lokalen Coding-Agenten.
Abid Ali Awan
22. April 2026
Qwen3.6 auf einem medizinischen Q&A-Datensatz feinabstimmen
Lerne, wie du Qwen3.6 auf einer H100 NVL GPU mit SFT feinabstimmst – von der Datensatzvorbereitung und 4‑Bit‑Ladung bis hin zu Training und Evaluation.
Abid Ali Awan
21. April 2026
Claude Opus 4.7 API-Tutorial: Einen Chart-Digitalisierer bauen
Lerne die Möglichkeiten von Anthropics leistungsstärkstem öffentlich verfügbaren Modell, Claude Opus 4.7, kennen und baue ein Data-Science-Tool, das ein Diagramm in Rohdaten verwandelt.
François Aubry
20. April 2026
LLM als Judge: Der komplette Guide mit praxisnahem RAG-Beispiel
Lerne, wie du ein automatisiertes LLM-as-a-judge-System aufbaust, um deine RAG-Pipelines in großem Maßstab auf Faktentreue und Relevanz zu prüfen – und so die Lücke im KI-Testing schließt.
Josep Ferrer
20. April 2026
Claude Cowork Tutorial: So nutzt du Anthropics KI-Desktop-Agent
Erfahre, was Claude Cowork ist und wie du es für Dateiorganisation, Dokumenterstellung und Browser-Automatisierung nutzt. Praxis-Tutorial mit echten Beispielen und Grenzen.
Bex Tuychiev
17. April 2026
Ollama Python Library: Der Einstieg in lokale LLMs
Beherrsche das Ollama Python SDK für die lokale LLM-Entwicklung. Lerne Text zu generieren, mehrstufige Chats zu führen, Vision-Modelle zu nutzen und sichere KI-Apps zu bauen.
Austin Chia
17. April 2026
MiniMax M2.7 lokal für agentisches Coding ausführen
In diesem Guide mieten wir eine H200-GPU, installieren llama.cpp, laden MiniMax M2.7 GGUF herunter, führen es lokal aus, testen es in der WebUI und verbinden es mit OpenCode.
Abid Ali Awan
17. April 2026