Kategorie
Technologies
LLM Tutorials
Keep up to date with the latest news, techniques, and resources for Large Language Models. Our tutorials are full of practical walk throughs & use cases you can use to upskill.
Other technologies:
Training für 2 oder mehr Personen?Probiere es mit DataCamp for Business
Qwen3-Coder-Next lokal ausführen: Vibe Code – ein Analytics-Dashboard
Starte Qwen3-Coder-Next lokal auf einer RTX 3090 mit llama.cpp und erstelle dann mit Qwen Code CLI in wenigen Minuten ein komplettes Analyse-Dashboard.
Abid Ali Awan
6. Februar 2026
Wie man Kimi K2.5 lokal ausführt
Lerne, wie du ein Top-Open-Source-Modell lokal mit llama.cpp laufen lässt, es mit der Kimi-CLI verbindest und mit Vibe-Coding im Handumdrehen ein interaktives Spiel erstellst.
Abid Ali Awan
5. Februar 2026
FLUX.2 Klein Tutorial: Entwickle eine App zum Erstellen und Bearbeiten von Bildern mit Gradio
Lerne, wie du die lokale FLUX.2 Klein 4B-Generierung mit API-basierter Bildbearbeitung, Multi-Referenz-Konditionierung und Sitzungsverlauf kombinieren kannst, um mit Gradio einen Bildeditor zu erstellen.
Aashi Dutt
3. Februar 2026
Claude Code mit Ollama Local Models nutzen
Führ GLM 4.7 Flash lokal (RTX 3090) mit Claude Code und Ollama in wenigen Minuten aus – keine Cloud, keine Bindung, nur pure Geschwindigkeit und Kontrolle.
Abid Ali Awan
3. Februar 2026
Kimi K2.5 und Agent Swarm: Ein Leitfaden mit vier praktischen Beispielen
Lerne, was Moonshots Kimi K2.5 ist, wie Agent Swarm funktioniert, und schau dir das Ganze in vier praktischen Experimenten aus der echten Welt an.
Aashi Dutt
29. Januar 2026
Google MCP-Server-Tutorial: Agentische KI auf GCP einsetzen
Schau dir die Architektur der verwalteten MCP-Server von Google an und lerne, wie du LLMs zu proaktiven Operatoren für BigQuery, Maps, GCE und Kubernetes machen kannst.
Aryan Irani
28. Januar 2026
Transformers v5 Tokenisierung: Leitfaden für Architektur und Migration
Aktualisiere auf Transformers v5. Ein praktischer Leitfaden zum einheitlichen Rust-Backend, zu API-Änderungen und zu parallelen Migrationsmustern für die Codierung und den Chat zwischen Version 4 und Version 5.
Aashi Dutt
27. Januar 2026
So fährst du GLM-4.7 lokal mit llama.cpp: Ein leistungsstarker Leitfaden
Einrichten von llama.cpp, um das GLM-4.7-Modell auf einer einzelnen NVIDIA H100 80 GB GPU laufen zu lassen, mit bis zu 20 Tokens pro Sekunde dank GPU-Offloading, Flash Attention, optimierter Kontextgröße, effizientem Batching und abgestimmtem CPU-Threading.
Abid Ali Awan
26. Januar 2026
Wie man Sora AI benutzt: Ein Leitfaden mit 10 praktischen Beispielen
Lerne, wie du mit Sora AI Videos erstellen und bearbeiten kannst, zum Beispiel mit Remix, Loop, Re-Cut, Stilvorlagen und Storyboards.
François Aubry
22. Januar 2026
So benutzt du GLM 4.7 Flash lokal
Lerne, wie du GLM-4.7-Flash auf einer RTX 3090 für schnelle lokale Inferenz und Integration mit OpenCode laufen lässt, um einen komplett lokalen automatisierten KI-Codierungsagenten zu erstellen.
Abid Ali Awan
22. Januar 2026
Wie man FunctionGemma optimiert: Eine Schritt-für-Schritt-Anleitung
Lerne, wie du FunctionGemma in weniger als 10 Minuten mit den kostenlosen GPUs von Kaggle optimieren kannst, von der Vorbereitung des Datensatzes und der Basisbewertung bis hin zum Training und der Validierung nach der Feinabstimmung.
Abid Ali Awan
21. Januar 2026
Claude Code: Ein Leitfaden mit praktischen Beispielen
Lerne anhand eines praktischen Beispiels mit der Python-Bibliothek Supabase, wie du mit Claude Code von Anthropic die Arbeitsabläufe bei der Softwareentwicklung verbessern kannst.
Aashi Dutt
20. Januar 2026