Kategorie
Technologien
KI-Tutorials
Bleib auf dem Laufenden über die neuesten Techniken, Werkzeuge und Forschungen im Bereich der künstlichen Intelligenz. Unsere KI-Tutorials führen dich durch anspruchsvolle Machine-Learning-Modelle.
Andere Technologien:
Training für 2 oder mehr Personen?Probiere es mit DataCamp for Business
Ollama Python Library: Der Einstieg in lokale LLMs
Beherrsche das Ollama Python SDK für die lokale LLM-Entwicklung. Lerne Text zu generieren, mehrstufige Chats zu führen, Vision-Modelle zu nutzen und sichere KI-Apps zu bauen.
Austin Chia
17. April 2026
MiniMax M2.7 lokal für agentisches Coding ausführen
In diesem Guide mieten wir eine H200-GPU, installieren llama.cpp, laden MiniMax M2.7 GGUF herunter, führen es lokal aus, testen es in der WebUI und verbinden es mit OpenCode.
Abid Ali Awan
17. April 2026
LM Studio Tutorial: So startest du mit lokalen LLMs
Erfahre, wie du LLMs mit LM Studio lokal installierst und ausführst. Behalte deine Daten für dich, chatte dank integriertem RAG mit Dokumenten und richte eine lokale API ein.
Srujana Maddula
15. April 2026
GLM 5.1 lokal für agentisches Coding ausführen: So geht’s
Lerne, wie du GLM 5.1 lokal auf einer H100-GPU mit llama.cpp betreibst, es testest, die WebUI nutzt und Claude Code integrierst.
Abid Ali Awan
10. April 2026
OpenClaw mit Ollama nutzen: Einen lokalen Datenanalysten aufbauen
Lerne, wie du mit OpenClaw und Ollama einen komplett lokalen KI-Datenanalysten aufbaust, der mehrstufige Arbeitsabläufe koordiniert, Datensätze analysiert und visuelle Berichte erstellt, ohne deine Daten in die Cloud zu schicken.
Aashi Dutt
9. Februar 2026
Wie man Claude-Code-Plugins erstellt: Eine Schritt-für-Schritt-Anleitung
Ein kompletter Leitfaden zu den Claude Code-Plugins. Lerne, wie du Erweiterungen installierst, zwischen Skills und MCPs wählst und einen eigenen Sitzungsprotokollierer von Grund auf erstellst.
Bex Tuychiev
9. Februar 2026
Qwen3-Coder-Next lokal ausführen: Vibe Code – ein Analytics-Dashboard
Starte Qwen3-Coder-Next lokal auf einer RTX 3090 mit llama.cpp und erstelle dann mit Qwen Code CLI in wenigen Minuten ein komplettes Analyse-Dashboard.
Abid Ali Awan
6. Februar 2026
Wie man Kimi K2.5 lokal ausführt
Lerne, wie du ein Top-Open-Source-Modell lokal mit llama.cpp laufen lässt, es mit der Kimi-CLI verbindest und mit Vibe-Coding im Handumdrehen ein interaktives Spiel erstellst.
Abid Ali Awan
5. Februar 2026
FLUX.2 Klein Tutorial: Entwickle eine App zum Erstellen und Bearbeiten von Bildern mit Gradio
Lerne, wie du die lokale FLUX.2 Klein 4B-Generierung mit API-basierter Bildbearbeitung, Multi-Referenz-Konditionierung und Sitzungsverlauf kombinieren kannst, um mit Gradio einen Bildeditor zu erstellen.
Aashi Dutt
3. Februar 2026
Grok Imagine API: Ein kompletter Python-Leitfaden mit Beispielen
Lerne, wie du mit der Grok Imagine API Videos erstellen kannst. Dieser Python-Leitfaden deckt alles ab, von Bildanimationen bis hin zur Videobearbeitung mit dem neuen xAI-Videomodell.
François Aubry
3. Februar 2026
Claude Code mit Ollama Local Models nutzen
Führ GLM 4.7 Flash lokal (RTX 3090) mit Claude Code und Ollama in wenigen Minuten aus – keine Cloud, keine Bindung, nur pure Geschwindigkeit und Kontrolle.
Abid Ali Awan
3. Februar 2026
Kimi K2.5 und Agent Swarm: Ein Leitfaden mit vier praktischen Beispielen
Lerne, was Moonshots Kimi K2.5 ist, wie Agent Swarm funktioniert, und schau dir das Ganze in vier praktischen Experimenten aus der echten Welt an.
Aashi Dutt
29. Januar 2026