Weiter zum Inhalt
Kategorie
Technologien

LLM Tutorien

Bleib auf dem Laufenden über die neuesten Nachrichten, Techniken und Ressourcen für große Sprachmodelle. Unsere Tutorials sind voller praktischer Beispiele und Anwendungsfälle, die du nutzen kannst, um dich weiterzubilden.
Andere Technologien:
AWSAzureBusiness IntelligenceChatGPTDatabricksdbtDockerExcelGenerative KIGitGoogle Cloud PlatformJavaKafkaKI-AgentenKubernetesKünstliche IntelligenzMongoDBMySQLNoSQLOpenAIPostgreSQLPower BIPySparkPythonR SnowflakeSQLSQLiteTabellenkalkulationenTableauUmarmendes Gesicht
GroupTraining für 2 oder mehr Personen?Probiere es mit DataCamp for Business

LM Studio Tutorial: So startest du mit lokalen LLMs

Erfahre, wie du LLMs mit LM Studio lokal installierst und ausführst. Behalte deine Daten für dich, chatte dank integriertem RAG mit Dokumenten und richte eine lokale API ein.
Srujana Maddula's photo

Srujana Maddula

15. April 2026

Wie man Claude-Code-Plugins erstellt: Eine Schritt-für-Schritt-Anleitung

Ein kompletter Leitfaden zu den Claude Code-Plugins. Lerne, wie du Erweiterungen installierst, zwischen Skills und MCPs wählst und einen eigenen Sitzungsprotokollierer von Grund auf erstellst.
Bex Tuychiev's photo

Bex Tuychiev

9. Februar 2026

Qwen3-Coder-Next lokal ausführen: Vibe Code – ein Analytics-Dashboard

Starte Qwen3-Coder-Next lokal auf einer RTX 3090 mit llama.cpp und erstelle dann mit Qwen Code CLI in wenigen Minuten ein komplettes Analyse-Dashboard.
Abid Ali Awan's photo

Abid Ali Awan

6. Februar 2026

Wie man Kimi K2.5 lokal ausführt

Lerne, wie du ein Top-Open-Source-Modell lokal mit llama.cpp laufen lässt, es mit der Kimi-CLI verbindest und mit Vibe-Coding im Handumdrehen ein interaktives Spiel erstellst.
Abid Ali Awan's photo

Abid Ali Awan

5. Februar 2026

FLUX.2 Klein Tutorial: Entwickle eine App zum Erstellen und Bearbeiten von Bildern mit Gradio

Lerne, wie du die lokale FLUX.2 Klein 4B-Generierung mit API-basierter Bildbearbeitung, Multi-Referenz-Konditionierung und Sitzungsverlauf kombinieren kannst, um mit Gradio einen Bildeditor zu erstellen.
Aashi Dutt's photo

Aashi Dutt

3. Februar 2026

Claude Code mit Ollama Local Models nutzen

Führ GLM 4.7 Flash lokal (RTX 3090) mit Claude Code und Ollama in wenigen Minuten aus – keine Cloud, keine Bindung, nur pure Geschwindigkeit und Kontrolle.
Abid Ali Awan's photo

Abid Ali Awan

3. Februar 2026

Kimi K2.5 und Agent Swarm: Ein Leitfaden mit vier praktischen Beispielen

Lerne, was Moonshots Kimi K2.5 ist, wie Agent Swarm funktioniert, und schau dir das Ganze in vier praktischen Experimenten aus der echten Welt an.
Aashi Dutt's photo

Aashi Dutt

29. Januar 2026

Google MCP-Server-Tutorial: Agentische KI auf GCP einsetzen

Schau dir die Architektur der verwalteten MCP-Server von Google an und lerne, wie du LLMs zu proaktiven Operatoren für BigQuery, Maps, GCE und Kubernetes machen kannst.
Aryan Irani's photo

Aryan Irani

28. Januar 2026

Transformers v5 Tokenisierung: Leitfaden für Architektur und Migration

Aktualisiere auf Transformers v5. Ein praktischer Leitfaden zum einheitlichen Rust-Backend, zu API-Änderungen und zu parallelen Migrationsmustern für die Codierung und den Chat zwischen Version 4 und Version 5.
Aashi Dutt's photo

Aashi Dutt

27. Januar 2026

So fährst du GLM-4.7 lokal mit llama.cpp: Ein leistungsstarker Leitfaden

Einrichten von llama.cpp, um das GLM-4.7-Modell auf einer einzelnen NVIDIA H100 80 GB GPU laufen zu lassen, mit bis zu 20 Tokens pro Sekunde dank GPU-Offloading, Flash Attention, optimierter Kontextgröße, effizientem Batching und abgestimmtem CPU-Threading.
Abid Ali Awan's photo

Abid Ali Awan

26. Januar 2026

Wie man Sora AI benutzt: Ein Leitfaden mit 10 praktischen Beispielen

Lerne, wie du mit Sora AI Videos erstellen und bearbeiten kannst, zum Beispiel mit Remix, Loop, Re-Cut, Stilvorlagen und Storyboards.
François Aubry's photo

François Aubry

22. Januar 2026