Weiter zum Inhalt
Kategorie
Technologien

KI-Tutorials

Bleib auf dem Laufenden über die neuesten Techniken, Werkzeuge und Forschungen im Bereich der künstlichen Intelligenz. Unsere KI-Tutorials führen dich durch anspruchsvolle Machine-Learning-Modelle.
Andere Technologien:
AWSAzureBusiness IntelligenceChatGPTDatabricksdbtDockerExcelGenerative KIGitGoogle Cloud PlatformGroße SprachmodelleJavaKafkaKI-AgentenKubernetesMongoDBMySQLNoSQLOpenAIPostgreSQLPower BIPySparkPythonR SnowflakeSQLSQLiteTabellenkalkulationenTableauUmarmendes Gesicht
GroupTraining für 2 oder mehr Personen?Probiere es mit DataCamp for Business

Ollama Python Library: Der Einstieg in lokale LLMs

Beherrsche das Ollama Python SDK für die lokale LLM-Entwicklung. Lerne Text zu generieren, mehrstufige Chats zu führen, Vision-Modelle zu nutzen und sichere KI-Apps zu bauen.

Austin Chia

17. April 2026

MiniMax M2.7 lokal für agentisches Coding ausführen

In diesem Guide mieten wir eine H200-GPU, installieren llama.cpp, laden MiniMax M2.7 GGUF herunter, führen es lokal aus, testen es in der WebUI und verbinden es mit OpenCode.
Abid Ali Awan's photo

Abid Ali Awan

17. April 2026

GLM 5.1 lokal für agentisches Coding ausführen: So geht’s

Lerne, wie du GLM 5.1 lokal auf einer H100-GPU mit llama.cpp betreibst, es testest, die WebUI nutzt und Claude Code integrierst.
Abid Ali Awan's photo

Abid Ali Awan

10. April 2026

OpenClaw mit Ollama nutzen: Einen lokalen Datenanalysten aufbauen

Lerne, wie du mit OpenClaw und Ollama einen komplett lokalen KI-Datenanalysten aufbaust, der mehrstufige Arbeitsabläufe koordiniert, Datensätze analysiert und visuelle Berichte erstellt, ohne deine Daten in die Cloud zu schicken.
Aashi Dutt's photo

Aashi Dutt

9. Februar 2026

Wie man Claude-Code-Plugins erstellt: Eine Schritt-für-Schritt-Anleitung

Ein kompletter Leitfaden zu den Claude Code-Plugins. Lerne, wie du Erweiterungen installierst, zwischen Skills und MCPs wählst und einen eigenen Sitzungsprotokollierer von Grund auf erstellst.
Bex Tuychiev's photo

Bex Tuychiev

9. Februar 2026

Qwen3-Coder-Next lokal ausführen: Vibe Code – ein Analytics-Dashboard

Starte Qwen3-Coder-Next lokal auf einer RTX 3090 mit llama.cpp und erstelle dann mit Qwen Code CLI in wenigen Minuten ein komplettes Analyse-Dashboard.
Abid Ali Awan's photo

Abid Ali Awan

6. Februar 2026

Wie man Kimi K2.5 lokal ausführt

Lerne, wie du ein Top-Open-Source-Modell lokal mit llama.cpp laufen lässt, es mit der Kimi-CLI verbindest und mit Vibe-Coding im Handumdrehen ein interaktives Spiel erstellst.
Abid Ali Awan's photo

Abid Ali Awan

5. Februar 2026

FLUX.2 Klein Tutorial: Entwickle eine App zum Erstellen und Bearbeiten von Bildern mit Gradio

Lerne, wie du die lokale FLUX.2 Klein 4B-Generierung mit API-basierter Bildbearbeitung, Multi-Referenz-Konditionierung und Sitzungsverlauf kombinieren kannst, um mit Gradio einen Bildeditor zu erstellen.
Aashi Dutt's photo

Aashi Dutt

3. Februar 2026

Grok Imagine API: Ein kompletter Python-Leitfaden mit Beispielen

Lerne, wie du mit der Grok Imagine API Videos erstellen kannst. Dieser Python-Leitfaden deckt alles ab, von Bildanimationen bis hin zur Videobearbeitung mit dem neuen xAI-Videomodell.
François Aubry's photo

François Aubry

3. Februar 2026

Claude Code mit Ollama Local Models nutzen

Führ GLM 4.7 Flash lokal (RTX 3090) mit Claude Code und Ollama in wenigen Minuten aus – keine Cloud, keine Bindung, nur pure Geschwindigkeit und Kontrolle.
Abid Ali Awan's photo

Abid Ali Awan

3. Februar 2026

Kimi K2.5 und Agent Swarm: Ein Leitfaden mit vier praktischen Beispielen

Lerne, was Moonshots Kimi K2.5 ist, wie Agent Swarm funktioniert, und schau dir das Ganze in vier praktischen Experimenten aus der echten Welt an.
Aashi Dutt's photo

Aashi Dutt

29. Januar 2026