Accéder au contenu principal
Catégorie
Technologies

Tutoriels LLM

Tenez-vous au courant des dernières nouvelles, techniques et ressources concernant les grands modèles de langage. Nos tutoriels sont pleins d'exemples pratiques et de cas d'utilisation que vous pouvez utiliser pour vous perfectionner.
Autres technologies :
Agents d'intelligence artificielleAWSAzureBases de donnéesChatGPTdbtDockerExcelFeuilles de calculFlocon de neigeGitGoogle Cloud PlatformIA générativeIntelligence artificielleIntelligence économiqueJavaKafkaKubernetesMongoDBMySQLNoSQLOpenAIPostgreSQLPower BIPySparkPythonRSQLSQLiteTableauVisage étreint
GroupFormation de 2 personnes ou plus ?Essayer DataCamp for Business

Tutoriel Claude Cowork : comment utiliser l'agent IA de bureau d'Anthropic

Découvrez Claude Cowork et comment l'utiliser pour organiser vos fichiers, générer des documents et automatiser votre navigateur. Tutoriel pratique avec exemples concrets et limites.

Bex Tuychiev

17 avril 2026

Tutoriel LM Studio : démarrer avec des LLM locaux

Découvrez comment installer et exécuter des LLM en local avec LM Studio. Protégez vos données, discutez avec vos documents grâce au RAG intégré et mettez en place une API locale.
Srujana Maddula's photo

Srujana Maddula

15 avril 2026

Comment exécuter GLM 5.1 en local pour le codage agentique

Apprenez à exécuter GLM 5.1 en local sur un GPU H100 avec llama.cpp, à le tester, à utiliser la WebUI et à l’intégrer à Claude Code.
Abid Ali Awan's photo

Abid Ali Awan

10 avril 2026

Comment créer des plugins Claude Code : Guide étape par étape

Guide complet des plugins Claude Code. Découvrez comment installer des extensions, choisir entre les compétences et les MCP, et créer un enregistreur de session personnalisé à partir de zéro.
Bex Tuychiev's photo

Bex Tuychiev

9 février 2026

Exécutez Qwen3-Coder-Next localement : Vibe Code, un tableau de bord analytique

Veuillez exécuter Qwen3-Coder-Next localement sur une RTX 3090 avec llama.cpp, puis concevez un tableau de bord analytique complet en quelques minutes à l'aide de Qwen Code CLI.
Abid Ali Awan's photo

Abid Ali Awan

6 février 2026

Comment exécuter Kimi K2.5 localement

Découvrez comment exécuter un modèle open source de premier plan localement avec llama.cpp, le connecter à l'interface CLI Kimi et créer un jeu interactif en une seule fois à l'aide du codage vibe.
Abid Ali Awan's photo

Abid Ali Awan

5 février 2026

Tutoriel FLUX.2 Klein : Développement d'une application de génération et d'édition d'images avec Gradio

Découvrez comment associer la génération locale FLUX.2 Klein 4B à l'édition d'images basée sur l'API, au conditionnement multi-références et à l'historique des sessions pour créer un éditeur d'images avec Gradio.
Aashi Dutt's photo

Aashi Dutt

3 février 2026

Utilisation de Claude Code avec les modèles locaux Ollama

Exécutez GLM 4.7 Flash localement (RTX 3090) avec Claude Code et Ollama en quelques minutes, sans cloud, sans contrainte, avec une vitesse et un contrôle optimaux.
Abid Ali Awan's photo

Abid Ali Awan

3 février 2026

Kimi K2.5 et Agent Swarm : Un guide avec quatre exemples pratiques

Découvrez ce qu'est le Kimi K2.5 de Moonshot, comment fonctionne Agent Swarm, et observez-le en action à travers quatre expériences pratiques et concrètes.
Aashi Dutt's photo

Aashi Dutt

29 janvier 2026

Tutoriel sur les serveurs MCP Google : Déploiement de l'IA agentique sur GCP

Découvrez l'architecture des serveurs MCP gérés par Google et apprenez à transformer les modèles d'apprentissage automatique (LLM) en opérateurs proactifs pour BigQuery, Maps, GCE et Kubernetes.
Aryan Irani's photo

Aryan Irani

28 janvier 2026

Transformateurs v5 Tokenisation : Guide d'architecture et de migration

Veuillez procéder à la mise à niveau vers Transformers v5. Guide pratique sur le backend Rust unifié, les modifications apportées à l'API et les modèles de migration côte à côte v4 vs v5 pour l'encodage et le chat.
Aashi Dutt's photo

Aashi Dutt

27 janvier 2026

Comment exécuter GLM-4.7 localement avec llama.cpp : Un guide de haute performance

Configuration de llama.cpp pour exécuter le modèle GLM-4.7 sur un seul GPU NVIDIA H100 80 Go, permettant d'atteindre jusqu'à 20 jetons par seconde grâce au déchargement du GPU, à Flash Attention, à une taille de contexte optimisée, à un traitement par lots efficace et à un threading CPU ajusté.
Abid Ali Awan's photo

Abid Ali Awan

26 janvier 2026