Catégorie
Technologies
Tutoriels LLM
Tenez-vous au courant des dernières nouvelles, techniques et ressources concernant les grands modèles de langage. Nos tutoriels sont pleins d'exemples pratiques et de cas d'utilisation que vous pouvez utiliser pour vous perfectionner.
Autres technologies :
Formation de 2 personnes ou plus ?Essayer DataCamp for Business
Tutoriel Claude Cowork : comment utiliser l'agent IA de bureau d'Anthropic
Découvrez Claude Cowork et comment l'utiliser pour organiser vos fichiers, générer des documents et automatiser votre navigateur. Tutoriel pratique avec exemples concrets et limites.
Bex Tuychiev
17 avril 2026
Tutoriel LM Studio : démarrer avec des LLM locaux
Découvrez comment installer et exécuter des LLM en local avec LM Studio. Protégez vos données, discutez avec vos documents grâce au RAG intégré et mettez en place une API locale.
Srujana Maddula
15 avril 2026
Comment exécuter GLM 5.1 en local pour le codage agentique
Apprenez à exécuter GLM 5.1 en local sur un GPU H100 avec llama.cpp, à le tester, à utiliser la WebUI et à l’intégrer à Claude Code.
Abid Ali Awan
10 avril 2026
Comment créer des plugins Claude Code : Guide étape par étape
Guide complet des plugins Claude Code. Découvrez comment installer des extensions, choisir entre les compétences et les MCP, et créer un enregistreur de session personnalisé à partir de zéro.
Bex Tuychiev
9 février 2026
Exécutez Qwen3-Coder-Next localement : Vibe Code, un tableau de bord analytique
Veuillez exécuter Qwen3-Coder-Next localement sur une RTX 3090 avec llama.cpp, puis concevez un tableau de bord analytique complet en quelques minutes à l'aide de Qwen Code CLI.
Abid Ali Awan
6 février 2026
Comment exécuter Kimi K2.5 localement
Découvrez comment exécuter un modèle open source de premier plan localement avec llama.cpp, le connecter à l'interface CLI Kimi et créer un jeu interactif en une seule fois à l'aide du codage vibe.
Abid Ali Awan
5 février 2026
Tutoriel FLUX.2 Klein : Développement d'une application de génération et d'édition d'images avec Gradio
Découvrez comment associer la génération locale FLUX.2 Klein 4B à l'édition d'images basée sur l'API, au conditionnement multi-références et à l'historique des sessions pour créer un éditeur d'images avec Gradio.
Aashi Dutt
3 février 2026
Utilisation de Claude Code avec les modèles locaux Ollama
Exécutez GLM 4.7 Flash localement (RTX 3090) avec Claude Code et Ollama en quelques minutes, sans cloud, sans contrainte, avec une vitesse et un contrôle optimaux.
Abid Ali Awan
3 février 2026
Kimi K2.5 et Agent Swarm : Un guide avec quatre exemples pratiques
Découvrez ce qu'est le Kimi K2.5 de Moonshot, comment fonctionne Agent Swarm, et observez-le en action à travers quatre expériences pratiques et concrètes.
Aashi Dutt
29 janvier 2026
Tutoriel sur les serveurs MCP Google : Déploiement de l'IA agentique sur GCP
Découvrez l'architecture des serveurs MCP gérés par Google et apprenez à transformer les modèles d'apprentissage automatique (LLM) en opérateurs proactifs pour BigQuery, Maps, GCE et Kubernetes.
Aryan Irani
28 janvier 2026
Transformateurs v5 Tokenisation : Guide d'architecture et de migration
Veuillez procéder à la mise à niveau vers Transformers v5. Guide pratique sur le backend Rust unifié, les modifications apportées à l'API et les modèles de migration côte à côte v4 vs v5 pour l'encodage et le chat.
Aashi Dutt
27 janvier 2026
Comment exécuter GLM-4.7 localement avec llama.cpp : Un guide de haute performance
Configuration de llama.cpp pour exécuter le modèle GLM-4.7 sur un seul GPU NVIDIA H100 80 Go, permettant d'atteindre jusqu'à 20 jetons par seconde grâce au déchargement du GPU, à Flash Attention, à une taille de contexte optimisée, à un traitement par lots efficace et à un threading CPU ajusté.
Abid Ali Awan
26 janvier 2026