Catégorie
Technologies
LLM Tutorials
Keep up to date with the latest news, techniques, and resources for Large Language Models. Our tutorials are full of practical walk throughs & use cases you can use to upskill.
Other technologies:
Formation de 2 personnes ou plus ?Essayer DataCamp for Business
Exécutez Qwen3-Coder-Next localement : Vibe Code, un tableau de bord analytique
Veuillez exécuter Qwen3-Coder-Next localement sur une RTX 3090 avec llama.cpp, puis concevez un tableau de bord analytique complet en quelques minutes à l'aide de Qwen Code CLI.
Abid Ali Awan
6 février 2026
Comment exécuter Kimi K2.5 localement
Découvrez comment exécuter un modèle open source de premier plan localement avec llama.cpp, le connecter à l'interface CLI Kimi et créer un jeu interactif en une seule fois à l'aide du codage vibe.
Abid Ali Awan
5 février 2026
Tutoriel FLUX.2 Klein : Développement d'une application de génération et d'édition d'images avec Gradio
Découvrez comment associer la génération locale FLUX.2 Klein 4B à l'édition d'images basée sur l'API, au conditionnement multi-références et à l'historique des sessions pour créer un éditeur d'images avec Gradio.
Aashi Dutt
3 février 2026
Utilisation de Claude Code avec les modèles locaux Ollama
Exécutez GLM 4.7 Flash localement (RTX 3090) avec Claude Code et Ollama en quelques minutes, sans cloud, sans contrainte, avec une vitesse et un contrôle optimaux.
Abid Ali Awan
3 février 2026
Kimi K2.5 et Agent Swarm : Un guide avec quatre exemples pratiques
Découvrez ce qu'est le Kimi K2.5 de Moonshot, comment fonctionne Agent Swarm, et observez-le en action à travers quatre expériences pratiques et concrètes.
Aashi Dutt
29 janvier 2026
Tutoriel sur les serveurs MCP Google : Déploiement de l'IA agentique sur GCP
Découvrez l'architecture des serveurs MCP gérés par Google et apprenez à transformer les modèles d'apprentissage automatique (LLM) en opérateurs proactifs pour BigQuery, Maps, GCE et Kubernetes.
Aryan Irani
28 janvier 2026
Transformateurs v5 Tokenisation : Guide d'architecture et de migration
Veuillez procéder à la mise à niveau vers Transformers v5. Guide pratique sur le backend Rust unifié, les modifications apportées à l'API et les modèles de migration côte à côte v4 vs v5 pour l'encodage et le chat.
Aashi Dutt
27 janvier 2026
Comment exécuter GLM-4.7 localement avec llama.cpp : Un guide de haute performance
Configuration de llama.cpp pour exécuter le modèle GLM-4.7 sur un seul GPU NVIDIA H100 80 Go, permettant d'atteindre jusqu'à 20 jetons par seconde grâce au déchargement du GPU, à Flash Attention, à une taille de contexte optimisée, à un traitement par lots efficace et à un threading CPU ajusté.
Abid Ali Awan
26 janvier 2026
Comment utiliser Sora AI : Un guide avec 10 exemples pratiques
Découvrez comment utiliser Sora AI pour créer et modifier des vidéos, notamment à l'aide des fonctionnalités de remix, de boucle, de recoupage, de préréglages de style et de storyboards.
François Aubry
22 janvier 2026
Comment utiliser GLM 4.7 Flash localement
Découvrez comment exécuter GLM-4.7-Flash sur une RTX 3090 pour une inférence locale rapide et l'intégrer à OpenCode afin de créer un agent de codage IA entièrement local et automatisé.
Abid Ali Awan
22 janvier 2026
Comment ajuster FunctionGemma : Guide étape par étape
Découvrez comment optimiser FunctionGemma en moins de 10 minutes à l'aide des GPU gratuits de Kaggle, depuis la préparation des ensembles de données et l'évaluation de référence jusqu'à la formation et la validation post-optimisation.
Abid Ali Awan
21 janvier 2026
Claude Code : Un guide avec des exemples pratiques
Découvrez comment utiliser Claude Code d'Anthropic pour améliorer les workflows de développement logiciel à travers un exemple pratique utilisant la bibliothèque Python Supabase.
Aashi Dutt
20 janvier 2026