Catégorie
Technologies
AI Tutorials
Keep up to date with the latest techniques, tools, and research in artificial intelligence. Out AI tutorials will walk you though challenging machine learning models.
Other technologies:
Formation de 2 personnes ou plus ?Essayer DataCamp for Business
En vedette
Cursor AI: A Guide With 10 Practical Examples
Learn how to install Cursor AI on Windows, macOS, and Linux, and discover how to use it through 10 different use cases.
François Aubry
17 octobre 2025
Fine-Tuning Llama 4: A Guide With Demo Project
Learn how to fine-tune the Llama 4 Scout Instruct model on a medical reasoning dataset using RunPod GPUs.
Abid Ali Awan
10 avril 2025
How to Set Up and Run Qwen 3 Locally With Ollama
Learn how to install, set up, and run Qwen3 locally with Ollama and build a simple Gradio-based application.
Aashi Dutt
30 avril 2025
Tous les articles
Exécutez Qwen3-Coder-Next localement : Vibe Code, un tableau de bord analytique
Veuillez exécuter Qwen3-Coder-Next localement sur une RTX 3090 avec llama.cpp, puis concevez un tableau de bord analytique complet en quelques minutes à l'aide de Qwen Code CLI.
Abid Ali Awan
6 février 2026
Comment exécuter Kimi K2.5 localement
Découvrez comment exécuter un modèle open source de premier plan localement avec llama.cpp, le connecter à l'interface CLI Kimi et créer un jeu interactif en une seule fois à l'aide du codage vibe.
Abid Ali Awan
5 février 2026
Tutoriel FLUX.2 Klein : Développement d'une application de génération et d'édition d'images avec Gradio
Découvrez comment associer la génération locale FLUX.2 Klein 4B à l'édition d'images basée sur l'API, au conditionnement multi-références et à l'historique des sessions pour créer un éditeur d'images avec Gradio.
Aashi Dutt
3 février 2026
API Grok Imagine : Guide Python complet avec exemples
Découvrez comment générer des vidéos à l'aide de l'API Grok Imagine. Ce guide Python couvre tous les aspects, des animations d'images au montage vidéo avec le nouveau modèle vidéo xAI.
François Aubry
3 février 2026
Utilisation de Claude Code avec les modèles locaux Ollama
Exécutez GLM 4.7 Flash localement (RTX 3090) avec Claude Code et Ollama en quelques minutes, sans cloud, sans contrainte, avec une vitesse et un contrôle optimaux.
Abid Ali Awan
3 février 2026
Kimi K2.5 et Agent Swarm : Un guide avec quatre exemples pratiques
Découvrez ce qu'est le Kimi K2.5 de Moonshot, comment fonctionne Agent Swarm, et observez-le en action à travers quatre expériences pratiques et concrètes.
Aashi Dutt
29 janvier 2026
Claude dans Excel : Assistant Excel IA d'Anthropic
Guide convivial pour débutants sur l'utilisation de Claude dans Excel. Vous découvrirez ses fonctionnalités, les domaines dans lesquels il est le plus utile et comment l'utiliser en toute sécurité dans des feuilles de calcul réelles sans causer de problèmes.
Laiba Siddiqui
28 janvier 2026
Transformateurs v5 Tokenisation : Guide d'architecture et de migration
Veuillez procéder à la mise à niveau vers Transformers v5. Guide pratique sur le backend Rust unifié, les modifications apportées à l'API et les modèles de migration côte à côte v4 vs v5 pour l'encodage et le chat.
Aashi Dutt
27 janvier 2026
Comment exécuter GLM-4.7 localement avec llama.cpp : Un guide de haute performance
Configuration de llama.cpp pour exécuter le modèle GLM-4.7 sur un seul GPU NVIDIA H100 80 Go, permettant d'atteindre jusqu'à 20 jetons par seconde grâce au déchargement du GPU, à Flash Attention, à une taille de contexte optimisée, à un traitement par lots efficace et à un threading CPU ajusté.
Abid Ali Awan
26 janvier 2026
Comment utiliser Sora AI : Un guide avec 10 exemples pratiques
Découvrez comment utiliser Sora AI pour créer et modifier des vidéos, notamment à l'aide des fonctionnalités de remix, de boucle, de recoupage, de préréglages de style et de storyboards.
François Aubry
22 janvier 2026
Gemini CLI : Un guide avec des exemples pratiques
Découvrez comment installer et utiliser l'interface CLI Google Gemini afin de rationaliser votre flux de travail de codage et de corriger plus rapidement les erreurs grâce à l'intelligence artificielle.
Aashi Dutt
22 janvier 2026
Comment utiliser GLM 4.7 Flash localement
Découvrez comment exécuter GLM-4.7-Flash sur une RTX 3090 pour une inférence locale rapide et l'intégrer à OpenCode afin de créer un agent de codage IA entièrement local et automatisé.
Abid Ali Awan
22 janvier 2026