Catégorie
Topics
Machine Learning Tutorial
Get insights & best practices into AI & machine learning, upskill, and build data cultures. Learn how to get the most out of machine learning models with our tutorials.
Other topics:
Formation de 2 personnes ou plus ?Essayer DataCamp for Business
En vedette
K-Nearest Neighbors (KNN) Classification with scikit-learn
This article covers how and when to use k-nearest neighbors classification with scikit-learn. Focusing on concepts, workflow, and examples. We also cover distance metrics and how to select the best value for k using cross-validation.
Adam Shafi
20 février 2023
Decision Tree Classification in Python Tutorial
In this tutorial, learn Decision Tree Classification, attribute selection measures, and how to build and optimize Decision Tree Classifier using Python Scikit-learn package.
Avinash Navlani
16 janvier 2026
A Complete Guide to Data Augmentation
Learn about data augmentation techniques, applications, and tools with a TensorFlow and Keras tutorial.
Abid Ali Awan
9 décembre 2024
Tous les articles
Comment normaliser les données : Un guide complet avec des exemples
Évitez les gradients qui disparaissent et les modèles biaisés. Découvrez comment normaliser les données à l'aide des valeurs min-max et z-score dans Scikit-learn afin d'améliorer les modèles d'apprentissage automatique.
Josep Ferrer
29 janvier 2026
Guide de l'algorithme de regroupement DBSCAN
Apprenez à mettre en œuvre DBSCAN, comprenez ses paramètres clés et découvrez quand exploiter ses atouts uniques dans vos projets de science des données.
Rajesh Kumar
22 janvier 2026
Classification par arbre de décision dans le tutoriel Python
Dans ce tutoriel, vous apprendrez la classification par arbre de décision, les mesures de sélection d'attributs et comment créer et optimiser un classificateur par arbre de décision à l'aide du package Python Scikit-learn.
Avinash Navlani
15 janvier 2026
Précision et rappel : Le guide essentiel du machine learning
La précision n'est pas suffisante. Apprenez la différence entre la précision et le rappel, comprenez le compromis et choisissez la métrique appropriée pour votre modèle.
Mark Pedigo
14 janvier 2026
Fonctions de coût : Un guide complet
Découvrez ce que sont les fonctions de coût, ainsi que la manière et le moment de les utiliser. Comprend des exemples pratiques.
Mark Pedigo
22 décembre 2025
ONNX : Entraînez-vous dans n'importe quel cadre, déployez sur n'importe quel matériel
Découvrez comment convertir des modèles au format ONNX, les optimiser grâce à la quantification et les déployer sur n'importe quelle plateforme, des appareils périphériques aux serveurs cloud, sans dépendre d'un fournisseur particulier.
Dario Radečić
12 novembre 2025
Score F1 dans l'apprentissage automatique : Une mesure équilibrée de la précision et du rappel
Comprenez comment le score F1 évalue les performances d'un modèle en combinant précision et rappel. Découvrez son utilisation dans la classification binaire et multiclasses, avec des exemples en Python.
Vidhi Chugh
12 novembre 2025
Comprendre l'UMAP : Guide complet sur la réduction de dimensionnalité
Découvrez comment UMAP simplifie la visualisation des données à haute dimension grâce à des explications détaillées, des cas d'utilisation pratiques et des comparaisons avec d'autres méthodes de réduction de dimensionnalité, notamment t-SNE et PCA.
Arunn Thevapalan
4 novembre 2025
Fonction Tanh : Pourquoi les sorties centrées sur zéro sont importantes pour les réseaux neuronaux
Ce guide explique l'intuition mathématique derrière la fonction tanh, la compare aux fonctions sigmoïde et ReLU, présente ses avantages et ses inconvénients, et explique comment l'implémenter efficacement dans l'apprentissage profond.
Dario Radečić
3 novembre 2025
Softplus : La fonction d'activation en douceur qu'il est important de connaître
Ce guide explique les propriétés mathématiques de Softplus, ses avantages et ses inconvénients, sa mise en œuvre dans PyTorch, et quand il convient de passer de ReLU à Softplus.
Dario Radečić
29 octobre 2025
Explication des réseaux neuronaux à action directe : Un guide complet
Les réseaux neuronaux à propagation directe (FFNN) constituent la base de l'apprentissage profond, utilisé dans la reconnaissance d'images, les transformateurs et les systèmes de recommandation. Ce tutoriel complet sur les réseaux neuronaux feedforward (FFNN) explique leur architecture, leurs différences par rapport aux réseaux neuronaux multi-couches (MLP), les activations, la rétropropagation, des exemples concrets et leur implémentation dans PyTorch.
Vaibhav Mehra
17 septembre 2025
Explication de la divergence KL : Intuition, formule et exemples
Découvrez la divergence KL, l'un des outils les plus courants et les plus essentiels utilisés dans l'apprentissage automatique.
Vaibhav Mehra
28 juillet 2025