Catégorie
Thèmes
Tutoriels sur la science des données
Faites progresser votre carrière dans le domaine des données grâce à nos tutoriels sur la science des données. Nous vous guidons pas à pas à travers les fonctions et les modèles de science des données les plus complexes.
Autres thèmes :
Formation de 2 personnes ou plus ?Essayer DataCamp for Business
Test de normalité : comment vérifier si vos données suivent une loi normale
Découvrez ce qu'est un test de normalité, pourquoi il compte, et comment utiliser les tests courants (Shapiro-Wilk, Kolmogorov-Smirnov) et des méthodes visuelles pour contrôler vos données + exemples en Python et R.
Dario Radečić
4 mai 2026
Test de Kruskal-Wallis : comparer plusieurs groupes sans normalité
Guide pratique du test de Kruskal-Wallis : définition, fonctionnement, cas d’usage face à l’ANOVA, exécution et interprétation sous Python et R.
Dario Radečić
4 mai 2026
Le kernel trick expliqué : comment les SVM apprennent des motifs non linéaires
Un guide conceptuel du kernel trick : ce que c’est, comment il permet aux SVM et à d’autres modèles à noyau de traiter le non-linéaire, et quand le préférer à d’autres approches.
Dario Radečić
4 mai 2026
Fonction objectif : définition, exemples et optimisation
Découvrez ce qu’est une fonction objectif, comment elle fonctionne en optimisation et en apprentissage automatique, et comment la définir et l’interpréter avec des exemples concrets.
Dario Radečić
4 mai 2026
Suites géométriques : formule, convergence et exemples
Un guide pratique des séries géométriques couvrant les formules de somme finie et infinie, les conditions de convergence et des applications concrètes en finance, physique et informatique.
Dario Radečić
4 mai 2026
Méthode de Newton : trouvez des racines rapidement par approximation itérative
La méthode de Newton est un algorithme itératif de recherche de racines qui exploite les tangentes pour se rapprocher de la solution d'équations sans forme fermée.
Dario Radečić
4 mai 2026
Fonction d’activation GELU : formule, intuition et usages en deep learning
GELU est une fonction d’activation lisse et probabiliste qui surpasse des alternatives plus simples comme ReLU dans les architectures profondes, et s’est imposée comme le choix par défaut dans les transformers comme BERT et GPT.
Dario Radečić
4 mai 2026
Séries de Maclaurin : formule, développement et exemples
Guide pratique des séries de Maclaurin : formule clé, développements usuels, règles de convergence et applications concrètes en calcul numérique, physique et machine learning.
Dario Radečić
4 mai 2026
Test de Mann-Whitney U : alternative non paramétrique au t-test
Le test de Mann-Whitney U est un test non paramétrique basé sur les rangs pour comparer deux groupes indépendants lorsque les données ne respectent pas l’hypothèse de normalité requise par le t-test.
Dario Radečić
4 mai 2026
Séries de Taylor : des approximations à l’optimisation
Découvrez comment les approximations polynomiales alimentent la descente de gradient, XGBoost et les fonctions que votre ordinateur calcule au quotidien.
Dario Radečić
4 mai 2026
Régression polynomiale : des droites aux courbes
Découvrez comment la régression polynomiale modélise les relations non linéaires et améliore la précision des prédictions sur des données réelles.
Dario Radečić
4 mai 2026
Équations différentielles : des bases aux applications en ML
Une introduction pratique aux équations différentielles : types clés, classification, méthodes analytiques et numériques, et leur rôle concret dans la descente de gradient, la régression et la modélisation de séries temporelles.
Dario Radečić
4 mai 2026