Accéder au contenu principal
Catégorie
Thèmes

Tutoriels sur la science des données

Faites progresser votre carrière dans le domaine des données grâce à nos tutoriels sur la science des données. Nous vous guidons pas à pas à travers les fonctions et les modèles de science des données les plus complexes.
Autres thèmes :
GroupFormation de 2 personnes ou plus ?Essayer DataCamp for Business

Test de normalité : comment vérifier si vos données suivent une loi normale

Découvrez ce qu'est un test de normalité, pourquoi il compte, et comment utiliser les tests courants (Shapiro-Wilk, Kolmogorov-Smirnov) et des méthodes visuelles pour contrôler vos données + exemples en Python et R.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Test de Kruskal-Wallis : comparer plusieurs groupes sans normalité

Guide pratique du test de Kruskal-Wallis : définition, fonctionnement, cas d’usage face à l’ANOVA, exécution et interprétation sous Python et R.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Le kernel trick expliqué : comment les SVM apprennent des motifs non linéaires

Un guide conceptuel du kernel trick : ce que c’est, comment il permet aux SVM et à d’autres modèles à noyau de traiter le non-linéaire, et quand le préférer à d’autres approches.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Fonction objectif : définition, exemples et optimisation

Découvrez ce qu’est une fonction objectif, comment elle fonctionne en optimisation et en apprentissage automatique, et comment la définir et l’interpréter avec des exemples concrets.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Suites géométriques : formule, convergence et exemples

Un guide pratique des séries géométriques couvrant les formules de somme finie et infinie, les conditions de convergence et des applications concrètes en finance, physique et informatique.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Méthode de Newton : trouvez des racines rapidement par approximation itérative

La méthode de Newton est un algorithme itératif de recherche de racines qui exploite les tangentes pour se rapprocher de la solution d'équations sans forme fermée.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Fonction d’activation GELU : formule, intuition et usages en deep learning

GELU est une fonction d’activation lisse et probabiliste qui surpasse des alternatives plus simples comme ReLU dans les architectures profondes, et s’est imposée comme le choix par défaut dans les transformers comme BERT et GPT.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Séries de Maclaurin : formule, développement et exemples

Guide pratique des séries de Maclaurin : formule clé, développements usuels, règles de convergence et applications concrètes en calcul numérique, physique et machine learning.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Test de Mann-Whitney U : alternative non paramétrique au t-test

Le test de Mann-Whitney U est un test non paramétrique basé sur les rangs pour comparer deux groupes indépendants lorsque les données ne respectent pas l’hypothèse de normalité requise par le t-test.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Séries de Taylor : des approximations à l’optimisation

Découvrez comment les approximations polynomiales alimentent la descente de gradient, XGBoost et les fonctions que votre ordinateur calcule au quotidien.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Régression polynomiale : des droites aux courbes

Découvrez comment la régression polynomiale modélise les relations non linéaires et améliore la précision des prédictions sur des données réelles.
Dario Radečić's photo

Dario Radečić

4 mai 2026

Équations différentielles : des bases aux applications en ML

Une introduction pratique aux équations différentielles : types clés, classification, méthodes analytiques et numériques, et leur rôle concret dans la descente de gradient, la régression et la modélisation de séries temporelles.
Dario Radečić's photo

Dario Radečić

4 mai 2026