Kategorie
Themen
Data Science Tutorials
Bringe deine Datenkarriere mit unseren Data Science-Tutorials voran. Wir führen dich Schritt für Schritt durch anspruchsvolle Data Science-Funktionen und -Modelle.
Weitere Themen:
Training für 2 oder mehr Personen?Probiere es mit DataCamp for Business
Normalitätstest: So prüfst du, ob deine Daten normalverteilt sind
Erfahre, was ein Normalitätstest ist, warum er wichtig ist und wie du gängige Tests wie Shapiro-Wilk, Kolmogorov-Smirnov und visuelle Methoden anwendest – inklusive Beispielen in Python und R.
Dario Radečić
4. Mai 2026
Kruskal-Wallis-Test: Mehrere Gruppen ohne Normalverteilung vergleichen
Ein praktischer Leitfaden zum Kruskal-Wallis-Test – was er ist, wie er funktioniert, wann er ANOVA ersetzt und wie du ihn in Python und R durchführst und interpretierst.
Dario Radečić
4. Mai 2026
Der Kernel-Trick erklärt: Wie SVMs nichtlineare Muster lernen
Ein konzeptioneller Leitfaden zum Kernel-Trick – was er ist, wie er SVMs und andere Kernel-Modelle ermöglicht und wann du ihn nichtlinearen Alternativen vorziehen solltest.
Dario Radečić
4. Mai 2026
Zielfunktion einfach erklärt: Definition, Beispiele und Optimierung
Erfahre, was eine Zielfunktion ist, wie sie in Optimierung und Machine Learning wirkt und wie du sie mit realen Beispielen definierst und interpretierst.
Dario Radečić
4. Mai 2026
Geometrische Reihen: Formel, Konvergenz und Beispiele
Ein praxisnaher Leitfaden zu geometrischen Reihen: Formeln für endliche und unendliche Summen, Konvergenzbedingungen und Anwendungen in Finanzen, Physik und Informatik.
Dario Radečić
4. Mai 2026
GELU-Aktivierungsfunktion: Formel, Intuition und Einsatz im Deep Learning
GELU ist eine glatte, probabilistische Aktivierungsfunktion, die in tiefen Architekturen oft besser abschneidet als ReLU und zum Standard in Transformer-Modellen wie BERT und GPT geworden ist.
Dario Radečić
4. Mai 2026
Newtons Verfahren: Nullstellen schnell finden mit iterativer Annäherung
Newtons Verfahren ist ein iterativer Nullstellensucher, der Tangentenapproximationen nutzt, um die Lösung von Gleichungen ohne geschlossene Form zu erreichen.
Dario Radečić
4. Mai 2026
Mann-Whitney-U-Test: Nichtparametrische Alternative zum t-Test
Der Mann-Whitney-U-Test ist ein rangbasierter, nichtparametrischer Test zum Vergleich zweier unabhängiger Gruppen, wenn die Normalitätsannahme des t-Tests nicht gilt.
Dario Radečić
4. Mai 2026
Der Laplace-Operator erklärt: Von Analysis bis ML
Der Laplace-Operator gehört zu den meistgenutzten mathematischen Werkzeugen im modernen Machine Learning. Er steckt hinter spektralem Clustering, Manifold Learning, Kantendetektion in Bildern und graphbasierten Algorithmen.
Dario Radečić
4. Mai 2026
Taylor-Reihen: Von Approximationen zur Optimierung
Finde heraus, wie Polynomapproximationen den Gradientenabstieg, XGBoost und die Funktionen antreiben, die dein Computer täglich berechnet.
Dario Radečić
4. Mai 2026
Polynomregression: Von Geraden zu Kurven
Entdecke, wie Polynomregression nichtlineare Beziehungen modelliert und die Vorhersagegenauigkeit in realen Datensätzen verbessert.
Dario Radečić
4. Mai 2026
Differentialgleichungen: Von den Grundlagen bis zu ML-Anwendungen
Ein praxisnaher Einstieg in Differentialgleichungen: Typen, Klassifikation, analytische und numerische Lösungsverfahren sowie ihre Rolle in Gradientenabstieg, Regression und Zeitreihenmodellierung.
Dario Radečić
4. Mai 2026