Ir al contenido principal
Categoría
Temas

Tutoriales de Ciencia de Datos

Avanza en tu carrera con nuestros tutoriales de ciencia de datos. Te guiamos paso a paso a través de las funciones y modelos de la ciencia de datos más exigentes.
Otros temas:
Group¿Formar a 2 o más personas?Probar DataCamp for Business

Prueba de normalidad: cómo comprobar si tus datos siguen una distribución normal

Descubre qué es una prueba de normalidad, por qué importa y cómo usar pruebas como Shapiro-Wilk, Kolmogorov-Smirnov y métodos visuales para comprobar tus datos, con ejemplos en Python y R.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Prueba de Kruskal-Wallis: cómo comparar varios grupos sin normalidad

Guía práctica de la prueba de Kruskal-Wallis: qué es, cómo funciona, cuándo usarla en lugar de ANOVA y cómo ejecutarla e interpretarla en Python y R.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

El truco del kernel explicado: cómo las SVM aprenden patrones no lineales

Guía conceptual del truco del kernel: qué es, cómo habilita SVM y otros modelos con kernel, y cuándo usarlo frente a otros enfoques para modelar no linealidades.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Función objetivo: definición, ejemplos y optimización

Descubre qué es una función objetivo, cómo funciona en optimización y machine learning, y cómo definirla e interpretarla con ejemplos reales.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Series de Maclaurin: fórmula, desarrollo y ejemplos

Guía práctica sobre series de Maclaurin que cubre la fórmula básica, los desarrollos más comunes, las reglas de convergencia y aplicaciones reales en métodos numéricos, física y machine learning.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Series geométricas: fórmula, convergencia y ejemplos

Guía práctica de series geométricas que cubre las fórmulas de suma finita e infinita, las condiciones de convergencia y aplicaciones reales en finanzas, física e informática.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Función de activación GELU: fórmula, intuición y uso en deep learning

GELU es una función de activación suave y probabilística que supera a alternativas más simples como ReLU en arquitecturas profundas, y se ha convertido en la opción por defecto en modelos transformer como BERT y GPT.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Método de Newton: encuentra raíces rápido con aproximación iterativa

El método de Newton es un algoritmo iterativo para hallar raíces que usa aproximaciones por tangentes para acercarse a la solución de ecuaciones sin respuesta en forma cerrada.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Prueba U de Mann-Whitney: alternativa no paramétrica a la t de Student

La U de Mann-Whitney es una prueba no paramétrica basada en rangos para comparar dos grupos independientes cuando los datos no cumplen la normalidad requerida por la t de Student.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Series de Taylor: de las aproximaciones a la optimización

Descubre cómo las aproximaciones polinómicas impulsan el descenso por gradiente, XGBoost y las funciones que tu ordenador calcula a diario.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

Regresión polinómica: de líneas rectas a curvas

Explora cómo la regresión polinómica ayuda a modelar relaciones no lineales y a mejorar la precisión de predicción en datasets reales.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026

El laplaciano explicado: del cálculo a ML

El operador laplaciano es una de las herramientas matemáticas más utilizadas en el machine learning moderno. Está detrás del clustering espectral, el aprendizaje de variedades, la detección de bordes en imágenes y los algoritmos basados en grafos.
Dario Radečić's photo

Dario Radečić

4 de mayo de 2026