Categoría
Temas
Tutoriales de Ciencia de Datos
Avanza en tu carrera con nuestros tutoriales de ciencia de datos. Te guiamos paso a paso a través de las funciones y modelos de la ciencia de datos más exigentes.
Otros temas:
¿Formar a 2 o más personas?Probar DataCamp for Business
Prueba de normalidad: cómo comprobar si tus datos siguen una distribución normal
Descubre qué es una prueba de normalidad, por qué importa y cómo usar pruebas como Shapiro-Wilk, Kolmogorov-Smirnov y métodos visuales para comprobar tus datos, con ejemplos en Python y R.
Dario Radečić
4 de mayo de 2026
Prueba de Kruskal-Wallis: cómo comparar varios grupos sin normalidad
Guía práctica de la prueba de Kruskal-Wallis: qué es, cómo funciona, cuándo usarla en lugar de ANOVA y cómo ejecutarla e interpretarla en Python y R.
Dario Radečić
4 de mayo de 2026
El truco del kernel explicado: cómo las SVM aprenden patrones no lineales
Guía conceptual del truco del kernel: qué es, cómo habilita SVM y otros modelos con kernel, y cuándo usarlo frente a otros enfoques para modelar no linealidades.
Dario Radečić
4 de mayo de 2026
Función objetivo: definición, ejemplos y optimización
Descubre qué es una función objetivo, cómo funciona en optimización y machine learning, y cómo definirla e interpretarla con ejemplos reales.
Dario Radečić
4 de mayo de 2026
Series de Maclaurin: fórmula, desarrollo y ejemplos
Guía práctica sobre series de Maclaurin que cubre la fórmula básica, los desarrollos más comunes, las reglas de convergencia y aplicaciones reales en métodos numéricos, física y machine learning.
Dario Radečić
4 de mayo de 2026
Series geométricas: fórmula, convergencia y ejemplos
Guía práctica de series geométricas que cubre las fórmulas de suma finita e infinita, las condiciones de convergencia y aplicaciones reales en finanzas, física e informática.
Dario Radečić
4 de mayo de 2026
Función de activación GELU: fórmula, intuición y uso en deep learning
GELU es una función de activación suave y probabilística que supera a alternativas más simples como ReLU en arquitecturas profundas, y se ha convertido en la opción por defecto en modelos transformer como BERT y GPT.
Dario Radečić
4 de mayo de 2026
Método de Newton: encuentra raíces rápido con aproximación iterativa
El método de Newton es un algoritmo iterativo para hallar raíces que usa aproximaciones por tangentes para acercarse a la solución de ecuaciones sin respuesta en forma cerrada.
Dario Radečić
4 de mayo de 2026
Prueba U de Mann-Whitney: alternativa no paramétrica a la t de Student
La U de Mann-Whitney es una prueba no paramétrica basada en rangos para comparar dos grupos independientes cuando los datos no cumplen la normalidad requerida por la t de Student.
Dario Radečić
4 de mayo de 2026
Series de Taylor: de las aproximaciones a la optimización
Descubre cómo las aproximaciones polinómicas impulsan el descenso por gradiente, XGBoost y las funciones que tu ordenador calcula a diario.
Dario Radečić
4 de mayo de 2026
Regresión polinómica: de líneas rectas a curvas
Explora cómo la regresión polinómica ayuda a modelar relaciones no lineales y a mejorar la precisión de predicción en datasets reales.
Dario Radečić
4 de mayo de 2026
El laplaciano explicado: del cálculo a ML
El operador laplaciano es una de las herramientas matemáticas más utilizadas en el machine learning moderno. Está detrás del clustering espectral, el aprendizaje de variedades, la detección de bordes en imágenes y los algoritmos basados en grafos.
Dario Radečić
4 de mayo de 2026