Saltar al contenido principal

Función de masa de probabilidad: Guía de distribuciones discretas

Aprende cómo la función de masa de probabilidad define las distribuciones de probabilidad discretas. Explora sus propiedades, ejemplos y diferencias con las funciones de densidad de probabilidad.
Actualizado 20 jun 2025  · 8 min de lectura

En probabilidad y estadística, la probabilidad de un resultado para variables aleatorias discretas se cuantifica mediante la función de masa de probabilidad (FMP), mientras que para variables continuas, utilizamos la función de densidad de probabilidad (FDP).

Ya sea modelando lanzamientos de monedas, fallos de equipos o clics de los usuarios en una página web, el PMF nos ayuda a cuantificar la probabilidad de diferentes resultados.

Comprender la función de masa de probabilidad

La fórmula de la función de masa de probabilidad

Matemáticamente, la función de masa de probabilidad de una variable aleatoria discreta X se define como

Dónde:

  • X es una variable aleatoria discreta,
  • x es un valor que puede tomar X,
  • p(x) es la probabilidad de que X sea igual a x.

Para que un PMF sea válido deben cumplirse dos condiciones críticas:

1. No negatividad

2. La probabilidad total debe ser igual a uno

Estas condiciones garantizan que todas las probabilidades asignadas tengan sentido lógico y matemático. El PMF proporciona una descripción completa de la distribución de X, lo que permite calcular valores esperados, varianzas y otras medidas estadísticas.

Definición y propiedades clave

La PMF tiene varias propiedades definitorias que la distinguen:

  • Discreción: El PMF sólo se aplica a las variables aleatorias discretas, las que pueden tomar valores contables (como 0, 1, 2, ...).
  • Normalización: La suma de la PMF sobre todos los valores posibles de X debe ser exactamente 1.
  • Asignación de probabilidad individual: A cada posible valor x se le asigna una probabilidad específica p(x), que capta la probabilidad de ese resultado concreto.

Por ejemplo, el PMF para lanzar un dado justo de seis caras es:

Aquí, cada valor de 1 a 6 tiene la misma probabilidad de aparecer, y la suma de todas las probabilidades es 1.

Función de masa de probabilidad vs. Función de densidad de probabilidad

Comprendamos en detalle las diferencias entre las PMF y las PDF y cómo modelan lasdistribuciones discreta ycontinua, respectivamente:

Característica

PMF

PDF

Tipo de variable

Discreto

Continuo

Valor de salida

Probabilidad de resultado exacto:

Densidad de probabilidad:

Regla de suma

Ejemplo de PMF

Tomemos un ejemplo clásico de PMF: lanzar una moneda justa (ensayo de Bernoulli):

Vamos a realizar un ensayo de Bernoulli en Python para entenderlo mejor.

import matplotlib.pyplot as plt
from scipy.stats import bernoulli
# Parameters
p = 0.5  # Probability of Heads
# PMF for a fair coin
x = [0, 1]  # 0 = Tails, 1 = Heads
pmf_values = bernoulli.pmf(x, p)

# Plotting
plt.bar(x, pmf_values, tick_label=['Tails (0)', 'Heads (1)'])
plt.title('PMF of a Fair Coin Toss (Bernoulli Trial)')
plt.ylabel('Probability')
plt.xlabel('Outcome')
plt.grid(axis='y', linestyle='--')
plt.show()

Ejemplo PDF

He aquí un ejemplo en PDF: medir la altura de una persona (variable continua).

La PDF puede mostrar que la densidad de probabilidad es mayor alrededor de 170 cm, pero la probabilidad de cualquier altura exacta es técnicamente 0.

De nuevo, vamos a entenderlo con un ejemplo de código.

import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm

# Parameters
mu = 170   # mean height
sigma = 10  # standard deviation

# Continuous range of heights
x = np.linspace(130, 210, 500)

pdf_values = norm.pdf(x, mu, sigma)

# Plotting
plt.plot(x, pdf_values, label='PDF')
plt.title('PDF of Human Height (Normal Distribution)')
plt.xlabel('Height (cm)')
plt.ylabel('Probability Density')
plt.grid(True)
plt.axvline(mu, color='red', linestyle='--', label='Mean (170 cm)')
plt.legend()
plt.show()

Mientras que las PMF asignan probabilidades reales a resultados concretos, las PDF describen la probabilidad relativa de los resultados dentro de un intervalo.

Distribuciones discretas comunes mediante PMF

Ejemplos comunes de distribuciones discretas de probabilidad son las distribuciones Bernoulli, binomial, geométrica y de Poisson. Echemos un vistazo a cada uno de ellos.

PMF de la distribución Bernoulli

La distribución Bernoulli modela un único experimento con sólo dos resultados posibles: éxito (1) y fracaso (0).

Donde p es la probabilidad de éxito.

He aquí un ejemplo: Lanzar una moneda justa en la que el éxito = cara:

PMF de la distribución binomial

La distribución Binomial generaliza la Bernoulli a múltiples ensayos:

Dónde:

  • n es el número de ensayos independientes,
  • p es la probabilidad de éxito en cada ensayo,
  • x es el número de aciertos.

Un ejemplo sería contar los artículos defectuosos de un lote de productos.

PMF de la distribución Geométrica

La distribución Geométrica se utiliza para modelar el número de fallos antes del primer éxito en ensayos Bernoulli independientes repetidos:

Un ejemplo habitual sería el número de lanzamientos de una moneda hasta que aparezca la primera cara.

PMF de la distribución de Poisson

La distribución de Poisson modela el número de sucesos en un intervalo fijo de tiempo o espacio:

Donde λ es el número esperado de sucesos por intervalo.

Un ejemplo de ello es el número de llegadas de clientes a un centro de servicio por hora.

Visualización de las funciones de masa de probabilidad

Los PMF se visualizan mediante gráficos de barras, donde:

  • El eje x representa los posibles valores de la variable aleatoria.
  • El eje y representa la probabilidad asignada por el PMF.

He aquí una tabla que muestra un ejemplo: lanzar un dado justo

X

1

2

3

4

5

6

P(X)

1/6

1/6

1/6

1/6

1/6

1/6

Esta PMF uniforme aparecería como un gráfico de barras planas, en el que todos los resultados son igual de probables.

Estas visualizaciones facilitan las cosas:

  • Interpreta intuitivamente las distribuciones,
  • Compara probabilidades relativas,
  • Detecta distribuciones asimétricas o simétricas.

Aplicaciones de las funciones de masa de probabilidad

Los PMF se utilizan en varios ámbitos:

Estadísticas

Para calcular los valores esperados:

  

y desviaciones:

.

Aprendizaje automático

En los algoritmos de clasificación (por ejemplo, Naive Bayes), los PMF describen las probabilidades de las características categóricas. Los modelos probabilísticos, como los Modelos de Markov Ocultos, también dependen de los PMF para las transiciones de estado y las emisiones.

Ingeniería de fiabilidad

Los PMF ayudan a determinar la probabilidad de que un sistema o componente falle en un paso de tiempo concreto.

Economía y finanzas

Modelizar escenarios de mercado o resultados de inversión en los que el número de resultados es finito y distinto.

Inferencia bayesiana

Las PMF sirven como distribuciones a priori en los modelos bayesianos discretos. Cuando se observan nuevas pruebas, el PMF a priori se actualiza a un PMF a posteriori, lo que hace que la actualización bayesiana sea manejable para problemas discretos.

Si quieres aprender cómo funcionan las probabilidades condicionales,consulta nuestra página Probabilidad Condicional: Una mirada cercana tutorial.

Simulaciones Monte Carlo

Los PMF también son esenciales en las simulaciones de Montecarlo, especialmente para sistemas con resultados discretos y probabilísticos. Estas simulaciones utilizan el muestreo aleatorio de un PMF para estimar el comportamiento o rendimiento de un modelo a lo largo de muchas iteraciones.

Conclusión

La función de masa de probabilidad proporciona la estructura matemática para modelizar variables aleatorias discretas, a diferencia de las FDP, que tratan con variables continuas. Permiten un modelado potente en todos los ámbitos, desde lanzamientos básicos de monedas hasta complejos sistemas de machine learning.

Puntos clave:

  • Los PMF no son negativos y suman 1 en todos los valores posibles.
  • Definen la forma y las características de las distribuciones discretas de probabilidad.
  • Las PMF son esenciales en diversas aplicaciones, desde la estadística clásica hasta la IA y las finanzas modernas.
  • En la inferencia bayesiana y los métodos de Montecarlo, las PMF son fundamentales para actualizar las creencias y simular sistemas inciertos.

Para quienes profundicen en la teoría de la probabilidad, explorar las funciones de distribución acumulativa (FDA) y los cálculos del valor esperado enriquecerá aún más tu comprensión de cómo puede cuantificarse y aprovecharse la incertidumbre en la toma de decisiones. Explora nuestros cursos:


Vidhi Chugh's photo
Author
Vidhi Chugh
LinkedIn

Transformadora de Datos y Estratega de IA | Conferenciante Internacional | Ética de la IA | Inventora | Mujer Logradora Global | Autora

Preguntas frecuentes del PMF

¿Qué es una función de masa de probabilidad?

A La PMF asigna probabilidades a resultados discretos de una variable aleatoria, asegurándose de que todos los valores suman 1.

¿En qué se diferencia un PMF de un PDF?

Una PMF se aplica a variables discretas, mientras que una PDF se aplica a variables continuas.

¿Puede ser negativo un PMF?

No, una PMF debe ser siempre no negativa.

¿Cuáles son las distribuciones habituales que utilizan PMF?

Algunos ejemplos son las distribuciones Bernoulli, Binomial, Geométrica y Poisson.

¿Cómo se utiliza un PMF en aplicaciones reales?

Las PMF se utilizan mucho en machine learning, finanzas, ingeniería de fiabilidad y modelización estadística.

Temas

Aprende con DataCamp

Curso

Mixture Models in R

4 h
5K
Learn mixture models: a convenient and formal statistical framework for probabilistic clustering and classification.
Ver detallesRight Arrow
Comienza el curso
Ver másRight Arrow
Relacionado

Tutorial

Guía completa para calcular distribuciones de frecuencias en Excel

Sigue nuestra guía paso a paso para crear distribuciones de frecuencias en Excel utilizando la función FRECUENCIA() con sólo dos argumentos: matriz_datos y matriz_bins.
Arunn Thevapalan's photo

Arunn Thevapalan

11 min

Tutorial

Explicación de las funciones de pérdida en el machine learning

Explora el papel crucial de las funciones de pérdida en el machine learning con nuestra completa guía. Comprende la diferencia entre funciones de pérdida y de coste, profundiza en varios tipos como MSE y MAE, y aprende sus aplicaciones en tareas de ML.
Richmond Alake's photo

Richmond Alake

12 min

Tutorial

Prueba Chi-cuadrado en hojas de cálculo

En este tutorial, aprenderás a realizar la prueba chi-cuadrado en hojas de cálculo.
Avinash Navlani's photo

Avinash Navlani

10 min

Tutorial

Tutorial de cálculo de Power BI

Aprenda a utilizar la función CALCULAR de Power BI con ejemplos de uso.
Joleen Bothma's photo

Joleen Bothma

6 min

Tutorial

Matriz de correlaciones en Excel: Guía completa para crear e interpretar

Aprende el concepto estadístico de correlación, y sigue el cálculo e interpretación de correlaciones para un conjunto de datos de muestra, en un tutorial paso a paso.
Arunn Thevapalan's photo

Arunn Thevapalan

9 min

Tutorial

Tutorial sobre el uso de funciones en R

Descubra qué son las funciones R, los diferentes tipos de funciones en R y cómo crear sus propias funciones en R.
Javier Canales Luna's photo

Javier Canales Luna

11 min

Ver másVer más