Distribución de Bernoulli: teoría, fórmulas, ejemplos y ejercicios

Última actualización: octubre 9, 2025
  • La Bernoulli modela un ensayo con dos resultados (éxito/fracaso) y parámetros p y q.
  • De Bernoulli repetida nace la Binomial (X~B(n,p)), con E[X]=np y Var(X)=np(1−p).
  • La Poisson (X~P(λ)) cuenta sucesos en intervalos; E[X]=Var(X)=λ y es aditiva en λ.
  • Cuando n es grande y p pequeño, B(n,p) ≈ P(λ=np), útil para cálculos rápidos.

Distribucion de Bernoulli

La distribución de Bernoulli es el ladrillo más pequeño de un buen número de modelos probabilísticos: de ella nacen la binomial, la geométrica o la binomial negativa. En pocas palabras, modela un experimento con dos salidas posibles, como “éxito” o “fracaso”, asignando 1 al éxito y 0 al fracaso. Es simple, pero tremendamente útil.

A partir de ensayos independientes de este tipo se construyen fenómenos más ricos: contar éxitos en n intentos (binomial), medir fallos hasta el primer éxito (geométrica) o hasta el x-ésimo éxito (binomial negativa). Y cuando el número de intentos es muy grande y la probabilidad de éxito pequeña, la binomial se aproxima con precisión a la distribución de Poisson, que reina en conteos por tiempo o espacio.

Qué es la distribución de Bernoulli

Un ensayo de Bernoulli es un experimento aleatorio con dos resultados excluyentes, que por convenio llamamos “éxito” (valor 1) y “fracaso” (valor 0). Si la probabilidad de éxito es p, entonces la de fracaso es q = 1 − p. La variable aleatoria X toma valores en {0, 1} y su notación habitual es X ~ B(1, p).

Función de probabilidad: P(X = 1) = p y P(X = 0) = 1 − p. De forma compacta se puede escribir como f(x) = p^x (1 − p)^(1 − x) para x ∈ {0, 1}. Esta manera de expresarlo condensa ambas probabilidades en una sola fórmula.

Momentos y función generatriz de momentos: la esperanza es E[X] = p, la varianza es Var(X) = p(1 − p) = pq y la función generatriz de momentos (FGM) es M_X(t) = E[e^{tX}] = p e^{t} + q. A partir de M’_X(0) = p se obtiene la media, y con M’’_X(0) − (M’_X(0))^2 se recupera la varianza.

Ejemplo rápido (moneda sesgada): si consideras cara como éxito con probabilidad p = 0,7 en un único lanzamiento, entonces P(X = 1) = 0,7 y P(X = 0) = 0,3; E[X] = 0,7 y Var(X) = 0,7×0,3.

De Bernoulli a Binomial

Repite el ensayo de Bernoulli n veces, de forma independiente, y define X como el número de éxitos en esos n intentos: X = X1 + X2 + … + Xn, donde cada Xi ~ B(1, p). En ese caso X sigue una distribución binomial X ~ B(n, p), con soporte {0, 1, 2, …, n}.

Función de masa de probabilidad (pmf): P(X = k) = C(n, k) p^k (1 − p)^{n − k}, para k = 0, 1, …, n. Aquí C(n, k) = n! / (k!(n − k)!) representa el número de formas de colocar k éxitos entre n ensayos.

Normalización: la suma de todas las probabilidades es 1 porque Σ_{k=0}^n C(n, k) p^k q^{n−k} = (p + q)^n = 1^n = 1. Este es un uso directo del binomio de Newton.

FGM de la binomial: M_X(t) = (p e^{t} + q)^n. Derivando, se obtiene la media E[X] = n p y la varianza Var(X) = n p (1 − p) = n p q. Además, si X1 ~ B(n1, p), X2 ~ B(n2, p), …, Xk ~ B(nk, p) son independientes, entonces la suma Σ Xi ~ B(Σ ni, p), es decir, la binomial es aditiva en n.

Distribucion binomial y Bernoulli

Ejemplo (10 lanzamientos con p = 0,7): sea X el número de “caras” en 10 lanzamientos de una moneda con P(cara)=0,7. Entonces X ~ B(10, 0,7). a) P(X ≤ 2) = Σ_{k=0}^{2} C(10, k) 0,7^k 0,3^{10 − k}. b) P(5 ≤ X ≤ 7) = Σ_{k=5}^{7} C(10, k) 0,7^k 0,3^{10 − k}. Es la aplicación directa de la pmf.

Ejemplo (ojos verdes en 4 hijos): si la probabilidad de que un hijo tenga ojos verdes es 1/4, y consideramos X = número de hijos con ojos verdes de una pareja con 4 descendientes, entonces X ~ B(4, 1/4). Por tanto, P(X = k) = C(4, k) (1/4)^k (3/4)^{4 − k}. De ahí se obtienen valores como P(X = 2), P(X = 0), P(X > 2) o P(1 ≤ X ≤ 2) y, por supuesto, E[X] = 4 × 1/4 = 1 y Var(X) = 4 × 1/4 × 3/4.

Ejemplo (contagios en 20 contactos con p = 0,1): si X es el número de infectados tras 20 contactos independientes con probabilidad de transmisión 0,1, entonces X ~ B(20, 0,1). Se espera E[X] = 20 × 0,1 = 2 contagios de media, y la varianza es 20 × 0,1 × 0,9.

Distribución de Poisson

La Poisson modela conteos de sucesos en un intervalo de tiempo o en una región, cuando los eventos ocurren a una tasa media λ constante e independientemente. Su soporte es {0, 1, 2, …} y se denota X ~ P(λ).

Función de masa de probabilidad: P(X = r) = e^{−λ} λ^r / r!, para r = 0, 1, 2, …. La función de distribución F(r) = P(X ≤ r) = Σ_{i=0}^r e^{−λ} λ^i / i! se usa frecuentemente en tablas o software.

FGM y momentos: M_X(t) = exp(λ (e^{t} − 1)), de donde E[X] = λ y Var(X) = λ. La coincidencia entre media y varianza es una seña de identidad de este modelo.

Propiedad aditiva: si X1 ~ P(λ1), X2 ~ P(λ2), …, Xk ~ P(λk) son independientes, la suma Σ Xi ~ P(Σ λi). Es decir, la familia Poisson es estable por suma de variables independientes.

Ejemplos típicos: llamadas por minuto en una central, defectos por unidad de longitud, bacterias por centímetro cúbico, coches que atraviesan un punto por minuto, mutaciones por unidad de radiación, o accesos a servidores por minuto.

Ejemplo (llegadas a una gasolinera con λ = 1,6): sea X el número de vehículos que llegan en un intervalo fijo, con X ~ P(1,6). a) P(X > 3) = 1 − P(X ≤ 3) = 1 − [P(0) + P(1) + P(2) + P(3)], con los valores P(r) = e^{−1,6} 1,6^r / r!. b) P(2 ≤ X ≤ 5) = P(2) + P(3) + P(4) + P(5). c) P(X ≥ 1) = 1 − P(0) = 1 − e^{−1,6}.

Aproximación de la binomial por una Poisson

Cuando n es grande y p es pequeño (manteniendo λ = n p constante), la binomial B(n, p) se aproxima muy bien por una Poisson P(λ). Esto se ve tomando el límite en la pmf binomial: C(n, k) p^k (1 − p)^{n − k} → e^{−λ} λ^k / k!.

Reglas prácticas de uso: el reemplazo es razonable si n ≥ 50 y p ≤ 0,1, o si n p < 5. En estos escenarios, la Poisson simplifica el cálculo de probabilidades con buena precisión.

Ejemplo (400 piezas con 2% defectos): si X es el número de defectuosas en 400 unidades con p = 0,02, entonces X ~ B(400, 0,02). Dado que n es grande y p pequeño, podemos usar X ≈ P(λ = 400 × 0,02 = 8). Así, P(X = 5) ≈ e^{−8} 8^5 / 5!.

Ejemplo (enfermedad muy rara): con p = 1/100.000 y n = 500.000, se tiene λ = n p = 5. El número de casos X se aproxima por P(5). De este modo, P(X > 3) = 1 − P(X ≤ 3) usando la distribución Poisson tabulada, y E[X] ≈ 5.

Más ejemplos y conexiones útiles

Relación con geométrica y binomial negativa: a partir de ensayos de Bernoulli independientes, la geométrica cuenta el número de fallos hasta el primer éxito y la binomial negativa, el número de fallos hasta el x-ésimo éxito. Todas comparten el mismo ladrillo Bernoulli.

Ejemplo (dado: éxito “sacar 3”): si definimos éxito como obtener un 3 al lanzar un dado una única vez, p = 1/6. Entonces X ~ B(1, 1/6) y su pmf cumple P(X = 1) = 1/6, P(X = 0) = 5/6; E[X] = 1/6 y Var(X) = (1/6)(5/6).

Ejemplo (genes y color de ojos): con probabilidad de ojos verdes 1/4 por hijo, para 4 descendientes X ~ B(4, 1/4). Se calculan probabilidades puntuales como P(X = 2) o P(X ≥ 3), así como intervalos P(1 ≤ X ≤ 2), y se verifican los momentos E[X] = 1 y Var(X) = 3/4.

Ejemplo (esperanza en binomial): si un portador contagia con probabilidad 0,1 a cada una de 20 personas, entonces se espera E[X] = 2 infectados, que coincide con n p, y la varianza es n p (1 − p) = 1,8.

Ejercicios propuestos

Practicar con problemas reales ayuda a fijar conceptos. A continuación tienes una selección variada con soluciones numéricas entre paréntesis para que puedas comprobar tus cálculos.

  1. Campaña de captación: 1 de cada 20 contactados se une. Si 25 personas reciben la llamada, calcula P(X ≥ 2) y E[X]. (Sol: a) 0,3576; b) 1,25).
  2. Muestreo de calidad: en lotes diarios se seleccionan 15 unidades con p = 0,05 defectuosa. La producción se detiene si hay 2 o más defectos. Halla la probabilidad de detener. (Sol: 0,1709).
  3. Aceptación de lote: se inspeccionan 100 CI y se acepta si hay ≤ 2 defectuosos; el lote real tiene 1% defectos. ¿Probabilidad de aceptación? (Sol: 0,9197).
  4. Tubos de comprimidos: tasa de defectos 1%. a) P(0 defectos en un tubo de 25). b) P(10 tubos consecutivos sin defectos). (Sol: a) 0,778; b) 0,0812).
  5. Seguros y siniestralidad laboral: 1 de cada 5000 fallece por accidente al año. Hay 50.000 pólizas y cada siniestro cuesta 6000 €. Probabilidad de pagar al menos 72.000 €. (Sol: 0,303).
  6. Pacientes por intervalo: llega de media λ = 1,8 enfermos cada 10 min (Poisson). Entre 12:00 y 12:10, calcula: a) P(0), b) P(1), c) P(2), d) P(≥ 2), e) P(> 2). (Sol: a) 0,1653; b) 0,2975; c) 0,2678; d) 0,5372; e) 0,2694).
  7. Roturas mensuales en TV: p = 0,02 mensual durante 60 meses. a) Distribución de X. b) E[X], Var(X). c) P(0). d) P(> 1). (Sol: a) C(60, r)(0,02)^r(0,98)^{60−r}; b) 1,2; 1,176; c) 0,301; d) 0,3376).
  8. Fiabilidad de calculadoras: probabilidad de seguir en servicio a 3 años: 0,8. Se venden 5 iguales. a) P(5 fuera de servicio), b) P(5 en servicio), c) P(≤ 2 fuera), d) P(3 fuera). (Sol: a) 3,2×10⁻⁴; b) 0,3277; c) 0,9421; d) 0,0512).
  9. Bacteriófagos y bacterias: 6×10⁶ virus y 3×10⁶ E. coli por mm³, con asignación aleatoria. Porcentaje de bacterias: a) no infectadas, b) infectadas, c) con ≥ 2 virus, d) exactamente 2. (Sol: a) 13,5%; b) 86,5%; c) 59,4%; d) 27,1%).
  10. Brotes de meningitis (mortalidad 60%): 16 lactantes ingresados. a) P(sobreviven > 8), b) P(sobreviven 16), c) P(mueren 16), d) P(6–10 sobreviven). (Sol: a) 0,142; b) 0,000000429; c) 0,0002821; d) 0,652).
  11. Incidencia de enfermedad: 25 por 100.000. a) En 60.000 hab., P(X ≤ 6). b) En 80.000 hab., b1) P(X ≤ 6), b2) P(X ≤ 10). (Sol: a) 0,007632; b1) 0,000255122; b2) 0,0108116).
  12. Captura de loros (Poisson λ = 5/día): a) P(no más de 4 en un día). b) P(ningún día de una semana supera 4). (Sol: a) 0,4405; b) 0,003218).
  13. Ensayo en ratas (toxicidad): 4 de cada 20 mueren por el fármaco; se tratan 10. a) P(al menos 8 vivas), b) P(|X − E[X]| ≤ 1). (Sol: a) 0,6778; b) 0,7717).
  14. Fármacos A/B/C: P(vender) A=1/6, B=1/3, C=1/2; P(curación) A=0,9, B=0,94, C=0,88. a) P(curar con “cualquiera”), b) P(B|curado). c) Riesgo contaminante: 1 de 5000, 50.000 expuestos, indemnización 3000 €. P(pagar ≥ 36.000 €). (Sol: a) 0,903; b) 0,3486; c) 0,3032).
  15. Bacterias tipo A y B: tipo A: λ=3/cc, aleatorio; a) modelo aplicable; b1) P(4 A en 1 cc), b2) P(≥ 2 A). En un punto se suma tipo B con λ=2/cc; c1) P(6 totales A o B), c2) P(≤ 3 totales). (Sol: b1) 0,1680; b2) 0,8008; c1) 0,1462; c2) 0,265).

Demostraciones y detalles técnicos (para quien quiera profundizar)

FGM de Bernoulli y derivadas: M_X(t) = p e^{t} + q. Entonces M’_X(t) = p e^{t}, de donde M’_X(0) = p. A su vez, M’’_X(t) = p e^{t}, y M’’_X(0) = p. Con m1 = p y m2 = p, la varianza resulta Var(X) = m2 − m1^2 = p − p^2 = p(1 − p).

FGM de la binomial: si X = Σ Xi con Xi i.i.d. Bernoulli(p), por independencia M_X(t) = Π M_Xi(t) = (p e^{t} + q)^n. Derivando, M’_X(t) = n (p e^{t} + q)^{n−1} p e^{t}, luego M’_X(0) = n p. Con la segunda derivada se obtiene m2 = n(n−1) p^2 + n p y se verifica Var(X) = n p (1 − p).

Límite binomial → Poisson: con p = λ/n, P(X = k) = C(n, k) (λ/n)^k (1 − λ/n)^{n − k} = (λ^k/k!) (1 − λ/n)^n × [n(n − 1)…(n − k + 1)/n^k] / (1 − λ/n)^k. Al hacer n → ∞, (1 − λ/n)^n → e^{−λ} y el cociente de productos → 1, quedando e^{−λ} λ^k/k!.

FGM de Poisson: M_X(t) = Σ e^{t r} e^{−λ} λ^r / r! = e^{−λ} exp(λ e^{t}) = exp(λ (e^{t} − 1)). Derivando: M’_X(0) = λ y M’’_X(0) = λ + λ^2; así, Var(X) = λ + λ^2 − λ^2 = λ.

Notas prácticas: en la binomial, el parámetro p debe permanecer constante a lo largo de los n ensayos, y los ensayos han de ser independientes. En Poisson, la “tasa” λ debe mantenerse estable en el intervalo y la ocurrencia de un evento no altera la probabilidad de los demás.

Más allá de fórmulas y tablas, todo esto se resuelve con soltura en cualquier software estadístico, pero entender los mecanismos teóricos te permitirá elegir el modelo correcto y justificar cada aproximación (por ejemplo, cuándo puedes pasar de B(n, p) a P(λ)).

Si tu objetivo es dominar modelos de conteo y de éxito/fracaso, la ruta lógica es: arrancar con Bernoulli, generalizar a Binomial, aprender a reconocer escenarios Poisson y practicar la aproximación Binomial→Poisson con criterios de validez. Con esa base, la geométrica y la binomial negativa encajan de forma natural y te darán un arsenal muy útil para analizar datos reales.