- Bernoulli: un solo ensayo con dos resultados; Binomial: n ensayos independientes con p constante.
- PMF binomial: P(X=k)=C(n,k)·p^k·(1−p)^{n−k}; media n·p y varianza n·p·(1−p).
- Aplica complementarias para «al menos» y «como mucho»; usa R (dbinom, pbinom, qbinom, rbinom) para cálculos ágiles.
Si te lías entre Bernoulli y binomial, tranquilo: son dos caras de una misma moneda, pero no son lo mismo. En Bernoulli observas un único intento con dos posibles desenlaces; en la binomial repites ese intento muchas veces y cuentas cuántos éxitos aparecen. En este artículo, con lenguaje claro y ejemplos de la vida real, vas a ver cuándo usar cada una y cómo calcular probabilidades sin perderte en el camino. La idea clave: un ensayo de Bernoulli es la base de la binomial cuando lo repetimos n veces.
Te guiaré desde los conceptos esenciales hasta los cálculos con fórmulas, añadiendo ejercicios paso a paso y, si te gusta programar, una pincelada de cómo hacerlo con R. Verás que, con unas cuantas reglas sencillas, todo encaja: condiciones, notación, función de probabilidad y sus parámetros más importantes. Al terminar, sabrás reconocer un experimento Bernoulli y modelar sus repeticiones con una binomial B(n, p).
Qué es un experimento de Bernoulli
Un experimento de Bernoulli es aquel que, al realizarlo una sola vez, solo puede terminar en dos resultados excluyentes, a los que llamamos éxito y no éxito (o fracaso). Es muy útil pensar en «éxito» como el suceso que quieres medir: por ejemplo, que salga cara, que el próximo coche sea rojo o que una pieza resulte defectuosa. p y q = 1 − p representan, respectivamente, la probabilidad de éxito y de fracaso.
Para que un experimento se modele con Bernoulli deben cumplirse tres condiciones fundamentales: dos resultados posibles, independencia y probabilidad constante. Esto implica que cada ejecución no afecta a la siguiente y que la probabilidad de éxito no cambia por lo ocurrido antes.
- Dos resultados excluyentes: en cada intento solo puede pasar una cosa u otra, por ejemplo «rojo» o «no rojo».
- Ensayos independientes: el resultado de un intento no altera el del siguiente.
- Probabilidad invariable: p se mantiene fija de un ensayo a otro.
En Bernoulli la variable aleatoria suele codificarse como X ∈ {0, 1}, donde X = 1 representa «éxito» y X = 0 «no éxito». Elegir qué llamamos éxito depende de la pregunta: si quieres «cara», éxito es cara; si quieres «cruz», entonces cruz será el éxito. “éxito” no significa “bueno”, significa “lo que quiero medir”.
Un ejemplo muy ilustrativo es el del próximo coche que pase por una calle de un solo carril. Planteas el experimento así: observas únicamente el siguiente coche que aparezca y declaras éxito si es rojo. Se cumplen las tres condiciones: el siguiente coche será rojo o no (dos resultados), su color es independiente del anterior, y mientras el flujo de coches no tenga sesgos extraños, la probabilidad del color es estable. acaba tras un único coche.
Distribución binomial: definición, notación y propiedades
Cuando el mismo ensayo de Bernoulli se repite un número fijo de veces n, y sigues contando cuántos éxitos aparecen, la variable «número de éxitos» se distribuye binomial. La notación habitual es B(n, p), donde n es el número de intentos y p la probabilidad de éxito en cada uno. La binomial “suma” n ensayos Bernoulli idénticos e independientes.
Para que un proceso se modele con B(n, p) deben cumplirse tres requisitos: n fijo, independencia entre ensayos y probabilidad p constante. Si alguno falla (por ejemplo, si p cambia notablemente entre intentos), el modelo deja de ser adecuado y habría que considerar alternativas.
La función de probabilidad (pmf) de la binomial es:
P(X = k) = C(n, k) · pk · qn − k,
con q = 1 − p y C(n, k) = n! / (k! (n − k)!). Esta fórmula recoge dos ideas: el número de maneras de elegir qué k ensayos son éxitos (el combinatorio) y la probabilidad de cada secuencia concreta (pk qn−k). C(n, k) cuenta “cuántos itinerarios” que dan exactamente k éxitos.
Parámetros principales de B(n, p): media μ = n·p, varianza σ² = n·p·q y desviación típica σ = √(n·p·q). Estos valores ofrecen una lectura rápida sobre el comportamiento de X (número de éxitos) sin necesidad de calcular todas las probabilidades una a una.
Ejemplo clásico: lanzar 10 veces una moneda equilibrada y contar cuántas caras salen. Aquí n = 10 y p = 0,5; por tanto, X ∼ B(10, 0,5). Calcular P(X = 4) es tan simple como usar la fórmula anterior con k = 4. piezas defectuosas, respuestas correctas en un test o aciertos al lanzar penaltis son otros contextos habituales.
Cálculo de P(X = k) paso a paso con un ejemplo
Supón que un futbolista marca un penalti con probabilidad p = 0,7. Si lanza tres penaltis, ¿cuál es la probabilidad de que anote exactamente dos? Primero, define éxito como «marcar». Después, piensa en los recorridos posibles en un diagrama de árbol que den exactamente dos aciertos: (A, A, F), (A, F, A) y (F, A, A). probabilidad p2·q, con q = 0,3, corresponde a cada uno de esos recorridos.
Como hay 3 itinerarios distintos con dos aciertos, basta multiplicar por ese número de caminos: P(X = 2) = 3 · (0,7)2 · (0,3) = 3 · 0,49 · 0,3 = 0,441. Esa cifra coincide con la fórmula binomial, ya que C(3, 2) = 3. la fórmula ahorra el trabajo de listar caminos cuando n crece.
Si en lugar de tres fueran 25 penaltis y te preguntan la probabilidad de anotar 15, construir el diagrama de árbol sería inviable a mano. La fórmula binomial es la herramienta adecuada: P(X = 15) = C(25, 15) · 0,715 · 0,310. usar calculadora científica o software conviene para cálculos grandes.
Ejemplos prácticos y ejercicios resueltos
1) Piezas defectuosas (3% de defectos)
En un taller, el 3% de las piezas es defectuoso. Si tomas una muestra de n = 15 piezas, ¿cuál es la probabilidad de encontrar exactamente k = 5 defectuosas? Modelizamos con X ∼ B(15, 0,03) y aplicamos la pmf: P(X = 5) = C(15, 5) · (0,03)5 · (0,97)10. «defectuosa» es el éxito que estamos contando.
2) Abandono universitario
Se sabe que 1 de cada 5 estudiantes abandona (p = 0,2). Se eligen 5 estudiantes al azar (n = 5). Primero, calcula P(«uno o ninguno» abandona) = P(X ≤ 1) con X ∼ B(5, 0,2):
P(X = 0) = 0,85 = 0,32768;
P(X = 1) = C(5, 1) · 0,2 · 0,84 = 5 · 0,2 · 0,4096 = 0,4096.
La suma P(X ≤ 1) = 0,32768 + 0,4096 = 0,73728. muy probable observar como mucho un abandono en cinco.
¿Qué es más probable, que todos abandonen o que ninguno lo haga? Compara:
P(X = 5) = 0,25 = 0,00032 y P(X = 0) = 0,85 = 0,32768.
Gana por goleada «que ninguno abandone». Cuando p es pequeña, X = 0 suele ser de los resultados más probables.
3) Puntualidad en el trabajo
La probabilidad de llegar puntual es 3/4. Si se eligen 3 trabajadores, ¿probabilidad de que al menos uno llegue puntual? Con X ∼ B(3, 0,75), P(X ≥ 1) = 1 − P(X = 0) = 1 − (0,25)3 = 1 − 0,015625 = 0,984375. Usar la complementaria «al menos uno» = 1 − «ninguno» es el camino rápido.
4) Dos infracciones independientes
En controles de tráfico, el 5% da positivo en alcoholemia y el 10% no lleva cinturón; ambas infracciones son independientes. La probabilidad de cometer «alguna de las dos» es p = 0,05 + 0,10 − 0,05·0,10 = 0,145. Un agente para a n = 5 conductores al azar. Queremos: exactamente 3 con alguna infracción, y al menos 1 con alguna infracción. binomial con p = 0,145 es el modelo adecuado.
Para «exactamente 3»: con X ∼ B(5, 0,145),
P(X = 3) = C(5, 3) · 0,1453 · 0,8552 ≈ 10 · 0,0030486 · 0,7310 ≈ 0,0223 (2,23%). k grandes son poco frecuentes en muestras pequeñas y p baja.
Para «al menos 1»: P(X ≥ 1) = 1 − P(X = 0) = 1 − 0,8555 ≈ 1 − 0,457 ≈ 0,543 (54,3%). la complementaria simplifica y evita sumar muchos términos.
Cálculos de cola: probabilidades acumuladas y cuantiles
La binomial no solo permite P(X = k), también P(X ≤ k) o P(X ≥ k). Por ejemplo, con X ∼ B(10, 0,5) la probabilidad de obtener seis o menos caras es:
P(X ≤ 6) = 0,828125. De forma complementaria, P(X ≥ 7) = 1 − P(X ≤ 6) = 1 − 0,828125 = 0,171875. con colas es esencial para “al menos”, “como mucho” o “no menos de”.
Si te hace falta comparar escenarios, cambia n o p y repite. Con p = 0,6 y n = 10, P(X = 6) sube a 0,2508227; con p = 0,4 y n = 12, P(X = 6) baja a 0,1765791. hacia k cercanos a la media n·p se desplaza la probabilidad.
Cómo hacerlo en R con el paquete {stats}
R facilita todo esto con cuatro funciones por distribución: d (densidad/probabilidad puntual), p (acumulada), q (cuantiles) y r (generación aleatoria). Para la binomial: dbinom(), pbinom(), qbinom() y rbinom(). obtener PMF, CDF, cuantiles y simulaciones es sencillo con estos comandos.
Probabilidad puntual: P(X = 6) con X ∼ B(10, 0,5): dbinom(6, 10, 0.5) = 0.2050781. Con p = 0,6: dbinom(6, 10, 0.6) = 0.2508227; con n = 12 y p = 0,4: dbinom(6, 12, 0.4) = 0.1765791.
dbinom(x = 6, size = 10, prob = 0.5)
# 0.2050781
dbinom(x = 6, size = 10, prob = 0.6)
# 0.2508227
dbinom(x = 6, size = 12, prob = 0.4)
# 0.1765791
Probabilidad acumulada: P(X ≤ 6) con X ∼ B(10, 0,5) se obtiene con pbinom(6, 10, 0.5) = 0.828125. Para colas superiores, usa 1 − pbinom(6, …) o el parámetro lower.tail = FALSE (ajustando el punto de corte). R evita sumar a mano muchos términos de la distribución.
pbinom(q = 6, size = 10, prob = 0.5)
# 0.828125
# Cola superior (X ≥ 7):
1 - pbinom(q = 6, size = 10, prob = 0.5)
# 0.171875
Cuantiles: qbinom() responde a «¿qué k deja por debajo una probabilidad dada?». Por ejemplo, con X ∼ B(10, 0,5): qbinom(0.1, 10, 0.5) = 3; qbinom(0.8, 10, 0.5) = 6. Los cuantiles ayudan a fijar umbrales y reglas de decisión.
qbinom(0.1, 10, 0.5) # 3
qbinom(0.4, 10, 0.5) # 5
qbinom(0.6, 10, 0.5) # 5
qbinom(0.8, 10, 0.5) # 6
Simulación: rbinom(m, n, p) genera m observaciones de una binomial B(n, p). Si quieres ver posibles resultados de 20 lanzamientos de una moneda equilibrada repetidos 20 veces, pide rbinom(20, 1, 0.5) para Bernoulli (n = 1) o rbinom(20, 10, 0.5) para diez lanzamientos por muestra. Simular te da intuición sobre la variabilidad de los resultados.
rbinom(20, 1, 0.5)
# Posible salida: 1 1 0 0 0 0 0 1 0 1 1 1 0 0 1 1 1 1 0 1
Detalles finos y buenas prácticas
Antes de aplicar la binomial, revisa con lupa las condiciones: ¿es razonable asumir independencia? ¿p es estable? ¿n está fijado de antemano? Si muestrear reduce la población lo suficiente como para alterar p, quizá toque una hipergeométrica; si p cambia en cada ensayo, el modelo no es B(n, p). diagnóstico correcto del experimento evita errores de modelo.
Define «éxito» de forma explícita y coherente con lo que te preguntan. En «detectar piezas defectuosas», éxito será «defectuosa» si eso es lo que cuentas; si el interés es «no defectuosa», entonces ese será el éxito. Nombrar bien el éxito simplifica la interpretación de resultados.
Familiarízate con atajos: «al menos uno» se resuelve más rápido con la complementaria, «como mucho k» es acumulada izquierda, «al menos k» es cola derecha. Y no olvides que la media n·p te orienta sobre los k más probables, mientras que la desviación √(n·p·q) marca la dispersión. Los parámetros te dan una brújula antes de calcular.
Por último, recuerda el papel del combinatorio: C(n, k) = n! / (k! (n − k)!). Intuitivamente, cuenta cuántas formas distintas hay de ubicar k éxitos en n posiciones. Es el peso que eleva un único camino (pk qn−k) a la probabilidad total de «exactamente k». Sin combinatoria, la binomial no suma los “itinerarios” correctos.
Dominar Bernoulli y binomial no es cuestión de fórmulas sin sentido: es entender que medimos «sí/no» en un intento y luego contamos cuántos «sí» en varios intentos con reglas claras. Con las condiciones adecuadas, la notación B(n, p), la fórmula P(X = k) = C(n, k) pk qn−k y las funciones de R para automatizar, puedes resolver desde monedas y penaltis hasta control de calidad o encuestas. Con práctica, verás enseguida qué modelo usar y cómo calcular lo que te piden.