Teorema central del límite: guía completa con ejemplos y usos

Última actualización: octubre 25, 2025
  • El TCL garantiza que la media muestral se aproxima a normal con n grande, incluso si la población no es normal.
  • Permite tratar sumas y proporciones como normales: Y ≈ Normal(np, √(np(1−p))) y p̂ ≈ Normal(p, √(p(1−p)/n)).
  • El tamaño muestral necesario depende de la forma: simétricas requieren menos n, asimétricas más.

Ilustración teorema central del límite

Puede que lo hayas oído mil veces, pero pocas herramientas son tan versátiles en estadística como el Teorema Central del Límite. Desde estimar medias en encuestas hasta planificar proyectos complejos, este principio explica por qué tantas variables reales dibujan una campana de Gauss cuando agregamos información de muchos elementos independientes.

En esta guía vas a encontrar una explicación clara y práctica: qué es, por qué funciona, cómo aplicarlo paso a paso, cuándo se puede usar con garantías y ejemplos concretos que van desde lanzamientos de monedas y proporciones muestrales hasta finanzas (incluyendo aplicaciones del temario de CFA I) y genética moderna.

Qué es el Teorema Central del Límite

El Teorema Central del Límite (TCL) afirma que, si tomamos muchas muestras aleatorias de una población con varianza finita, la distribución de la media muestral se aproxima a una distribución normal a medida que el tamaño de la muestra crece. Da igual que la población original sea simétrica, sesgada o tenga forma rara: con n suficientemente grande, la media muestral se comporta como normal.

Formalmente, si X₁, X₂, …, Xₙ son i.i.d. con media μ y varianza σ², entonces la media X̄ = (X₁ + … + Xₙ)/n satisface que la variable estandarizada sqrt(n) · (X̄ − μ) / σ converge en distribución a una normal estándar N(0,1). En palabras llanas: al aumentar n, X̄ se vuelve casi normal, centrada en μ y con desviación típica σ/√n.

Este resultado es crucial porque permite aplicar pruebas de hipótesis, intervalos de confianza y cálculos de probabilidad basados en la normal incluso cuando la población original no es normal. Eso sí, debe cumplirse que la varianza sea finita y las observaciones sean independientes (o al menos suficientemente poco dependientes), y conviene conocer los supuestos del Teorema de Gauss–Markov.

La intuición: sumas de efectos independientes

La magia del TCL radica en que muchas cantidades reales son la suma de pequeñas contribuciones independientes, de magnitud comparables y con colas controladas (varianza finita). Bajo estas condiciones, la suma de muchas de ellas se aproxima a una normal. Por eso la normal es tan ubicua en ciencia y en datos del mundo real.

Ejemplos cotidianos ayudan: el consumo energético de una ciudad resulta de agregar consumos individuales de miles de hogares; y el tiempo total de un proyecto complejo nace de sumar duraciones de muchas tareas distintas. Aunque cada pieza pueda tener su propia distribución, la suma con un número considerable de componentes adopta una forma aproximadamente gaussiana.

La intuición también explica por qué hablar de un “número grande” no siempre significa infinito: en la práctica, con n ≥ 30 la aproximación suele ser buena en muchos contextos, si bien dependerá de cuánto se aleje de la normalidad la distribución original y de si existen colas pesadas.

Sumas y medias: de lo general a lo específico

Si tenemos variables independientes X₁, X₂, …, Xₙ con medias μᵢ y varianzas σᵢ² (con i de 1 a n), entonces la suma Y = X₁ + X₂ + … + Xₙ, para n grande, se puede aproximar por una normal con media igual a la suma de las medias y desviación típica igual a la raíz de la suma de varianzas.

Es decir, Y ≈ Normal( ∑μᵢ , √(∑σᵢ²) ). Si además las Xᵢ son normales, este resultado no es una aproximación sino una igualdad exacta: la suma de normales es normal.

Como la media no es más que “sumar y dividir por n”, la media muestral X̄ hereda esta estructura: X̄ ≈ Normal( μ, σ/√n ). Esta formulación es la que se emplea a diario para inferir la media poblacional, cuantificar la incertidumbre y estimar probabilidades respecto a medias de muestras grandes, así como para comparar estimadores frente a la cota de Cramer–Rao.

Proporciones, Bernoulli y aproximación normal

La proporción muestral aparece cuando contamos éxitos/fracaso en n ensayos independientes. Si A es un evento con probabilidad p (por ejemplo, “tener cierta enfermedad”, “estar de acuerdo” o “tener empleo”), definimos una variable Bernoulli X que vale 1 si ocurre A y 0 si no. Cada Xᵢ tiene media p y varianza p(1−p), y la suma Y = X₁ + … + Xₙ cuenta el número de éxitos.

Para n grande, Y se aproxima a Normal(np, √(np(1−p))). Consecuentemente la proporción muestral p̂ = Y/n se acerca a Normal(p, √(p(1−p)/n)), lo que permite cuantificar la incertidumbre en porcentajes y construir intervalos de confianza y contrastes sobre proporciones.

Un clásico: lanzar una moneda 200 veces. La variable que cuenta caras (con p=0,5) tiene media 100 y desviación típica √(200·0,5·0,5) = 7,071. Al repetir el experimento varias veces, los conteos típicos rondan 100 (por ejemplo, valores como 102, 94, 98, 103, 114, 109, 94, 90, 109, 109), y si repitiésemos el proceso 1000 veces y dibujásemos el histograma de estos conteos, veríamos claramente la forma gaussiana.

Otro caso habitual: encuestas. Si tomamos muestras de tamaño n y la verdadera proporción de respuesta es p = 0,57, entonces p̂ ≈ Normal(0,57, √(0,57·0,43/n)). Para n grande (por ejemplo, n=1000) la desviación típica aproximada es √(0,57·0,43/1000) ≈ 0,015, lo que da una idea de la variabilidad esperada entre repeticiones del mismo sondeo.

Cómo resolver con el TCL en dos pasos

Cuando el objetivo es calcular una probabilidad para una suma o una media con n grande, conviene pensar en dos movimientos encadenados para que el razonamiento salga fino y sin atajos peligrosos (y sin olvidar las condiciones del teorema):

1) Calcular la distribución aproximada: identifica si trabajas con suma (Y) o media (X̄) y determina su media y desviación típica con las reglas anteriores. Por ejemplo, para una media con observaciones de varianza σ², usarías X̄ ≈ Normal(μ, σ/√n). Para una suma, Y ≈ Normal(nμ, √(n)σ) en el caso i.i.d.

2) Aproximar la probabilidad con la normal resultante: una vez fijada la distribución, estandariza y consulta la N(0,1). Si, por ejemplo, te piden P(X̄ ≤ t), conviertes a Z = (t − μ) / (σ/√n) y miras la probabilidad Z ≤ ese valor. Esta es la mecánica que solemos aplicar en problemas de temperaturas, tiempos, consumos y otras magnitudes promediadas.

Este enfoque por pasos encaja también cuando nos piden la probabilidad de que una medida de temperatura agregada esté por debajo de cierto umbral: primero aproximamos la distribución de la media con una normal, y luego traducimos a un Z para leer la probabilidad.

Tamaño muestral y forma de la población

El tamaño de muestra necesario para que la aproximación sea buena depende de la forma de la distribución original. Si la población es bastante simétrica (por ejemplo, uniforme), muestras pequeñas pueden bastar; si es muy asimétrica (por ejemplo, exponencial), hacen falta muestras mayores para ver la normal emergente.

En concreto: con una población uniforme (simétrica, aunque no normal) la distribución de medias de muchas muestras de tamaño 5 suele verse ya bastante normal en la práctica. En cambio, si la población es exponencial (muy asimétrica), suele requerirse un tamaño del orden de 50 para lograr una aproximación convincente. Esta diferencia se aprecia nítidamente al superponer una curva normal en los histogramas de las medias muestrales.

Este comportamiento nos habilita a usar procedimientos que exigen normalidad aproximada, como contrastes y intervalos de confianza para la media, incluso cuando la población de origen no es normal. La clave, eso sí, es validar que el tamaño muestral y las condiciones (independencia, varianza finita) apoyan la aplicación del TCL.

Ejemplo trabajado: el banquete de Zenón

Imagina que Zenón de Citio tarda al comer un jabalí un tiempo con media 12 minutos y desviación típica 3. Si debe consumir 50 jabalíes, el tiempo total es la suma de 50 tiempos independientes. Por el TCL, esa suma se aproxima a Normal(600, 21,21), porque la media suma 50·12 = 600 y la desviación típica es √(50·3²) = √450 ≈ 21,21.

¿Probabilidad de tardar menos de 9 horas y media? 9,5 horas son 570 minutos. Calculamos Z = (570 − 600) / 21,21 ≈ −1,41. Mirando la N(0,1), P(Z < −1,41) ≈ 0,0786. Es decir, hay alrededor de un 7,86% de opciones de completar el “banquete” por debajo de ese umbral temporal.

Aplicaciones en finanzas, encuestas y proyectos

En el entorno del examen CFA I (Reading “Probability Concepts”) el TCL aparece por todas partes. Permite tratar como normales los promedios de rendimientos en periodos largos, aunque los rendimientos diarios individuales no sean normales, abriendo la puerta a inferencias y comparaciones entre activos.

Algunos usos directos que verás en análisis cuantitativo y negocio son especialmente recurrentes y se apoyan en la misma idea de media muestral aproximadamente normal con n grande (o suma aproximadamente normal):

  • Pruebas de hipótesis sobre medias poblacionales usando estadística Z cuando se conoce σ o el tamaño es grande.
  • Intervalos de confianza para la media o para proporciones mediante la aproximación normal.
  • Gestión de riesgos: el VaR de horizontes agregados puede estimarse asumiendo normalidad del promedio.
  • Planificación: en proyectos, la suma de tiempos de tareas independientes tiende a una normal, útil para medir la probabilidad de cumplir plazos.

Todo ello se extiende a ejemplos de la vida diaria: encuestas de opinión (donde p̂ es casi normal con n grande), demanda agregada en retail, consumos de energía o tiempos de fabricación sumando operaciones independientes.

Más ejemplos intuitivos de sumas normales

Volviendo a los casos cotidianos, vale la pena detenerse en dos escenarios que ilustran bien el corazón del TCL, donde el agregado de muchos factores independientes con varianza finita conduce a una forma gaussiana:

  • Consumo de energía: el gasto de una ciudad agrega miles de hogares. Aunque cada hogar varíe según hábitos y tamaño, la suma presenta una distribución cercana a normal cuando el número de contribuciones es elevado.
  • Duración de proyectos complejos: la fecha de finalización agrega tareas muy diversas; la suma de tiempos, con suficientes componentes, se aproxima a normal y permite evaluar probabilidades de entrega.

Estos ejemplos muestran por qué el TCL cimenta técnicas de planificación y control: la incertidumbre del agregado se vuelve manejable porque sigue aproximadamente una normal, lo cual facilita cálculos de riesgo y plazos.

Una nota práctica sobre la regla de 30

En escenarios moderados (sin colas demasiado pesadas), los profesionales suelen invocar como referencia que con n ≥ 30 ya se obtiene una aproximación útil. No es una ley universal, pero sí una guía operativa razonable cuando la distribución original no es extrema. Si la distribución es muy asimétrica, aumenta el tamaño; si es más benigna, con menos puede bastar.

Genética, Galton y la normalidad de la altura

Francis Galton observó algo intrigante al estudiar la estatura: por un lado, parece claro que los padres altos tienden a tener descendencia más alta, aunque con regresión a la media; por otro, la variabilidad entre descendientes de padres con alturas fijas no era pequeña, lo que sugería que la herencia genética no lo explicaba todo por sí sola.

Podemos formalizarlo así: si H denota la altura de la descendencia, imaginemos H = f(x₀, y₀) + W, donde f capta el efecto genético determinista de las alturas parentales (x₀, y₀) y W agrupa efectos aleatorios no genéticos (nutrición, ambiente, etc.). Si f fuera dominante frente a W, la varianza de H sería pequeña; sin embargo, los datos muestran lo contrario: la variabilidad no es despreciable.

La explicación moderna recurre a la hipótesis de múltiples genes: hay muchos genes que afectan a la estatura. Representamos cada contribución genética por variables aleatorias Xᵢ que recogen el efecto del par de alelos correspondiente, y escribimos H = X₁ + X₂ + … + Xₙ + W. Si el número de genes implicados es grande y sus efectos no son extremos, la suma X₁ + … + Xₙ se aproxima a normal por el TCL. Si, además, esa suma pesa bastante más que W, entonces H es aproximadamente normal.

Este marco encaja con otro clásico de genética de poblaciones: la Ley de Hardy–Weinberg, que en ausencia de fuerzas evolutivas (mutación, migración, selección) y con apareamiento aleatorio estabiliza las frecuencias alélicas de una generación a la siguiente. Si las distribuciones de los Xᵢ se mantienen, y los efectos de W son aproximadamente constantes o menores, la distribución de H permanece estable entre generaciones, coherente con lo que se observa en poblaciones humanas.

Ahora bien, cambios fuertes en factores ambientales, como la nutrición, se incorporan a W y pueden desplazar medias sin alterar el razonamiento de fondo. En suma, la normalidad de rasgos como la altura emerge naturalmente al agregar muchos pequeños efectos genéticos más un término ambiental.

Todo se conecta: sumar contribuciones independientes con varianza finita empuja la distribución resultante hacia la normal, ya hablemos de medias muestrales, conteos de éxitos, consumos agregados, rendimientos promediados o rasgos poligénicos. El TCL no solo explica por qué la campana de Gauss aparece tanto, también nos autoriza a usar la normal para inferir y decidir en contextos reales cuando el tamaño es suficiente y las condiciones se cumplen.

distribucion de bernoulli
Artículo relacionado:
Distribución de Bernoulli: teoría, fórmulas, ejemplos y ejercicios