Descomposición de Cholesky: guía completa con ejemplos y aplicaciones

Última actualización: septiembre 5, 2025
  • Descomposición de matrices simétricas definidas positivas como L · L^T, con L triangular inferior y diagonal positiva.
  • Condiciones de existencia ligadas a la positividad de menores principales y relación con la raíz cuadrada matricial.
  • Aplicaciones clave: resolución de sistemas y generación de normales correlacionadas a partir de independientes.
  • Conexión con QR y Gram Schmidt: A^T · A = R^T · R, revelando la raíz cuadrada superior de A^T · A.

descomposicion de cholesky

La descomposición de Cholesky es una herramienta fundamental del álgebra lineal numérica para trabajar con matrices simétricas y definidas positivas, y se utiliza para factorizar una matriz en el producto de una triangular inferior y su traspuesta. En la práctica, permite resolver sistemas lineales, analizar estabilidad y generar simulaciones con correlación de manera eficaz y estable.

Aunque emparentada con la factorización LU, Cholesky ocupa un lugar especial: explota la simetría y la positividad para reducir cálculos y mejorar la robustez numérica. En términos intuitivos, actúa como una especie de raíz cuadrada matricial, una idea que ayuda a entender sus condiciones de existencia y sus aplicaciones.

Concepto y relación con LU

matriz triangular inferior

Cuando una matriz cuadrada es simétrica y definida positiva, existe una matriz triangular inferior L de la misma dimensión tal que A = L · L^T. De forma equivalente, también puede escribirse A = U^T · U con una triangular superior U. Esta construcción es lo que se conoce como descomposición de Cholesky, y se entiende como un caso particular dentro de la familia LU, pero con restricciones que permiten eliminar el pivoteo y aprovechar la simetría.

Para fijar ideas conviene recordar la estructura de las matrices triangulares. Por un lado, tenemos la triangular superior, que contiene ceros por debajo de la diagonal principal; por otro, la triangular inferior, que contiene ceros por encima de la diagonal. En la descomposición de Cholesky, la matriz L es triangular inferior y su traspuesta L^T es triangular superior, cumpliendo exactamente esas características.

  • Matriz triangular superior: matriz cuadrada con entradas nulas por debajo de la diagonal principal.
  • Matriz triangular inferior: matriz cuadrada con entradas nulas por encima de la diagonal principal.

Una manera didáctica de ver Cholesky es mediante la comparación con la raíz cuadrada de un número real no negativo. El dominio de la raíz cuadrada de números reales se expresa como { x en R : x mayor o igual que 0 }. En el mundo matricial, la matriz de Cholesky desempeña el papel de raíz cuadrada de A: si A es simétrica y definida positiva, entonces existe L con A = L · L^T. Esta analogía no solo es bonita, sino que explica por qué exigimos positividad para que todo esté bien definido.

A veces se habla también de matrices definidas semipositivas, aquellas cuyos menores principales tienen determinante mayor o igual que cero. En ese escenario, puede existir una factorización que recuerda a Cholesky, pero conviene matizar que, en términos algorítmicos, la versión clásica de Cholesky requiere positividad estricta en los pivotes para garantizar que las raíces cuadradas sean reales y no degeneradas. Esa distinción resulta esencial al pasar de la teoría a la implementación.

Condiciones, unicidad y propiedades

factorizacion de cholesky

La condición de partida es clara: se necesita que la matriz sea simétrica y definida positiva. Bajo este supuesto, existe una descomposición A = L · L^T con diagonal de L estrictamente positiva, y además esa L es única si se fija la positividad de su diagonal. Esta unicidad práctica resulta clave para reproducibilidad y estabilidad en cálculos numéricos.

Una ventaja crucial de Cholesky frente a LU genérica es que reduce a la mitad, aproximadamente, el trabajo y el almacenamiento, al explotar la simetría y no duplicar información. Más allá del ahorro de operaciones, la factorización es muy estable numéricamente cuando la matriz cumple las condiciones, y evita el pivoteo, simplificando implementaciones y análisis de errores.

Si la matriz fuese solo semidefinida positiva, podrían aparecer ceros en la diagonal de L y degeneraciones. En este caso, hay que tratar con cuidado la interpretación de la factorización, ya que la ausencia de positividad estricta puede romper el algoritmo clásico o volverlo no único. En contextos estadísticos y financieros, sin embargo, esta situación también aparece y es útil entender sus matices.

Otra forma de caracterizar la positividad es mediante los menores principales: que todos ellos sean estrictamente positivos caracteriza las matrices definidas positivas. En la práctica, esta propiedad conecta con que, al avanzar por filas y columnas en el algoritmo, las cantidades bajo la raíz cuadrada resulten positivas, garantizando que cada paso esté bien definido.

Aplicaciones, ejemplo 2×2 y conexión con Gram Schmidt

aplicaciones de cholesky

En finanzas y simulación estocástica, Cholesky se utiliza para transformar vectores de variables normales estándar independientes en vectores de normales correlacionadas según una matriz de correlación dada. Si partimos de un vector N cuyas componentes son normales de media cero y varianza uno independientes, y tomamos L como una matriz triangular inferior obtenida a partir de la matriz de correlación E, entonces el producto L · N entrega un nuevo vector con correlaciones dictadas por E. Esta técnica es directa, transparente y muy habitual.

El procedimiento típico es: se escoge la matriz de correlaciones E, que es simétrica y semidefinida positiva; se calcula una matriz triangular inferior K tal que E = K · K^T; a continuación se multiplica el vector de normales independientes por K para obtener variables correlacionadas. Dicho de otro modo, la estructura de E se traslada a los datos simulados mediante la factorización.

Para asentar el concepto, consideremos el caso más sencillo, una matriz 2×2 simétrica con entradas que permiten una factoría triangular inferior de la forma L = [[a, 0], [b, c]]. Al imponer A = L · L^T se obtienen relaciones entre a, b y c. En particular, se llega a tres ecuaciones clave: c al cuadrado igual a 4; b por c igual a menos 2; a al cuadrado más b al cuadrado igual a 5. Estas condiciones definen un pequeño sistema no lineal que determina los parámetros de L.

Resolver ese sistema arroja varias posibilidades de signo. De c al cuadrado igual a 4 se deduce c igual a 2 o c igual a menos 2; de b por c igual a menos 2 se infiere b igual a menos 1 si c es 2, o b igual a 1 si c es menos 2; y de a al cuadrado más b al cuadrado igual a 5 se concluye a igual a 2 o a igual a menos 2, porque b al cuadrado es 1. En consecuencia, aparecen cuatro combinaciones para L, asociadas a las elecciones de signo. En práctica numérica, se escoge la versión con diagonal positiva, lo que fija la unicidad efectiva.

Esta elección de signos no es un mero detalle: impone que la diagonal sea positiva, con lo que la factorización queda determinada de forma unívoca. Así, se adopta la convención de a mayor que 0 y c mayor que 0, resolviendo la ambigüedad y manteniendo consistencia entre implementaciones. Gracias a ello, la matriz triangular inferior L queda perfectamente definida y preparada para usarse en cálculos posteriores.

La descomposición también se entiende a través del método de Gram Schmidt aplicado a las columnas de una matriz con columnas linealmente independientes. Si a partir de A = [a1, a2, …, an] se construye una base ortonormal {w1, …, wn}, se obtiene la factorización QR con Q ortonormal y R triangular superior. En ese marco, aparece que A^T · A es igual a R^T · R, lo que significa que R realiza en esencia una raíz cuadrada superior de A^T · A: una conexión directa entre QR y Cholesky que resulta muy útil para análisis teórico y práctico.

Otra forma de verlo es que las entradas de R se calculan como productos escalares entre los vectores ortonormales w y las columnas originales a, y R recoge la estructura triangular. Esta relación clarifica por qué A^T · A, siendo simétrica y definida positiva cuando las columnas de A son independientes, admite una descomposición tipo Cholesky natural a través de R.

En cuanto al cálculo efectivo de L, se procede fila a fila o columna a columna, evaluando primero la diagonal y luego las entradas por debajo. Para el elemento diagonal i se resta a la entrada correspondiente de A la suma de cuadrados ya acumulada y se toma la raíz cuadrada; para las posiciones j por debajo de i, se resta la suma de productos cruzados ya conocidos y se divide por ese elemento diagonal. Bajo positividad, las raíces cuadradas resultan reales y bien definidas en cada paso, garantizando que el algoritmo avance sin problemas.

Este proceso incremental es eficiente porque reutiliza resultados parciales y explota la estructura triangular, evitando cálculos innecesarios. Como no hay que pivotar ni almacenar elementos redundantes por simetría, el coste computacional y la memoria se reducen respecto a otras factorizaciones generales. Todo ello explica la popularidad de Cholesky en bibliotecas numéricas, optimización y estadística.

Frente a LU, la diferencia operativa es doble: por un lado, las matrices de trabajo en Cholesky son simétricas y el pivoteo no es necesario si la matriz es definida positiva; por otro, la factorización se estabiliza gracias a la positividad de los menores principales, que asegura que en ningún momento haya que tomar raíces de números negativos. Esto aporta garantías adicionales de fiabilidad y rapidez.

En aplicaciones financieras, científicas y de ingeniería, la generación de vectores correlacionados a partir de vectores independientes es un caso de uso muy recurrente. Basta con disponer de una matriz de correlación o covarianzas válida, factorizarla mediante Cholesky y multiplicar por el vector base: así se introduce la correlación deseada de forma controlada. La misma idea se utiliza en calibración de modelos, análisis de sensibilidad y simulación Monte Carlo.

Volviendo a la lectura conceptual de la factorización, la interpretación como raíz cuadrada matricial es especialmente iluminadora: igual que la raíz cuadrada escalar solo existe para números reales no negativos, la raíz matricial tipo L · L^T exige positividad. Esta analogía ayuda a recordar que las condiciones de simetría y positividad no son un capricho, sino una necesidad para que la descomposición exista con buenas propiedades numéricas y teóricas.

Por último, conectando teoría y práctica, conviene destacar que las bases ortonormales obtenidas por Gram Schmidt y las matrices triangulares que aparecen en QR y Cholesky están profundamente relacionadas. En muchos cursos y apuntes, se presenta la matriz R de QR con entradas dadas por productos escalares entre vectores ortonormales y columnas originales, y se subraya que A^T · A factoriza como R^T · R. Con esta visión unificada, las descomposiciones no se ven como cajas negras aisladas, sino como piezas de un mismo rompecabezas algebraico.

La descomposición de Cholesky ofrece un equilibrio muy atractivo entre teoría elegante y utilidad práctica. Aúna eficiencia, estabilidad y una interpretación geométrica clara que facilita su aplicación a problemas reales, desde la resolución de sistemas simétricos bien condicionados hasta la simulación de variables correlacionadas. Cuando la matriz respeta las condiciones, es difícil encontrar una alternativa más directa y fiable para descomponer, resolver y comprender la estructura del problema.