Version 3 (modified by 14 years ago) (diff) | ,
---|
Combinaciones de variables aleatorias. Combinaciones de previsiones
Definición
Las combinaciones de previsiones, y en general de variables aleatorias, se definen como un sistema de ecuaciones lineales (generalmente indeterminado) sobre un conjunto de variables aleatorias (o previsiones) para las que se dispone información a priori sobre su distribución.
El sistema de ecuaciones lineales habitualmente es compatible indeterminado, dando lugar a un espacio de soluciones con varios grados de libertad.
Comúnmente la solución de la combinación se plantea como aquélla que satisfaciendo el sistema de ecuaciones es más cercana (según la distacia de Mahalanobis) a las medias a priori de las variables aleatorias.
Formalmente la solución sería un conjunto de variables aleatorias restringida al espacio de soluciones y cuya distribución de probabilidad está condicionada a las distribuciones de partida o a priori.
(¡VERIFICAR QUE ESTO ES CIERTO!) Merece la pena mencionar que la solución determinista encontrada al minimizar la distancia de Mahalanobis coincide con la solución formada por las medias de estas distribuciones a posteriori de las variables aleatorias.
A continuación planteamos el ejercicio de combinaciones más simple que podemos imaginar y que puede sernos útil para aclarar conceptos y para encontrar algunos resultados que pueden extenderse a combinaciones más complejas.
Igualdad de variables aleatorias
El ejercicio más simple (no trivial) que podemos imaginar es aquel formado por dos variables aleatorias (de tipo real) que siguen sendas distribuciones normales (e independientes) sujeta a la restricción de ser iguales.
Dadas vA y vB (variables a priori):
vA ~ N(muA, sigmaA) vB ~ N(muB, sigmaB)
encontrar las wA y wB (variables a posteriori) que satisfagan:
wA == wB
Solución determinista
El método utilizado para encontrar la solución determinista (no como variables aleatorias) del sistema es reducir la distacia de Mahalanobis de la solución (zA, zB) al punto de partida (muA, muB):
Dist(Mu, Sigma2, Z) = Sqrt((Mu-Z)'·Sigma2**-1·(Mu-Z))
donde Mu y Z son dos vectores columna y Sigma2 una matriz de covarianzas:
Mu' = (muA, muB) Z' = (zA, zB) Sigma2 = ((sigmaA**2, 0), (0, sigmaB**2))
La solución de minimizar la distancia:
Dist(Mu, Sigma2, Z)
sujeta al sistema de ecuaciones:
B·Z == C
viene dad por:
Z = Sigma2·B' · (B·Sigma2·B')**-1 · (C-B·Mu) + Mu
En nuestro ejemplo, las matrices B y C son:
B = (1, -1) C = (0)
de modo que la solución encontrada es:
zA = muA + sigmaA**2 * (muB-muA) / (sigmaA**2+sigmaB**2) zB = muB - sigmaB**2 * (muB-muA) / (sigmaA**2+sigmaB**2)
y simplificando:
z = zA = zB = (muA * sigmaB**2 + muB * sigmaA**2) / (sigmaA**2 + sigmaB**2)
Nótese que este resultado puede verse como una media ponderada con las inversas de las varianzas de los valores muA y muB:
z = (muA * sigmaA**-2 + muB * sigmaB**-2) / (sigmaA**-2 + sigmaB**-2)
Solución como variables aleatorias
Planteamos ahora la solución a la combinación desde un punto de vista estadístico.
Dada que la combinación es una igualdad entre dos variables aleatorias, la solución encontrada para una será también la de la otra y la correlación entre ellas será 1.
La distribución a posteriori para la variable A viene dada por dos contribuciones: una debida a su información a priori (vA) y otra causada por el sistema de ecuaciones y el resto de información a priori.
En este caso sencillo podríamos escribir la función de densidad a posteriori de la variable A (fwA) proporcional al producto de su función de densidad a priori (fvA) y la función de densidad a priori obtenida mediante la ecuación (wA==wB) que no es otra que la función de densidad a priori de la varible B (fvB):
fwA(x) = k · fvA(x) · fvB(x) = k · fNormal(muA, sigmaA, x) · fNormal(muB, sigmaB, x)
Attachments (2)
- combination3D.png (15.9 KB) - added by 14 years ago.
- combination2D.png (16.1 KB) - added by 14 years ago.
Download all attachments as: .zip