25 | | A continuación deducimos la solución a la combinación lineal de variables aleatorias normales. |
26 | | |
27 | | Sea {{{V}}} un conjunto de {{{n}}} variables aleatorias distribuidas como una normal multivariada: |
28 | | {{{ |
29 | | V ~ Normal(Mu, Sigma) |
30 | | }}} |
31 | | donde {{{Mu (nx1)}}} es el vector de medias y {{{Sigma (nxn)}}} su matriz de covarianza, y |
32 | | {{{ |
33 | | B · V = C |
34 | | }}} |
35 | | un sistema de {{{m}}} restricciones lineales sobre las variables, donde {{{B (mxn)}}} es la |
36 | | matriz del sistema lineal y {{{C (mx1)}}} es su término constante. |
37 | | |
38 | | El objetivo es encontrar la solución {{{Z}}} que minimiza la distancia de Mahalanobis al vector |
39 | | de medias: |
40 | | {{{ |
41 | | min. distM(Z, Mu; Sigma) = Sqrt[(Z-Mu)'·Inv[Sigma]·(Z-Mu)] |
42 | | }}} |
43 | | |
44 | | Solucionamos el problema mediante el método de los [http://es.wikipedia.org/wiki/Multiplicadores_de_Lagrange multiplicadores de Lagrange]: |
45 | | {{{ |
46 | | min. L(Z, Lambda) = (Z-Mu)'·Sigma**-1·(Z-Mu) - Lambda·(B·Z-C) |
47 | | }}} |
48 | | donde {{{L(Z, Lambda)}}} es la función de Lagrange y {{{Lambda (mx1)}}} el vector de multiplicadores de Lagrange. |
49 | | |
50 | | Derivando respecto a {{{Z}}} y {{{Lambda}}} obtenemos: |
51 | | {{{ |
52 | | d[L(Z,Lambda]/d[Lambda] = B·Z - C = 0 |
53 | | }}} |
54 | | que es la restricción lineal sobre las variables y |
55 | | {{{ |
56 | | d[L(Z,Lambda]/d[Z] = 2 Inv[Sigma]·(Z-Mu) + B'·Lambda = 0 |
57 | | }}} |
58 | | |
59 | | Si despejamos {{{Lambda}}} de la segunda ecuación usando la primera: |
60 | | {{{ |
61 | | 2 Inv[Sigma]·(Z-Mu) = - B'·Lambda |
62 | | Z-Mu = - 1/2 Sigma·B'·Lambda |
63 | | B·(Z-Mu) = C-B·Mu = - 1/2 B·Sigma·B'·Lambda |
64 | | Lambda = -2 Inv[B·Sigma·B']·(C-B·Mu) |
65 | | }}} |
66 | | y sustituyendo de nuevo en la segunda ecuación y despejando {{{Z}}} encontramos: |
67 | | {{{ |
68 | | Z = Mu - 1/2 Sigma·B'·Lambda = Mu + Sigma·B'·Inv[B·Sigma·B']·(C-B·Mu) |
69 | | }}} |
70 | | |
71 | | === Nota Matemática === |
72 | | |
73 | | Se han hecho uso de algunos resultados de derivación matricial como: |
74 | | {{{ |
75 | | d[X']/d[X] = I |
76 | | d[A'·X]/d[X] = d[X'·A]/d[X] = A |
77 | | d[X'·X]/d[X] = 2 X |
78 | | d[X'·B·X]/d[X] = (B+B')·X =(si B es simétrica)= 2 B·X |
79 | | }}} |
80 | | donde {{{X}}} y {{{A}}} son matrices columna, {{{B}}} es una matriz cuadrada |
81 | | e {{{I}}} es la matriz identidad. |
82 | | |
83 | | Para obtener estos resultados puede hacerse la siguiente consideración: |
84 | | {{{ |
85 | | d[f(X)]/d[X] = d/d[X] · f[X] |
86 | | }}} |
87 | | donde la derivada se puede ver como un producto matricial entre un operador |
88 | | columna de derivadas: |
89 | | {{{ |
90 | | d/d[X] = (d/dx1, d/dx2, ..., d/dxn)' |
91 | | }}} |
92 | | y la matriz a derivar. |
| 26 | [wiki:Combinations/LinearNormalSolution Combinación lineal de variables aleatorias normales] |
96 | | En general el problema de encontrar una solución determinista para una combinación de variables aleatorias |
97 | | no puede resolverse mediante un algoritmo de optimización. |
98 | | |
99 | | Sin embargo hay un caso particular, que denominaremos combinación separable y que se encuentra a menudo en modelación, que sí puede resolverse. |
100 | | |
101 | | Sea {{{V}}} un conjunto de {{{n}}} variables aleatorias distribuidas como una normal multivariada: |
102 | | {{{ |
103 | | V ~ Normal(Mu, Sigma) |
104 | | }}} |
105 | | donde {{{Mu (nx1)}}} es el vector de medias y {{{Sigma (nxn)}}} su matriz de covarianza, y sea |
106 | | {{{ |
107 | | F(V1) = V2 |
108 | | }}} |
109 | | una restricción separable, donde {{{V1 (n1x1)}}} y {{{V2 (n2x1)}}} son dos subconjuntos complementarios de {{{V (n=n1+n2x1)}}}: |
110 | | {{{ |
111 | | V' = (V1', V2') |
112 | | }}} |
113 | | |
114 | | La condición de encontrar el valor {{{Nu}}} que minimice la distancia: |
115 | | {{{ |
116 | | distM(Nu, Mu; Sigma) = Sqrt((Mu-Nu)'·Sigma**-1·(Mu-Nu)) |
117 | | }}} |
118 | | sujeta a las restricciones anteriores puede escribirse como la minimización |
119 | | de una función de N1 no restringida |
120 | | {{{ |
121 | | min. (Mu-Nu(Nu1))'·Sigma**-1·(Mu-Nu(Nu1)) |
122 | | }}} |
123 | | donde |
124 | | {{{ |
125 | | Nu(Nu1)' = (Nu1', F(Nu1)') |
126 | | }}} |
127 | | |
128 | | === Combinación lineal de variables aleatorias separable === |
129 | | |
130 | | Un caso muy común de combinación separable es aquel en el que la restricción es lineal pudiéndose escribir de la forma: |
131 | | {{{ |
132 | | V ~ Normal(Mu, Sigma) |
133 | | A·V1 + B = V2 |
134 | | }}} |
135 | | donde {{{V'=(V1,V2)'}}} es el conjunto de variables aleatorias separadas en dos subconjuntos {{{V1 (n1x1)}}} y {{{V2 (n2x1)}}} y |
136 | | {{{A (n1xn1)}}} y {{{B (n1x1)}}} son las matrices de la restricción lineal. |
137 | | Nótese que el número de variables separadas {{{V2}}} es igual al número de restricciones lineales (dimensiones de las matrices {{{A}}} y {{{B}}}). |
| 30 | [wiki:Combinations/SeparableCombination Combinación de variables aleatorias separable] |
141 | | Anteriormente encontramos la solución determinista para una combinación lineal de variables aleatorias normales: |
142 | | {{{ |
143 | | V ~ Normal(Mu, Sigma) |
144 | | B · V = C |
145 | | }}} |
146 | | minimizando la distancia de Mahalanobis de la solución al vector de medias: |
147 | | {{{ |
148 | | Z = Mu + Sigma·B'·Inv[B·Sigma·B']·(C-B·Mu) |
149 | | }}} |
150 | | |
151 | | Hay una situación más general que ésta que admite una solución similar. |
152 | | Se trata del caso, más general, en el que la familia de variables aleatorias se pueda |
153 | | expresar como una transformación de variables aleatorias normales, |
154 | | {{{ |
155 | | T(V) ~ Normal(Mu, Sigma) |
156 | | B · V = C |
157 | | }}} |
158 | | donde {{{T}}} es una transformación inversible de las variables aleatorias. |
159 | | |
160 | | A esta nueva familia de variables aleatroias la podemos denominar trans-normales |
161 | | en analogía al nombre que reciben cuando la transformación es el logaritmo: log-normales. |
162 | | |
163 | | Para el caso de la combinación lineal de variables trans-normales, podemos encontrar la solución |
164 | | determinista que minimiza la distancia de Mahalanobis en el espacio transformado: |
165 | | {{{ |
166 | | distM(T(Z), Mu; Sigma) = Sqrt((T(Z)-Mu)'·Sigma**-1·(T(Z)-Mu)) |
167 | | }}} |
168 | | replanteando el problema como: |
169 | | {{{ |
170 | | W ~ Normal(Mu, Sigma) |
171 | | B · S(W) = C |
172 | | }}} |
173 | | donde {{{S=inv(T)}}} es la transformación inversa de {{{T}}}. |
174 | | |
175 | | La solución {{{Y=T(Z)}}} al nuevo problema sobre variables normales puede obtenerse mediante |
176 | | la resolución de la equción matricial no-lineal siguiente: |
177 | | {{{ |
178 | | Y = T( S(Mu) + M(Y)·B'·Inv[B·M(Y)·B']·(C-B·S(Mu)) ) |
179 | | }}} |
180 | | con: |
181 | | {{{ |
182 | | M(Y) = D[S(Y)]·Sigma·D[S(y)]' |
183 | | }}} |
184 | | donde {{{D[S(Y)]}}} es la matriz de derivadas de {{{S}}} en {{{Y}}}: |
185 | | {{{ |
186 | | D[S(Y)] = d/d[Y] · S(Y)' |
187 | | }}} |
188 | | cuyo elemento {{{i,j}}} es: |
189 | | {{{ |
190 | | D[S(Y)]_i,j = d[S(Y)_i]/dY_j |
191 | | }}} |
192 | | |
193 | | Nótese que la ecuación: |
194 | | {{{ |
195 | | Y = T( S(Mu) + M(Y)·B'·Inv[B·M(Y)·B']·(C-B·S(Mu)) ) |
196 | | }}} |
197 | | coincide con la encontrada anteriormente cuando la transformación es la identidad: |
198 | | {{{ |
199 | | T(U) = U |
200 | | S(W) = W |
201 | | M(Y) = Sigma |
202 | | }}} |
203 | | |
204 | | En general, sin embargo, la ecuación no puede obtenerse analíticamente |
205 | | aunque puede resolverse numéricamente de manera recursiva en pocas iteraciones |
206 | | utilizando como solución inicial el vector de medias: |
207 | | {{{ |
208 | | Y_0=Mu |
209 | | Y_(n+1) = T( S(Mu) + M(Y_n)·B'·Inv[B·M(Y_n)·B']·(C-B·S(Mu)) ) |
210 | | }}} |
211 | | =>! Es necesario demostrar o comprobar esto |
212 | | |
213 | | |
214 | | |
215 | | |
| 34 | [wiki:Combinations/LinearTransNormalSolution Combinación lineal de variables aleatorias trans-normales] |