| 21 | | donde {{{V}}} representa al conjunto de variables aleatorias, {{{Mu}}} sus medias y {{{Sigma}}} su matriz de covarianza, {{{F(V)==0}}} son las restricciones sobre {{{V}}}, y {{{Nu}}} es el valor determinista buscado de la solución de la combinación. |
| 22 | | |
| 23 | | === Combinación lineal de variables aleatorias normales === |
| | 21 | donde {{{V}}} representa al conjunto de variables aleatorias, {{{Mu}}} sus medias y {{{Sigma}}} su matriz de covarianza, {{{F(V)=0}}} son las restricciones sobre {{{V}}}, y {{{Nu}}} es el valor determinista buscado de la solución de la combinación. |
| | 22 | |
| | 23 | == Combinación lineal de variables aleatorias normales == |
| | 138 | |
| | 139 | == Combinación lineal de variables aleatorias fun-normales == |
| | 140 | |
| | 141 | Anteriormente encontramos la solución determinista para una combinación lineal de variables aleatorias normales: |
| | 142 | {{{ |
| | 143 | V ~ Normal(Mu, Sigma) |
| | 144 | B · V = C |
| | 145 | }}} |
| | 146 | minimizando la distancia de Mahalanobis de la solución al vector de medias: |
| | 147 | {{{ |
| | 148 | Z = Mu + Sigma·B'·Inv[B·Sigma·B']·(C-B·Mu) |
| | 149 | }}} |
| | 150 | |
| | 151 | En el caso, más general, en el que la familia de variables aleatorias se pueda |
| | 152 | expresar como una transformación de variables aleatorias normales, |
| | 153 | {{{ |
| | 154 | T(V) ~ Normal(Mu, Sigma) |
| | 155 | B · V = C |
| | 156 | }}} |
| | 157 | donde {{{T}}} es una transformación inversible de las variables aleatorias, podemos encontrar la solución |
| | 158 | determinista que minimiza la distancia de Mahalanobis en el espacio transformado: |
| | 159 | {{{ |
| | 160 | distM(T(Z), Mu; Sigma) = Sqrt((T(Z)-Mu)'·Sigma**-1·(T(Z)-Mu)) |
| | 161 | }}} |
| | 162 | replanteando el problema como: |
| | 163 | {{{ |
| | 164 | W ~ Normal(Mu, Sigma) |
| | 165 | B · S(W) = C |
| | 166 | }}} |
| | 167 | donde {{{S=inv(T)}}} es la transformación inversa de {{{T}}. |
| | 168 | |
| | 169 | La solución {{{Y=T(Z)}}} al nuevo problema sobre variables normales puede obtenerse mediante |
| | 170 | la resolución de la equción matricial no-lineal siguiente: |
| | 171 | {{{ |
| | 172 | Y = T( S(Mu) + M(Y)·B'·Inv[B·M(Y)·B']·(C-B·S(Mu)) ) |
| | 173 | }}} |
| | 174 | con: |
| | 175 | {{{ |
| | 176 | M(Y) = D[S(Y)]·Sigma·D[S(y)]' |
| | 177 | }}} |
| | 178 | donde {{{D[S(Y)]}}} es la matriz de derivadas de {{{S}}} en {{{Y}}}: |
| | 179 | {{{ |
| | 180 | D[S(Y)] = d/d[Y] · S(Y)' |
| | 181 | }}} |
| | 182 | cuyo elemento {{{i,j}}} es: |
| | 183 | {{{ |
| | 184 | D[S(Y)]_i,j = d[S(Y)_i]/dY_j |
| | 185 | }}} |
| | 186 | |
| | 187 | Nótese que la ecuación: |
| | 188 | {{{ |
| | 189 | Y = T( S(Mu) + M(Y)·B'·Inv[B·M(Y)·B']·(C-B·S(Mu)) ) |
| | 190 | }}} |
| | 191 | coincide con la encontrada anteriormente cuando la transformación es la identidad: |
| | 192 | {{{ |
| | 193 | T(U) = U |
| | 194 | S(W) = W |
| | 195 | M(Y) = Sigma |
| | 196 | }}} |
| | 197 | |
| | 198 | En general, sin embargo, la ecuación no puede obtenerse analíticamente |
| | 199 | aunque puede resolverse numéricamente de manera recursiva en pocas iteraciones |
| | 200 | utilizando como solución inicial el vector de medias: |
| | 201 | {{{ |
| | 202 | Y_0=Mu |
| | 203 | Y_(n+1) = T( S(Mu) + M(Y_n)·B'·Inv[B·M(Y_n)·B']·(C-B·S(Mu)) ) |
| | 204 | }}} |
| | 205 | =>! Es necesario demostrar o comprobar esto |