| 25 | A continuación deducimos la solución a la combinación lineal de variables aleatorias normales. |
| 26 | |
| 27 | Sea {{{V}}} un conjunto de {{{n}}} variables aleatorias distribuidas como una normal multivariada: |
| 28 | {{{ |
| 29 | V ~ Normal(Mu, Sigma) |
| 30 | }}} |
| 31 | donde {{{Mu (nx1)}}} es el vector de medias y {{{Sigma (nxn)}}} su matriz de covarianza, y |
| 32 | {{{ |
| 33 | B · Z = C |
| 34 | }}} |
| 35 | un sistema de {{{m}}} restricciones lineales sobre las variables, donde {{{B (mxn)}}} es la |
| 36 | matriz del sistema lineal y {{{C (mx1)}}} es su término constante. |
| 37 | |
| 38 | El objetivo es encontrar la solución {{{Nu}}} que minimiza la distancia de Mahalanobis al vector |
| 39 | de medias: |
| 40 | {{{ |
| 41 | min. distM(Nu, Mu; Sigma) = Sqrt((Mu-Nu)'·Sigma**-1·(Mu-Nu)) |
| 42 | }}} |
| 43 | |
| 44 | Solucionamos el problema mediante el método de los [http://es.wikipedia.org/wiki/Multiplicadores_de_Lagrange multiplicadores de Lagrange]: |
| 45 | {{{ |
| 46 | min. L(Z, Lambda) = (Z-Mu)'·Sigma**-1·(Z-Mu) - Lambda·(B·Z-C) |
| 47 | }}} |
| 48 | donde {{{L(Z, Lambda)}}} es la función de Lagrange y {{{Lambda (mx1)}}} el vector de multiplicadores de Lagrange. |
| 49 | |
| 50 | Derivando respecto a {{{Z}}} y {{{Lambda}}} obtenemos: |
| 51 | {{{ |
| 52 | d[L(Z,Lambda]/d[Lambda] = B·Z - C == 0 |
| 53 | }}} |
| 54 | que es la restricción lineal sobre las variables y |
| 55 | {{{ |
| 56 | d[L(Z,Lambda]/d[Z] = 2 Inv[Sigma]·(Z-Mu) + B'·Lambda == 0 |
| 57 | }}} |
| 58 | |
| 59 | Si despejamos {{{Lambda}}} de la segunda ecuación usando la primera: |
| 60 | {{{ |
| 61 | 2 Inv[Sigma]·(Z-Mu) == - B'·Lambda |
| 62 | Z-Mu == - 1/2 Sigma·B'·Lambda |
| 63 | B·(Z-Mu) == C-B·Mu == - 1/2 B·Sigma·B'·Lambda |
| 64 | Lambda == -2 Inv[B·Sigma·B']·B·(Z-Mu) |
| 65 | }}} |
| 66 | y sustituyendo de nuevo en la segunda ecuación y despejando {{{Z}}} encontramos: |
| 67 | {{{ |
| 68 | Z == Mu - 1/2 Sigma·B'·Lambda == Mu + Sigma·B'·Inv[B·Sigma·B']·B·(Z-Mu) |
| 69 | }}} |
| 70 | |
| 71 | |