| 1 | |
| 2 | = Combinación de variables aleatorias = |
| 3 | |
| 4 | == Combinación lineal de variables aleatorias normales == |
| 5 | |
| 6 | A continuación deducimos la solución a la combinación lineal de variables aleatorias normales. |
| 7 | |
| 8 | Sea {{{V}}} un conjunto de {{{n}}} variables aleatorias distribuidas como una normal multivariada: |
| 9 | {{{ |
| 10 | V ~ Normal(Mu, Sigma) |
| 11 | }}} |
| 12 | donde {{{Mu (nx1)}}} es el vector de medias y {{{Sigma (nxn)}}} su matriz de covarianza, y |
| 13 | {{{ |
| 14 | B · V = C |
| 15 | }}} |
| 16 | un sistema de {{{m}}} restricciones lineales sobre las variables, donde {{{B (mxn)}}} es la |
| 17 | matriz del sistema lineal y {{{C (mx1)}}} es su término constante. |
| 18 | |
| 19 | El objetivo es encontrar la solución {{{Z}}} que minimiza la distancia de Mahalanobis al vector |
| 20 | de medias: |
| 21 | {{{ |
| 22 | min. distM(Z, Mu; Sigma) = Sqrt[(Z-Mu)'·Inv[Sigma]·(Z-Mu)] |
| 23 | }}} |
| 24 | |
| 25 | Solucionamos el problema mediante el método de los [http://es.wikipedia.org/wiki/Multiplicadores_de_Lagrange multiplicadores de Lagrange]: |
| 26 | {{{ |
| 27 | min. L(Z, Lambda) = (Z-Mu)'·Sigma**-1·(Z-Mu) - Lambda·(B·Z-C) |
| 28 | }}} |
| 29 | donde {{{L(Z, Lambda)}}} es la función de Lagrange y {{{Lambda (mx1)}}} el vector de multiplicadores de Lagrange. |
| 30 | |
| 31 | Derivando respecto a {{{Z}}} y {{{Lambda}}} obtenemos: |
| 32 | {{{ |
| 33 | d[L(Z,Lambda]/d[Lambda] = B·Z - C = 0 |
| 34 | }}} |
| 35 | que es la restricción lineal sobre las variables y |
| 36 | {{{ |
| 37 | d[L(Z,Lambda]/d[Z] = 2 Inv[Sigma]·(Z-Mu) + B'·Lambda = 0 |
| 38 | }}} |
| 39 | |
| 40 | Si despejamos {{{Lambda}}} de la segunda ecuación usando la primera: |
| 41 | {{{ |
| 42 | 2 Inv[Sigma]·(Z-Mu) = - B'·Lambda |
| 43 | Z-Mu = - 1/2 Sigma·B'·Lambda |
| 44 | B·(Z-Mu) = C-B·Mu = - 1/2 B·Sigma·B'·Lambda |
| 45 | Lambda = -2 Inv[B·Sigma·B']·(C-B·Mu) |
| 46 | }}} |
| 47 | y sustituyendo de nuevo en la segunda ecuación y despejando {{{Z}}} encontramos: |
| 48 | {{{ |
| 49 | Z = Mu - 1/2 Sigma·B'·Lambda = Mu + Sigma·B'·Inv[B·Sigma·B']·(C-B·Mu) |
| 50 | }}} |
| 51 | |
| 52 | == Nota Matemática == |
| 53 | |
| 54 | Se han hecho uso de algunos resultados de derivación matricial como: |
| 55 | {{{ |
| 56 | d[X']/d[X] = I |
| 57 | d[A'·X]/d[X] = d[X'·A]/d[X] = A |
| 58 | d[X'·X]/d[X] = 2 X |
| 59 | d[X'·B·X]/d[X] = (B+B')·X =(si B es simétrica)= 2 B·X |
| 60 | }}} |
| 61 | donde {{{X}}} y {{{A}}} son matrices columna, {{{B}}} es una matriz cuadrada |
| 62 | e {{{I}}} es la matriz identidad. |
| 63 | |
| 64 | Para obtener estos resultados puede hacerse la siguiente consideración: |
| 65 | {{{ |
| 66 | d[f(X)]/d[X] = d/d[X] · f[X] |
| 67 | }}} |
| 68 | donde la derivada se puede ver como un producto matricial entre un operador |
| 69 | columna de derivadas: |
| 70 | {{{ |
| 71 | d/d[X] = (d/dx1, d/dx2, ..., d/dxn)' |
| 72 | }}} |
| 73 | y la matriz a derivar. |