of 55 /55
Cap´ ıtulo 1 Resumen de Distribuciones de Vectores Aleatorios Lo que se presenta a continuaci´ on es solo un resumen de los resultados b´ asicos de distribuciones de Vectores Aleatorios, en general, sin demostraciones. Se incluyen algunos ejemplos, una secci´on sobre C´ opulas, tema que no est´ a incluido en los libros introductorios de Probabilidad, ni en el temario del curso de Probabilidad II, pero es un tema de actualidad y no requiere de conocimientos adicionales. El material de la Secci´on de C´opulas es tomado del libro Quantitative Risk Management de MCNeal, A., Frey, R., Embrechts, P. En todo lo que sigue consideraremos (Ω, F ,P ) un espacio de probabilidad fijo, en donde estar´ an definidas todas las variables aleatorias. 1.1 Definiciones y Resultados B´ asicos Definici´on 1.1 Vector Aleatorio. Una funci´ on X =(X 1 , ..., X n ):Ω R n se dice que es un vector aleatorio si para toda i =1, ..., n, X i es una variable aleatoria. Definici´ on 1.2 Funci´ondeDistribuci´ on Conjunta. Sea X =(X 1 , ..., X n ) un vector aleatorio, la funci´ on F X : R n R definida por F X (x 1 , ..., x n )= P [X 1 x 1 , ..., X n x n ] (1.1) es llamada la funci´ on de distribuci´ on conjunta (o multivariada) de las vari- ables X 1 , ..., X n 1

Cap tulo 1 Resumen de Distribuciones de Vectores AleatoriosCap tulo 1 Resumen de Distribuciones de Vectores Aleatorios Lo que se presenta a continuaci on es solo un resumen de los

  • Author
    others

  • View
    8

  • Download
    0

Embed Size (px)

Text of Cap tulo 1 Resumen de Distribuciones de Vectores AleatoriosCap tulo 1 Resumen de Distribuciones de...

  • Caṕıtulo 1

    Resumen de Distribuciones deVectores Aleatorios

    Lo que se presenta a continuación es solo un resumen de los resultados básicosde distribuciones de Vectores Aleatorios, en general, sin demostraciones. Seincluyen algunos ejemplos, una sección sobre Cópulas, tema que no estáincluido en los libros introductorios de Probabilidad, ni en el temario delcurso de Probabilidad II, pero es un tema de actualidad y no requiere deconocimientos adicionales. El material de la Sección de Cópulas es tomadodel libro Quantitative Risk Management de MCNeal, A., Frey, R., Embrechts,P.

    En todo lo que sigue consideraremos (Ω,F , P ) un espacio de probabilidadfijo, en donde estarán definidas todas las variables aleatorias.

    1.1 Definiciones y Resultados Básicos

    Definición 1.1 Vector Aleatorio. Una función X = (X1, ..., Xn) : Ω →Rn se dice que es un vector aleatorio si para toda i = 1, ..., n, Xi es unavariable aleatoria.

    Definición 1.2 Función de Distribución Conjunta. Sea X = (X1, ..., Xn)un vector aleatorio, la función FX : R

    n → R definida por

    FX(x1, ..., xn) = P [X1 ≤ x1, ..., Xn ≤ xn] (1.1)

    es llamada la función de distribución conjunta (o multivariada) de las vari-ables X1, ..., Xn

    1

  • 2 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    Teorema 1.1 Propiedades de la Función de Distribución. Sea X =(X1, ..., Xn) un vector aleatorio, entonces su función de distribución conjuntaFX , tiene las siguientes propiedades:

    1. Es monótona no decreciente en cada coordenada.

    2. Es continua por la derecha con ĺımites por la izquierda en cada coorde-nada.

    3.lim

    xi→−∞FX(x1, ..., xn) = 0, para cada i = 1, ..., n. (1.2)

    4.lim

    xi→∞,i=1,...,nFX(x1, ..., xn) = 1. (1.3)

    5. Para todo a1 < b1, ..., an < bn,

    FX(b1, ..., bn) − FX(a1, ..., bn)− FX(b1, a2, ..., bn)− · · ·FX(b1, ..., an)+ todos los términos con 2 a’s y n-2 b’s

    − ......(−1)nFX(a1, ..., an) ≥ 0. (1.4)

    Demostración Las Propiedades 1-4 se siguen de la definición y del teoremade continuidad de la probabilidad. La Propiedad 5 la demostraremos solo enel caso de dimensión 2.

    Sean a1 < b1, a2 < b2, entonces

    {X1 ≤ b1, X2 ≤ b2}= {X1 ≤ a1, X2 ≤ a2} ∪ {X1 ≤ a1, a2 < X2 ≤ b2}∪{a1 < X1 ≤ b1, X2 ≤ a2} ∪ {a1 < X1 ≤ b1, a2 < X2 ≤ b2}.

    Ya que estos conjuntos son ajenos por parejas tenemos:

    P [a1 < X1 ≤ b1, a2 < X2 ≤ b2]= P [X1 ≤ b1, X2 ≤ b2]− P [X1 ≤ a1, X2 ≤ a2]−P [X1 ≤ a1, a2 < X2 ≤ b2]− P [a1 < X1 ≤ b1, X2 ≤ a2]

    = FX(b1, b2)− FX(a1, a2)− P [X1 ≤ a1, a2 < X2 ≤ b2]−P [a1 < X1 ≤ b1, X2 ≤ a2] (1.5)

  • 1.1. DEFINICIONES Y RESULTADOS BÁSICOS 3

    Por otro lado,

    {X1 ≤ a1, X2 ≤ b2}= {X1 ≤ a1, X2 ≤ a2} ∪ {X1 ≤ a1, a2 < X2 ≤ b2} (1.6)

    {X1 ≤ b1, X2 ≤ a2}= {X1 ≤ a1, X2 ≤ a2} ∪ {a1 < X1 ≤ b1, X2 ≤ a2} (1.7)

    donde, las uniones son ajenas. Usando en (1.5)( 1.6) y (1.7), se obtiene elresultado.

    2

    A toda función F : Rn → R que satisfaga las Propiedades 1-5 del Teorema1.1 le llamaremos función de distribución, pues en ese caso existe un espaciode probabilidad (Ω,F , P ) y un vector aleatorio (X1, ..., Xn) tal que F es sufunción de distribución conjunta.

    Observaciones 1.1 Para cada i ∈ {1, ..., n}, sea Yi = (X1, ..., Xi−1, Xi+1),entonces

    limxi→∞

    FX(x1, ..., xn) = FYi(x1, ..., xi−1, xi+1, ..., xn). (1.8)

    A la función de distribución FYi le llamaremos función de distribuciónmarginal de Yi.

    Ejemplo 1.1 Sea F : R2 → R dada por

    F (x1, x2) =

    {0, si x2 < −x11, si x2 ≥ −x1.

    (1.9)

    Las Propiedades 1-4 claramente se satisfacen. Consideremos a1 < b1, a2 < b2tales que a1, a2 ≤ 0, a2 ≥ −b1, b2 < −b1, b2 ≥ −a1. Entonces

    F (b1, b2)− F (a1, b2)− F (b1, a2)− F (a1, a2) = 1− 1− 1 + 0 = −1,

    por lo tanto, la Condición 5 no se satisface.

    Ejemplo 1.2 Sea F : R2 → R dada por

    F (x1, x2) =

    0, si x1 ≤ 0, ó x2 < 0,x212, si x1 ∈ (0, 1), x2 ∈ [0, 1),

    12, si x1 ≥ 1, x2 ∈ [0, 1),x1, si x1 ∈ (0, 1), x2 ≥ 1,1, si x1, x2 ≥ 1.

    (1.10)

  • 4 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    Las propiedades 1-4 claramente se satisfacen. Falta demostrar la Propiedad5. Sean a1 < b1, a2 < b2 ∈ R.

    Si a1, b1, b2 ∈ (0, 1) y a2 ∈ [0, 1), tenemos

    F (b1, b2)− F (a1, b2)− F (b1, a2) + F (a1, a2) =b212− a

    21

    2− b

    21

    2+a212

    = 0.

    Esto podŕıa parecer contradictorio, pero como corresponde a

    P [a1 < X1 ≤ b1, a2 < X2 ≤ b2],

    Si a1, a2 < 0, b1 ∈ [0, 1], b2 ∈ [0, 1)

    F (b1, b2)− F (a1, b2)− F (b1, a2) + F (a1, a2) =b212− 0− 0 + 0 ≥ 0.

    Si a1 < 0, b1 ∈ [0, 1], a2 ∈ [0, 1), b2 ≥ 1

    F (b1, b2)− F (a1, b2)− F (b1, a2) + F (a1, a2) = b1 − 0−b212

    + 0 ≥ 0.

    Los demás casos son similares.Por otro lado, las distribuciones marginales están dadas por:

    FX1(x1) = limx2→∞

    F (x1, x2) =

    0, si x1 ≤ 0,x1, si x1 ∈ (0, 1),1, si x1 ≥ 1.

    FX2(x2) = limx1→∞

    F (x1, x2) =

    0, si x2 < 0,12, si x2 ∈ [0, 1),

    1, si x2 ≥ 1,De donde, X1 es un variable aleatioria Uniforme sobre (0, 1) y X2 es una

    variable aleatoria Bernoulli (p = 12).

    Definición 1.3 Un vector aleatorio X = (X1, ..., Xn) se dice que es un vec-tor aleatorio discreto si Xi es variable aleatoria discreta, para toda i = 1, ..., n

    Definición 1.4 Sea X = (X1, ..., Xn) un vector aleatorio discreto. La funciónfX : R

    n → R definida por:

    fX(x1, ..., xn) = P [X1 = x1, ..., Xn = xn], (1.11)

    es llamada la función de densidad conjunta de las variables X1, ..., Xn.

  • 1.1. DEFINICIONES Y RESULTADOS BÁSICOS 5

    Teorema 1.2 Propiedades de la Función de Densidad Conjunta de un Vec-tor Aleatorio Discreto. Sea X = (X1, ..., Xn) un vector aleatorio discreto confunción de densidad conjunta fX , entonces:

    (i) 0 ≤ fX(x1, ..., xn) ≤ 1, para todo(x1, ..., xn) ∈ Rn.

    (ii) fX(x1, ..., xn) > 0 a lo más en un número numerable de vectores

    (x1, ..., xn) ∈ Rn.

    (iii)∑

    (x1,...,xn)∈Rn fX(x1, ..., xn) = 1.

    (iii) Para cada i = 1, ..., n, el vector Yi = (X1, ..., Xi−1, Xi+1, ..., Xn) tienedensidad dada por

    fYi(x1, ..., xi−1, xi+1, ..., xn) =∑xi

    fX(x1, ..., xi, ..., xn)dxi.

    A la función de densidad fYi le llamaremos la función de densidadmarginal del vector Yi.

    Ejemplo 1.3 Sean 0 < p, q < 1 y X = (X1, X2)un vector aleatorio discreto,con función de densidad conjunta dada por:

    P [X1 = x1, X2 = x2] =

    (1−p)qp+q

    , si x1 = 0, x2 = 0,

    qpp+q

    , si x1 = 1, x2 = 0,

    pqp+q

    , si x1 = 0, x2 = 1,

    (1−q)pp+q

    , si x1 = 1, x2 = 1

    0, en otro caso

    Claramente∑x1

    ∑x2

    P [X1 = x1, X2 = x2] =∑x1

    ∑x2

    fX1,X2(x1, x2) = 1.

    AdemásP [X1 = 0] = P [X2 = 0] =

    q

    p+ q.

    Por lo tanto son variables aleatorias Bernouilli, con el mismo parámetro.

  • 6 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    Ejemplo 1.4 Sea X = (X1, X2) un vector aleatorio discreto con función dedensidad conjunta dada por:

    P [X1 = x1, X2 = x2] =

    [qp+q

    ]2, si x1 = 0, x2 = 0,

    qp(p+q)2

    , si x1 = 1, x2 = 0,

    qp(p+q)2

    , si x1 = 0, x2 = 1,[pp+q

    ]2, si x1 = 1, x2 = 1

    0, en otro caso

    Claramente∑x1

    ∑x2

    P [X1 = x1, X2 = x2] =∑x1

    ∑x2

    fX1,X2(x1, x2) = 1.

    AdemásP [X1 = 0] = P [X2 = 0] =

    q

    p+ q.

    A toda función f : Rn → R que satisfaga las Propiedades (i), (ii) e (iii) delTeorema 1.2 le llamaremos función de densidad, pues en este caso existe unespacio de probabilidad (Ω,F , P ) y un vector aleatorio X = (X1, ..., Xn) talque f es su función de densidad conjunta.

    Definición 1.5 Un vector aleatorio X = (X1, ..., Xn) diremos que es abso-lutamente continuo si existe una función fX : R

    n → R tal que

    FX(x1, ..., xn) =

    ∫ xn−∞· · ·∫ x1−∞

    fX(u1, ..., un)du1 · · · dun, (1.12)

    donde FX es la distribución conjunta de (X1, ..., Xn). A la función fX lellamaremos la densidad conjunta del vector.

    Teorema 1.3 Propiedades de la Función de Densidad de un Vector Aleato-rio Aleatorio Absolutamente Continuo. Sea X = (X1, ..., Xn) un vectoraleatorio absolutamente continuo con función de densidad conjunta fX yfunción de distribución conjunta FX , entonces

  • 1.1. DEFINICIONES Y RESULTADOS BÁSICOS 7

    (i) fX(x1, ..., xn) ≥ 0, para casi todo (x1, ..., xn) ∈ Rn.

    (ii) ∫ ∞−∞· · ·∫ ∞−∞

    fX(x1, ..., xn)dx1, ..., dxn = 1.

    (iii) Para cada i = 1, ..., n, el vector Yi = (X1, ..., Xi−1, Xi+1, ..., Xn) tienedensidad dada por

    fYi(x1, ..., xi−1, xi+1, ..., xn) =

    ∫ ∞∞

    fX(x1, ..., xi, ..., xn)dxi.

    A la función de densidad fYi le llamaremos la función de densidad marginaldel vector Yi.

    (iv) Para toda (x1, ..., xn) ∈ Rn tal que existen las derivadas parciales deorden n, se tiene:

    fX(x1, ..., xn) =∂n

    ∂x1, ..., ∂xnFX(x1, ..., xn).

    A toda función f : Rn → R que satisfaga las Propiedades (i) e (ii) delTeorema 1.3 le llamaremos función de densidad, pues en este caso existe unespacio de probabilidad (Ω,F , P ) y un vector aleatorio X = (X1, ..., Xn) talque f es su función de densidad conjunta.

    Observaciones 1.2 Claramente los vectores aleatorios de los Ejemplos 1.2,y 1.6 no son ni continuos ni discretos.

    Ejemplo 1.5 Densidad Gaussiana Bivariada

    fX(x1, x2) (1.13)

    =1

    2πσ1σ2√

    1− ρ2exp

    {− 1

    2(1− ρ2)

    [(x1 − µ1)2

    σ21− 2ρ(x1 − µ1)

    σ1

    (x2 − µ2)σ22

    +(x2 − µ2)2

    σ22

    ]}−1 < ρ < 1, σ1, σ2 > 0, µ1, µ2 ∈ R.

    Sea

    K =1

    2πσ1σ2√

    1− ρ2

  • 8 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    fX(x1, x2)

    = K exp

    {− 1

    2(1− ρ2)

    [(x1 − µ1)2

    σ21− 2ρ(x1 − µ1)

    σ1

    (x2 − µ2)σ2

    +ρ2(x2 − µ2)2

    σ22

    +(1− ρ2)(x2 − µ2)2

    σ2

    ]}= K exp

    {−(x2 − µ2)

    2

    2σ22

    }exp

    {− 1

    2(1− ρ2)

    [(x1 − µ1)

    σ1− ρ(x2 − µ2)

    σ2

    ]2}

    = K exp

    {−(x2 − µ2)

    2

    2σ22

    }exp

    {− 1

    2(1− ρ2)σ21

    [(x1 − µ1)−

    ρσ1(x2 − µ2)σ2

    ]2}

    = K exp

    {−(x2 − µ2)

    2

    2σ22

    }exp

    {− 1

    2(1− ρ2)σ21

    [x1 −

    (µ1 +

    ρσ1(x2 − µ2)σ2

    )]2}(1.14)

    De donde integrando con respecto a x1 tenemos∫ ∞−∞

    fX(x1, x2)dx1 = K exp

    {−(x2 − µ2)

    2

    2σ22

    }√2πσ1

    √1− ρ2

    =1√

    2πσ2exp

    {−(x2 − µ2)

    2

    2σ22

    }(1.15)

    Es decir, X2 es una variable aleatoria Gaussiana con media µ2 y varianza σ2.Análogamente para X1.

    Ejemplo 1.6 Consideremos la siguiente función:

    F (x1, x2) =

    0, si x2 < 0,0, si x2 ≥ 0, x1 < −

    √x2,

    Φ(x1)− Φ(−√x2), si −

    √x2 ≤ x1 ≤

    √x2, x2 > 0,

    Φ(√x2)− Φ(−

    √x2), si x2 ≥ 0,

    √x2 ≤ x1.

    donde Φ es la función de distribución Gaussiana (0, σ2), es decir,

    Φ(x) =1√2πσ

    ∫ x−∞

    e−y2

    2σ2 dy

    Se puede demostrar que satisface las condiciones para ser una función dedistribución. Observemos que

    limx2→∞

    F (x1, x2) = Φ(x1), x1 ∈ R,

  • 1.2. DENSIDADES Y DISTRIBUCIONES CONDICIONALES 9

    limx1→∞

    F (x1, x2) =

    {0, si x2 < 0,Φ(−√x2)− Φ(

    √x2), si x2 ≥ 0.

    Por lo tanto, X1 es Gaussiana (0, σ2), y X2 es Gamma (

    12, 1

    2σ2).

    Por otro lado, no es la función de distribución de un vector aleatoriocontinuo, ya que

    ∂F

    ∂x1∂x2= 0.

    En realidad es la función de distribución de un vector (X,X2) donde X ∼Gaussiana (0, σ2)

    1.2 Densidades y Distribuciones Condicionales

    Definición 1.6 Sea X = (X1, ..., Xn) un vector aleatorio discreto o con-tinuo con función de densidad conjunta fX y Y1 = (X1, ..., Xk), y Y2 =(Xk+1, ..., Xn). La densidad condicional de Y1 dado que Y2 = (xk+1, ..., xn) =y2 está definida por:

    fY1|Y2=y2(x1, ..., xk|y2) =

    {fX(x1,...,xn)fY2 (y2)

    , si fY2(y2) > 0,

    0, si fY2(y2) = 0.

    donde fY2(y2) = fXk+1,...,Xn es la función de densidad marginal del vector(Xk+1, ..., Xn).

    Obsérvese que en el caso discreto, para todo y2 tal que fY2(y2) > 0, la den-sidad condicional condicional es una probabilidad. En el caso continuo, ladensidad condicional no es una probabilidad pero satisface las propiedadesde densidad en el sentido continuo.

    Además, tanto en el caso continuo como en el discreto, tenemos

    fX1,...,Xn(x1, ..., xn) = fY1,Y2(y1, y2) = fY1|Y2=y2(x1, ..., xk|y2)fY2(y2)

    Definición 1.7 Sea X = (X1, ..., Xn) un vector aleatorio discreto o con-tinuo con función de densidad conjunta fX y Y1 = (X1, ..., Xk), y Y2 =(Xk+1, ..., Xn). Sea y2 tal que fY2(y2) > 0, definimos a la función de dis-tribución condicional de Y1 dado Y2 = y2 como:

  • 10 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    (i) En el caso discreto

    FY1|Y2=y2(x1, ..., xk|y2)∑

    xi1≤x1,...,xik≤xk

    fY1|Y2=y2(xi1 , ..., xik |y2)

    (ii) En el caso continuo:

    FY1|Y2=y2(x1, ..., xk|y2)∫ x1−∞· · ·∫ xk−∞

    fY1|Y2=y2(z1, ..., zk|y2)dz1 · · · dzk.

    Definición 1.8 Sea X = (X1, ..., Xn) un vector aleatorio. Diremos que lasvariables aleatorias X1, ..., Xn son independientes si

    FX(x1, ..., xn) = FX1(x1) · · ·FXn(xn), para todo (x1, ...xn) ∈ Rn

    Observaciones 1.3 Claramente, en los Ejemplos 1.2, 1.6 y 1.5, las v.aX1, X2 no son independientes.

    Teorema 1.4 Sea X = (X1, ..., Xn) un vector aleatorio discreto o continuocon función de densidad conjunta fX . Las variables aleatorias X1, ..., Xn sonindependientes si y sólo si

    fX(x1, ..., xn) = fX1(x1) · · · fXn(xn), para todo (x1, ..., xn) ∈ Rn.

    Ejemplo 1.7 Sean p, q > 0, X1 una variable aleatoria Bernoulli(pp+q

    ) y X2una variable aleatoria tal que:

    P [X2 = 1| X1 = 0] = p, P [X2 = 0| X1 = 0] = 1− p,

    P [X2 = 0| X1 = 1] = q, P [X2 = 1| X1 = 1] = 1− q.

    Entonces

    P [X1 = 0, X2 = 0] = P [X2 = 0|X1 = 0]P [X1 = 0] = (1− p)q

    p+ q,

    P [X1 = 1, X2 = 0] = P [X2 = 0|X1 = 1]P [X1 = 1] = qp

    p+ q

    entoncesP [X2 = 0] = (1− p)

    q

    p+ q+ q

    p

    p+ q=

    q

    q + p.

    En otras palabras las variables aleatoriasX1, X2 son idénticamente distribuidas,pero NO SON INDEPENDIENTES.

  • 1.2. DENSIDADES Y DISTRIBUCIONES CONDICIONALES 11

    Definición 1.9 Sea X = (X1, X2) un vector aleatorio tal que X1 es unavariable aleatoria continua y condicionada a [X1 = x], X2 una variablealeatoria discreta, entonces

    FX(x1, x2) =

    ∫ x1−∞

    P [X2 ≤ x2| X1 = x]fX1(x)dx.

    Ejemplo 1.8 Continuación del Ejemplo 1.2 . Sea X1 una variable aleatoriaUniforme sobre el intervalo (0, 1). Dado que [X1 = x1], X2 es una variablealeatoria Bernoulli con parámetro 1− x1. Entonces, para x1 ∈ (0, 1)

    P [X2 ≤ x2| X1 = x1] =

    0, si x2 < 0,x1, si 0 ≤ x2 < 1,1, si x2 ≥ 1.

    La función de distribución conjunta está dada por la expresión (1.10) y comose mostró en el Ejemplo 1.2 X2 es una variable aleatoria Bernoulli ( p =

    12).

    Definición 1.10 Sea X = (X1, X2) un vector aleatorio tal que X1 es unavariable aleatoria discreta y condicionada a [X1 = x], X2 una variable aleato-ria continua, entonces

    FX(x1, x2) =∑x≤x1

    P [X2 ≤ x2| X1 = x]P [X1 = x].

    Ejemplo 1.9 Continuación del Ejemplo 1.5

    K =1

    2πσ1σ2√

    1− ρ2

    fX(x1, x2)

    = K exp

    {−(x2 − µ2)

    2

    2σ22

    }exp

    {− 1

    2(1− ρ2)σ21

    [x1 −

    (µ1 +

    ρσ1(x2 − µ2)σ2

    )]2}De donde,

    fX1|X2(x1, |x2) =1√

    2π(1− ρ2σ1exp

    {− 1

    2(1− ρ2)σ21

    [x1 −

    (µ1 +

    ρσ1(x2 − µ2)σ2

    )]2},

    es decir la función de densidad es Gaussiana con parámetros

    µ = µ1 +ρσ1(x2 − µ2)

    σ2, σ2 = (1− ρ2)σ21.

  • 12 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    Ejemplo 1.10 Sean f1 y f2 funciones de densidad continuas con funcionesde distribución F1 y F2 respectivamente.. Para cada α ∈ [−1, 1], la función fαdefinida a continuación es una función de densidad continua con marginalesf1 y f2 respectivamente.

    fα(x1, x2) = f1(x1)f2(x2) [1 + α{2F1(x1)− 1}{2F2(x2)− 1}]

    Es una función de densidad continua ya que:

    −1 ≤ 2Fi(xi)− 1 ≤ 1, i = 1, 2.

    Para −1 ≤ α ≤ 1, por lo tanto

    −1 ≤ α{2F1(x1)− 1}{2F2(x2)− 1} ≤ 1,

    de donde, fα(x1, x2) ≥ 0.Por otro lado, haciendo el cambio de variables u = 2F1(x1) − 1, du =

    2f1(x1) tenemos que∫R

    f1(x1){2F1(x1)− 1}dx =1

    2

    ∫ 1−1udu = 0. (1.16)

    Por lo tanto,∫ ∞−∞

    fα(x1, x2)dx1 = f2(x2),

    ∫ ∞−∞

    fα(x1, x2)dx2 = f1(x1)

    y ∫ ∫R2fα(x1, x2)dx1dx2 = 1,

    1.3 Introducción a Cópulas

    En particular, estaremos interesados en funciones de distribución conjuntascuyas marginales son Uniformes [0, 1].

    Definición 1.11 Una función de distribución conjunta cuyas marginales sonUniformes [0, 1] diremos que es una Cópula.

    Definición 1.12 Sea F una función de distribución univariada, definimosla inversa genralizada como

    F←(y) = inf{x | F (x) ≥ y}

  • 1.3. INTRODUCCIÓN A CÓPULAS 13

    Ejemplo 1.11 Sea X ∼ Exp(λ), es decir, su función de distribución estádada por:

    FX(x) =

    {0, si x ≤ 0,1− e−λx, si x > 0.

    Restringiendo el dominio a IR+ ∪ {0} esta distribución tiene inversa, sinembargo, no tiene inversa si la consideramos como función con dominio losIR, su inversa generalizada está dada por:

    F←(y) = − log(1− y)λ

    , y ∈ [0, 1).

    Ejemplo 1.12 La distribución Gausiiana N(µ, σ2) tiene inversa sobre todoIR

    Proposición 1.1 Sea F una función de distribución univariada:

    1. Transformación Cuantil. Si U ∼ U(0, 1), entonces F←(U) tienedistribución F , es decir,

    P [F←(U) ≤ x] = F (x).

    2. Transformada de Probabilidad. Si X ∼ F y F es continua, en-tonces F (X) ∼ U(0, 1).

    Demostración.

    1. Sea x ∈ IR, u ∈ (0, 1), entonces por definición de F←, tenemos

    F←(u) ≤ y, si y sólo si, u ≤ F (u).

    Por lo tanto,

    P [F←(U) ≤ y] = P [U ≤ F (u)] = F (u).

    2. Por las propiedades de la inversa generalizada, tenemos

    P [F (Y ) ≤ u] = P [F←(F (Y ) ≤ F←(u)] = F (F←(u)) = u.

    2

  • 14 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    Teorema 1.5 Teorema de Sklar . (1959) Sea F una función de distribuciónen IRd con marginales F1, ..., Fd. Entonces existe una cópula C : [0, 1]

    d →[0, 1] tal que, para toda x1, ..., xd ∈ IR = [−∞,∞]

    F (x1, ..., xd) = C(F1(x1), ..., Fd(xd)). (1.17)

    C(u1, ..., un) = F (F←1 (u1), ..., F

    ←d (ud)) (1.18)

    Si las marginales son continuas, entonces C es única; en otro caso C estádeterminada de manera única sobre RanF1 × · · · × RanFd, donde RanFi =Fi(IR). Reciprocamente, si C es una cópula y F1, ..., Fd son distribucionesunivariadas, entonces la función de distribución definida por (1.17) es unafunción de distribución con marginales F1, ..., Fd.

    Demostración. Demostraremos la existencia y unicidad en el caso continuo yel rećıproco en el caso general. Consideremos el vector Y = (F1(X1), ..., Fd(Xd)),entonces la distribución de Y es una cópula y sobre el intervalo [0, 1]d estádada por:

    CY (u1, ..., ud) = P [F1(X1) ≤ u1, ..., Fd(Xd) ≤ ud]= P [X1 ≤ F←1 (u1), ..., Xd ≤ F←d (ud)]= F (F←1 (u1), ..., F

    ←d (ud)].

    Por otro lado, tenemos que

    F (x1, ..., xd) = P [X1 ≤ x1, ..., Xd ≤ xd]= P [F1(X1) ≤ F (x1), ..., Fd(Xd) ≤ Fd(xd)],

    de dondeF (x1, ..., xd) = CY (F1(x1), ..., Fd(xd)).

    Para el rećıproco consideremos una cópula C, U un vector aleatorio condistribución C y F1, ..., Fd distribuciones univariadas. Consideremos el vectorX = (F←1 (U1), ..., F

    ←d (Ud)). Entonces

    P [X1 ≤ x1, ..., Xd ≤ xd] = P [F←1 (U1) ≤ x1, ..., F←d (Ud) ≤ xd)= P [U ≤ F1(x1), ...Ud ≤ F (xd)]= C(F1(x1), ..., Fd(xd)).

    2

  • 1.3. INTRODUCCIÓN A CÓPULAS 15

    Ejemplo 1.13 Consideremos la distribución bivariada de Gumbel con parámetroθ ≥ 0, es decir, para cada θ ≥ 0 sea

    Fθ(x1, x2) =

    {1− e−x1 − e−x2 + e−(x1+x2+θx1x2), si x1, x2 ≥ 00, en otro caso.

    Es claro que las distribuciones marginales F1, F2 son Exponenciales(λ = 1).Por lo tanto, sustituyendo las inversas ( Ejemplo 1.11) obtenemos la cópula

    CU,V (u, v) =

    0, si u ≤ 0, ó v ≤ 0,u+ v − 1 + (1− u)(1− v)e−θ ln(1−u) ln(1−v), si u, v ∈ (0, 1),u, si u ∈ (0, 1), v ≥ 1v, si v ∈ (0, 1), u ≥ 11, si u, v ≥ 1.

    y por lo tanto:

    Fθ(x1, x2) = CU,V (F1(x1), F2(x2)).

    Ejemplo 1.14 Sea Y una v.a continua y consideremos el vector X = (Y, Y ).

    Entonces

    FX(x1, x2) = P [Y ≤ x1, Y ≤ x2] = P [Y ≤ min{x1, x2}] = FY (min{x1, x2}).

    Por lo tanto, la cópula está dada por:

    C(u1, u2) = P [FY (Y ) ≤ (u1), FY (Y ) ≤ (u2)) = P (Y ≤ F←Y (u1), Y ≤ F←Y (u2)})= P [Y ≤ min{F←Y (u1), F←Y (u2)] = min{u1, u2}.

    Ejemplo 1.15 Sea Y una variable aleatoria continua y X = (Y, aY ) paraa ∈ IR+

    Entonces

    C(u1, u2) = P [FY (Y ) ≤ u1, FaY (aY ) ≤ u2]

    = P

    [FY (Y ) ≤ u1, FY

    (aY

    a

    )≤ u2

    ]= min{u1, u2}.

  • 16 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    Ejemplo 1.16 Sea X = (Y, aY ), donde a < 0, entonces, tenemos

    FaY (x2) = 1− FY(x2a

    ).

    Supongamos que 1− u2 ≤ u1, entonces

    C(u1, u2) = P [FY (Y ) ≤ u1, FaY (aY ) ≤ u2]

    = P

    [FY (Y ) ≤ u1, 1− FY

    (aY

    a

    )≤ u2

    ]= P [1− u2 ≤ FY (Y ) ≤ u1] = P [FY (Y ) ≤ u1]− P [FY (Y ) ≤ 1− u2]= u1 + u2 − 1.

    Por lo tanto,C(u1, u2) = max(u1 + u2 + 1− 2, 0). (1.19)

    Ejemplo 1.17 . Consideremos el vector X = (U, 1−U) donde U ∼ U(0, 1),entonces, la distrbución de X es una cópula y está dada por la expresión(1.19).

    Una propiedad muy importante de las cópulas, es que son invariantesbajo transformaciones estrictamente crecientes. Recordemos, por ejemplo,el coeficiente de correlación ρ, sabemos que nos da información muy precisaentre las variables aleatorias cuando |ρ| = 1, ya que en este caso nos dice queX1 = aX2 + b para alguna a, b ∈ IR.

    Proposición 1.2 Sea (X1, ..., Xd) un vector aleatorio continuo con marginalescontinuas y cópula C y sean T1, ..., Td funciones estrictamente crecientes. En-tonces (T1(X1), ..., Td(Xd)) tiene también cópula C.

    DemostraciónSea YT == (T1(X1), ..., Td(Xd), FT1 , ..., FTd las distribuciones marginales

    de T1(X1), ..., Td(Xd), respectivamente y FT su distribución conjunta . Porel teorema de Sklar

    CYT (u1, ..., ud) = P [FT1(T1(X1)) ≤ u1, ..., FTd(Td(Xd)) ≤ ud]= P [F1(T

    ←1 (T1(X1))) ≤ u1, ..., Fd(T←d (Td(Xd)) ≤ ud]

    = P [F1(X1) ≤ u1, ..., Fd(Xd) ≤ ud]= CY (u1, ..., ud).

  • 1.4. CÓPULAS DE SUPERVIVENCIA 17

    Teorema 1.6 . Cotas de Fréchet. Para cada cópula C tenemos las sigu-ientes cotas

    max

    {d∑i=1

    ui + 1− d, 0

    }≤ C(u1, ..., ud) ≤ min{u1, ..., ud}. (1.20)

    Demostración. El lado derecho de la desigualdad se sigue de que para todai ∈ {1, ..., d}

    ∩di=1[U ı ≤ ui] ⊂ [Ui ≤ ui] = ui.

    El lado izuierdo de la desigualdad se sigue de

    C(u1, ..., ud) = P [U1 ≤ u1, ..., Ud ≤ ud]= 1− P [U1 > u1, ..., Ud > ud]

    ≥ 1−d∑i=1

    P [Ui > ui] = 1− d+d∑i=1

    ui.

    2

    1.4 Cópulas de Supervivencia

    Definición 1.13 Sea X = (X1, ..., Xd) un vector aleatorio, definimos a lafunción de supervivencia F̄ de X como

    F̄ (x1, ..., xd) = P [X1 > x1, ..., Xd > xd].

    Teorema 1.7 Sea Ĉ la función de distribución de (1−F1(X1), ..., 1−Fd(Xd)).Entonces Ĉ es cópula y

    F̄ (x1, ..., xd) = Ĉ(F̄1(x1), ..., F̄d(xd)).

    Demostración. Claramente Ĉ es una cópula, por otro lado,

    F̄ (x1, ..., xd) = P [X1 > x1, ..., Xd > xd]

    = P [F̄1(X1) ≤ F̄1(x1), ..., F̄d(Xd) ≤ F̄d(xd)]= Ĉ(F̄1(x1), ..., F̄d(xd)).

  • 18 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    Observaciones 1.4 . Si C es una cópula y Ĉ su cópula de supervivencia,tenemos

    C̄(u1, u2) = Ĉ(1− u1, 1− u2) = 1− u1 − u2 + C(u1, u2).

    Ejemplo 1.18 . La cópula de supervivencia Pareto bivariada.

    F̄ (x1, x2) =

    (x1 + κ1κ1

    +x2 + κ2κ2

    − 1)−α

    , x1, x2 ≥ 0, α, κ1, κ2 > 0.

    Claramente las distribuciones y las supervivencias marginales están dadaspor

    F̄i(xi) =

    (κi

    xi + κi

    )α, i = 1, 2,

    F̄−1i (ui) = κiu− 1β

    i − κi, i = 1, 2.

    Por lo tanto, tenemos

    F̄(F̄−11 (u1), F̄

    −12 (u2)

    )=

    (u− 1β

    1 + u− 1β

    2 − 1)−β

    Esta cópula se conoce como la cópula Clayton. Mencionaremos algunaspropiedades de esta cópula, pero antes daremos una descomposición de lacópula.

    (u− 1β

    1 + u− 1β

    2 − 1)−β

    =

    u 1β1 + u 1β2 − u 1β1 u 1β2u

    1 u1β

    2

    −β

    = u1u2

    (u

    1 + u1β

    2 − u1β

    1 u1β

    2

    )−β. (1.21)

    1.

    limβ→0

    (u− 1β

    1 + u− 1β

    2 − 1)−β

    = min{u1, u2}.

    De la expresión (1.21) es suficiente demostrar que

    limβ→0

    (u

    1 + u1β

    2 − u1β

    1 u1β

    2

    )−β=

    1

    max{u1, u2}.

  • 1.4. CÓPULAS DE SUPERVIVENCIA 19

    Sea û = max{u1, u2} y ū = min{u1, u2}, tomando logaritmo tenemos

    − limβ→0

    β log

    (u

    1 + u1β

    2 − u1β

    1 u1β

    2

    )= − lim

    β→0β log

    [û

    (ū

    û1β

    + 1− ū1β

    )]

    = − log û− limβ→0

    β log

    (ū

    û1β

    + 1− ū1β

    )= − log û.

    2

    2.

    limβ→∞

    (u− 1β

    1 + u− 1β

    2 − 1)−β

    = u1u2

    De la expresión (1.21) es suficiente demostrar que

    limβ→∞

    (u

    1 + u1β

    2 − u1β

    1 u1β

    2

    )−β= 1.

    Sea γ = 1β, entonces tomando logaritmo y aplicando la regla de l’hôpital

    tenemos

    limγ→0

    log (uγ1 + uγ2 − u

    γ1u

    γ2)− 1γ = lim

    γ→0−u

    γ1 log u1 + u

    γ2 log u2 − u

    γ1u

    γ2 log(u1u2)

    uγ1 + uγ2 − u

    γ1u

    γ1

    = − log u1 − log u2 + log u1u2 = 0

    2

    Ejemplo 1.19 Sea C la cópula de independencia, entonces

    C̄(u1, ..., ud) = (1−u1) · · · (1−ud), Ĉ(u1, ..., u2) = u1 · · ·ud = C(u1, ..., ud).

    Ejemplo 1.20 Sea (U, ..., U), es decir, un vector con cópula la cota superiorde Fréchet, entonces

    C̄(u1, ..., ud) = P [U > max{u1, ..., ud}] = 1−max{u1, ..., ud},

    Ĉ(u1, ..., ud) = P [1− U ≤ u1, ..., 1− U ≤ ud] = min{u1, ..., ud},

  • 20 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    Ejemplo 1.21 Sea C la cópula de la cota superior de Fréchet, entonces

    C̄(u1, ..., ud) = 1−max{u1, ..., ud},

    Ĉ(u1, ..., ud) = min{u1, ..., ud) = C(u1, ..., ud).

    Ejemplo 1.22 Sea C la cópula de la cota inferior de Fréchet en dimensióndos, es decir, la distribución de (U, 1− U) donde U ∼ U(0, 1). Entonces

    C̄(u1, u2) = max{1− u1 − u2, 0},

    Ĉ(u1, uu) = max{u1 + u2 − 1, 0} = C(u1, u2).

    1.5 Ejercicios

    1. Consideremos una urna con tres bolas numeradas del 1 al 3. Supong-amos que se extrae una muestra de tamaño 2 sin reemplazo. Sea X lavariable aleatoria que denota el número menor de las bolas extráıdas yY el mayor.

    (i) Calcular la función de densidad conjunt de X y Y .

    (ii) Calcular las funciones de densidad marginales de X y Y .

    (iii) Calcular la densidad condicional de Y dado que X = 1, 2, 3.

    2. Se lanzan tres monedas honestas. Sea X la variable aleatoria que de-nota el número de águilas en los dos primeros lanzamientos y Y elnúmero de soles en los dos últimos.

    (i) Calcular la función de densidad conjunta de X y Y .

    (ii) Calcular las funciones de densidad marginales de X y Y .

    (iii) Calcular la densidad condicional de Y dado que X = 0, 1, 2.

    3. Se lanzan dos tetratedros hnestos cuyos lados están numerados del 1 al4. Sea X la variable aleatoria que denota el númenor de las caras quecaen y Y el mayor.

    (i) Calcular la función de densidad conjunt de X y Y .

    (ii) Calcular las funciones de densidad marginales de X y Y .

  • 1.5. EJERCICIOS 21

    (iii) Calcular la densidad condicional de X dado que Y = 1, 2, 3, 4.

    (iv) Calcular P [X ≥ 2, Y ≥ 2].

    4. Consideremos una comunidad en la que el 15 por ciento de las familiasno tienen hijos, el 20 por ciento tiene un hijo, el 35 por ciento dos yel treinta por ciento tiene 3. Supongamos que en ada familia cada hijotiene probabilidad 1/2 de ser niño (niña). Se elige una familia al azarde esta comunidad. Sea (X, Y ) el vecor aleatorio que nota el númerode niños (X), el de niñas (Y ).

    (i) Calcular la función de densidad conjunt de X y Y .

    (ii) Calcular las funciones de densidad marginales de X y Y .

    (iii) Calcular las densidades condicionales de X dado que Y = y y deY dado X = x respectivamente , x, y ∈ IR.

    5. Supongamos que el número de eventos que ocurren en un intervalo detiempo fijo es una variable aleatoria Poisson con parámetro λ > 0 ycada evento es clasificado (independientemente de los demás) del tipoi con probabilidad pi, i = 1, ..., n,

    ∑ni=1 pi = 1. Para cada i = 1, ..., n

    sea Xi el número de eventos del tipo i que ocurren en el intervalo dado.Calculra la función de densidad conunta de X1, ..., Xn.

    6. Se sabe que en un lote de 5 focos se tienen dos defectuosos. Se pruebanal azar uno a uno para identificar los defectuosos. Sea N1 el número depruebas necesarias hasta que se obtiene el primer foco defectuoso y N2las pruebas adicionales para obrener el segundo foco defectuoso.

    (i) Calcular la función de densidad conjunta de N1 y N2.

    (ii) Calcular las funciones de densidad marginales de N1 y N2.

    (iii) ¿Las variables aleatorias N1 y N2 son independientes?.

    7. Consideremos una sucesión de ensayos Bernoulli independientes conprobabilidad de éxito igual a p. Sea X el número de fracaso antesdel primer éxito y Y el número de fracaso entre el primer éxito y elsegundo.

    (i) Calcular la función de densidad conjunta de X y Y .

    (ii) Calcular las funciones de densidad marginales de X y Y .

  • 22 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    (iii) ¿Las variables aleatorias X y Y son independientes?.

    8. Se sabe que en una tienda de computadoras, el 45 por ciento de losclientes que entran compran una PC, el 15 por ciento una MaC y el 40por ciento sólo mira. Si entran 5 clientes a la tienda en un d́ıa ¿cuáles la probabilidad de que exactamente dos compren una PC y uno unaMaC.?

    9. Consideremos un disco de radio R con centro en el origen y supongamosque elegimos al azar un punto en el disco de tal manera que todas lasregiones con la misma área tienen la misma probabilidad. Sean (X;Y )las coordenadas cartesianas del punto elegido..

    (i) Calcular la función de densidad conjunt de X y Y .

    (ii) Calcular las funciones de densidad marginales de X y Y .

    (iii) Calcular las densidades condicionales de X dado que Y = y y deY dado X = x respectivamente, x, y ∈ IR.

    10. Sean A,B ∈ (0, 1). Calcular la probabilidad de que la ecuación:

    x2 + 2Ax+B = 0

    tenga ráıces reales en los dos casos siguientes:

    (i) A y B se eligen independientemente con distribución uniforme.

    (ii) La función de densidad conjunta de A y B está dada por:

    f(A,B)(a, b) =

    {32(a2 + b2), si a, b,∈ (0, 1),

    0, en otro caso.

    11. Sea X y Y variables aleatorias con función de distribución conjuntaF(X,Y ) dada por:

    F(X,Y )(x, y) =

    0, si x ó y ≤ 0,x(1− θ)y, si 0 < y < x < 1,y(1− θ)x, si 0 < x < y < 1,x, si |x| < 1, y > 1,y, |y| < 1, x > 1,1, si x, y > 1

    donde 0 ≤ θ ≤ 1 es un parámetro.

  • 1.5. EJERCICIOS 23

    Calcular las funciones de distribución marginales de X y Y .

    (ii) Demostrar que si θ = 0 X y Y son independientes.

    (iii) Demostrar que si θ = 1 entonces P [X = Y ] = 1

    12. Sea (X, Y ) un vector aleatorio continuo con función de densidad con-junta fX,Y dada por:

    fX,Y (x, y) =

    {12(x+ 2y), si x, y ∈ (0, 2),

    0, en otro caso.

    (i) Calcular la función de distribución conjunta.

    (ii) Calcular las funciones de densidad marginales de X y Y respecti-vamente.

    (iii) Calcular la densidad condicional de Y dado X + x para cadax ∈ R.

    (iv) Aún cuando X y Y NO SON INDEPENDIENTES, existe un valorparticular x ∈ R tal que la distribución condicional de Y dadoX = x no depende de x. Encontrar ese valor.

    13. Demostrar que la función

    F (x, y) =

    {0, si x+ y < 0,1, en otro caso.

    No es una función de distribución.

    14. Sea F una función distribución. Las funciones G : R2 → R definidasen los siguientes incisos, ¿ son funciones distribución?. Si lo son,demuéstrelo, si no lo son de una demostración o un contraejemplo.

    (i) G(x, y) = F (x) + F (y).

    (ii) G(x, y) = max{F (x), F (y)}.(iii) G(x, y) = min{F (x), F (y)}.

    15. Sean FX,Y , FX , FY las funciones de distribución de (X, Y ), X y Yrespectivamente. Demuestre que para todo x, y ∈ R:

    FX(x) + FY (y)− 1 ≤ FX,Y (x, y) ≤√FX(x)FY (y).

  • 24 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    16. Sean f1 y f2 dos funciones de densidad continuas con funciones dedistribución F1 y F2 respectivamente. Para cada α ∈ [0, 1] definimos

    fα(x1, x2) = f1(x1)f2(x2){1 + α[2F1(x1)− 1][2F2(x2)− 1]}.

    (i) Demuestre que fα es una función de densidad conjunta.

    (ii) Demuestre que las funciones de densidad marginales de fα soniguales a f1 y f2.

    Obsérvese que en este ejemplo se tiene una familia infinita de vectoresaleatorios (Xα1 , X

    α2 ) con distinta densidad conjunta ( y por lo tanto dis-

    tinta distribución conjunta) y las mismas densidades marginales (dis-tribuciones marginales). En otras palabras, este ejemplo muestra quelas densidades (distribuciones) marginales no determinan la densidad(distribución) conjunta.

    17. Sea Sea X2 una variable aleatoria Poisson con parámetro λ > 0. Supon-gamos que la densidad condicional de X1 dado que X2 = x2 es Binomialcon parámetros x2 y p.

    (i) Calcular la densidad conjunta de X1 y X2.

    (ii) Calcular la densidad de X1.

    18. Sea (X1, X2) un vector aleatorio continuo con densidad conjunta dadapor:

    fX1,X1(x1, x2) = 3(x1 + x2)II(0,1)(x1 + x2)II(0,1)(x1)II(0,1)(x2).

    (i) Calcular las densidades marginales de X1 y X2.

    (ii) Calcular las densidades condicionales de X1 dado X2 = x2 y deX2 dado X1 = x1 para toda x1, x2 ∈ R.

    (iii) ¿Las variables X1 y X2 son independientes?

    19. Sea (X1, X2) un vector aleatorio continuo con densidad conjunta dadapor:

    fX1,X1(x1, x2) = 2II(0,x2)(x1)II(0,1)(x2).

    (i) Calcular las densidades marginales de X1 y X2.

  • 1.5. EJERCICIOS 25

    (ii) Calcular las densidades condicionales de X1 dado X2 = x2 y deX2 dado X1 = x1 para toda x1, x2 ∈ R.

    (iii) ¿Las variables X1 y X2 son independientes?

    20. Sea (X1, X2) un vector aleatorio discreto con densidad conjunta dadapor:

    fX1,X1(x1, x2) =

    n!

    x1!x2!(n−x1−x2)!px1qx2(1− p− q)n−x1−x2 , si x1, x2 ∈ {0, ..., n}

    y x1 + x2 ≤ n,0, en otro caso.

    donde p > 0, q > 0, p+ q ≤ 1.

    (i) Calcular las densidades marginales de X1 y X2.

    (ii) Calcular las densidades condicionales de X1 dado X2 = x2 y deX2 dado X1 = x1 para toda x1, x2 ∈ R.

    (iii) ¿Las variables X1 y X2 son independientes?

    Esta densidad es llamada trinomial.

    21. Sea (X1, X2) un vector aleatorio continuo con densidad conjunta dadapor:

    fX1,X1(x1, x2) =

    √3

    4πexp−(x

    21−x1x2+x22), x1, x2 ∈ R.

    (i) Calcular las densidades marginales de X1 y X2.

    (ii) Calcular las densidades condicionales de X1 dado X2 = x2 y deX2 dado X1 = x1 para toda x1, x2 ∈ R.

    (iii) ¿Las variables X1 y X2 son independientes?

    22. En cada uno de los siguientes casos diga si as funciones FX1,X2 sonfunciones de distribución conjunta. Si lo son especifique si correspon-den o no a funciones de distribución de vectores discretos o continuos.En caso de que esto ocurra, encuentre las funciones de densidad con-junta, las condicionales y las marginales. Diga si las variables aleatoriasX1, X2 son independientes.

  • 26 CAPÍTULO 1. RESUMEN DISTRIBUCIONES

    (i)

    FX1,X2(x1, x2) =

    0, si x1 < 0 ó x2 < 0,x1, si 0 ≤ x1 < 1, x1 ≤ x2,x2, si 0 ≤ x2, x2 ≤ x1,1, si 1 ≤ x1, x2.

    (ii)

    FX1,X2(x1, x2) =

    0, si x1 < 0 ó x2 < 0,x2, si x1 ≥ 0, 0 ≤ x2 < 1,1, si x1 ≥ 0, x2 ≥ 1.

    (iii)

    FX1,X2(x1, x2) =

    0, si x1 < 0 ó x2 < 0,x1 + x2, si 0 ≤ x1, 0 ≤ x2, x1 + x2 < 11, si 0 ≤ x1, 0 ≤ x2, x1 + x2 ≥ 1.

    23. Sea (X1, X2) un vector aleatorio con función de densidad conjunta

    fX1,X2(x1, x2) =

    {exp−(x1+x2), si x1, x2 > 0,0, en otro caso .

    Calcular:

    (i) P [X1 < X2|X > 2].(ii) P [X1 > 1, X2 > 1].

    (iii) P [X1 > X2].

    (iv) P [X1 = X2].

  • Caṕıtulo 2

    Resumen de Momentos deFunciones de VectoresAleatorios

    El material de este caṕıtulo es como en el anterior un resumen de los re-sultados sobre Momentos de Funciones de Vectores Aleatorios. Se incluyeuna discusión m’as completa de la que aparece en los libros introductorios deProbabilidad sobre Correlación y Dependencia de Variables Aleatorias y unasección adicional sobre Concordancia, Dependencia y Cópulas, material quees tomado del libro Quantitative Risk Management de MCNeal, A., Frey, R.,Embrechts, P.

    2.1 Esperanza de Funciones de Vectores Aleato-

    rios

    Definición 2.1 Sea X = (X1, ..., Xn) un vector aleatorio (absolutamentecontinuo o discreto) con función de densidad conjunta fX y g : R

    n → Rtal que Z = g(X1, ..., Xn) es una variable aleatoria. Diremos que Z tieneesperanza finita si

    1. ∑x1,...,xn

    |g(x1, ..., xn)|fX(x1, ..., xn)

  • 28 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    2. ∫ ∞−∞· · ·∫ ∞−∞|g(x1, ..., xn)|fX(x1, ..., xn)dxx · · · dxn

  • 2.2. CORRELACIÓN Y DEPENDENCIA DE VARIABLES ALEATORIAS29

    Definición 2.2 Sean X y Y variables aleatorias con segundo momento finito.

    1. La covarianza de X y Y denotada Cov[X, Y ] (o σXY ), está definidapor:

    Cov[X, Y ] = E[(X − E[X])(Y − E[Y ])].

    2. El coeficiente de correlación, denotado ρ(X, Y ) de X, Y está definidopor:

    ρ(X, Y ) =Cov[X, Y ]

    σXσY,

    donde σ2X , σ2Y son la varianza de X y Y respectivamente.

    Proposición 2.1 Sean X1, X2 v.a. con segundo momento finito. Entonces|ρ(X1, X2)| ≤ 1., además |ρ(X1, X2)| = 1 si y sólo si existen constantesa, b ∈ IR tales que P [X1 = a+ bX2] = 1.

    Proposición 2.2 Sean X1, ..., Xn variables aleatorias independientes con se-gundo momento finito. Entonces la Cov(Xi, Xj), i 6= j, i, j = 1, ..., n existey

    Cov(Xi, Xj) = 0,

    V ar[X1 + · · ·Xn] =n∑i=1

    V ar[Xi].

    El rećıproco de este Corolario no es en general válido, es decir si la Cov(Xi, Xj) =0 esto no implica que las variables aleatorias sean independientes.

    Si X1, X2 son variables aleatorias tales que Cox(X1, X2) = 0 diremos queX1 y X2 son no correlacionadas.

    2.2 Correlación y Dependencia de Variables

    Aleatorias

    Lema 2.1 Propiedades del Coeficiente de Correlación.

    1. Si X1, X2 son v.a.i., entonces ρ(X1, X2) = 0.

    2. |ρ(X1, X2)| = 1si y sólo si existen a, b ∈ IR tales que P [X1 = a+bX2] =1.

  • 30 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    3. Dados b1, b2 > 0 y a1, a2 ∈ IR

    ρ(X1, X2) = ρ(a1 + b1X1, a2 + b2X2).

    El rećıproco de la Propiedad 2 es falso como puede verse en el siguienteejemplo:

    Ejemplo 2.1 Sea X ∼ N(0, 1) y consideremos el vector (X1, X21 ), entonces

    Cov(X1, X21 ) = E[X

    31 ] = 0.

    El coeficiente de correlación, en general, no es invariante bajo transfor-maciones crecientes (no lineales) como puede verse en el siguiente ejemplo:

    Ejemplo 2.2 Sea X1 ∼ N(0, 1) y consideremos los vectores (X1, X1) y(X1, X

    31 ), entonces,

    ρ(X1, X1) = 1, ρ(X1, X31 ) =

    3√15

    < 1.

    Falacia 1 Las distribuciones marginales y la correlación determinan la dis-tribución.

    Ejemplo 2.3 Sean X1, X2 v.a. N(0, 1) con ρ(X1, X2) = 0.

    Modelo I X1, X2 v.a.i.

    Modelo II. Sea X1 ∼ N(0, 1) y V una v.a. independiente de X1 discretatal que P [V = 1] = P [V = −1] = 1

    2. Entonces (X1, V X1) es un vector

    aleatorio con marginales Gaussianas estándar y coeficiente de correlación 0.

    Cov(X1, V X1) = E[V X21 ] = E[V ]E[X

    21 ] = 0.

    P [V X1 ≤ x1] = P [X1 ≤ x1, V = 1] + P [−X1 ≤ x1, V = −1]

    =1

    2P [X1 ≤ x1] +

    1

    2P [−X1 ≤ x1] = P [X1 ≤ x1].

    Examinaremos las colas de la distribución de la suma de las variables aleatoriaen los Modelos I y II.

    1. X1, X2 ∼ N(0, 1) independientes y sea k > 0, entonces

    P [X1 +X2 > k] = Φ̄

    (k√2

    ).

  • 2.2. CORRELACIÓN Y DEPENDENCIA DE VARIABLES ALEATORIAS31

    2.

    P [X1 + V X1 > k] =1

    2P [2X1 > k] +

    1

    2P [0 > k] =

    1

    2Φ̄

    (k

    2

    ).

    Falacia 2 Dadas distribuciones marginales F1, F2 y cualquier coeficiente decorrelación ρ ∈ [−1, 1] siempre es posible construir una distribución con-junta F con marginales F1, F2 y coeficiente de correlación ρ. En general lascorrelaciones alcanzadas son un subconjunto de de [−1, 1].

    Lema 2.2 Sean X1, X2 v.a. con covarianza finita, función de distribuciónF y marginales F1 y F2 respectivamente, entonces

    Cov(X1, X2) =

    ∫ ∞−∞

    ∫ ∞−∞

    (F (x1, x2)− F1(x1)F2(x2))dx1dx2. (2.1)

    Demostración. Usaremos una técnica de acoplamiento. Sea(X̄1, X̄2) unacopia independiente de (X1, X2), demostraremos primero que

    2Cov(X1, X2) = Cov(X1 − X̄1, X2 − X̄2)

    Claramente

    Cov(X1 − X̄1, X2 − X̄2) = E[(X1 − X̄1)(X2 − X̄2)]= E[X1X2]− E[X̄1X2]− E[X1X̄2] + E[X̄1X̄2]= 2Cov(X1, X2)

    Para a, b ∈ IR, tenemos

    a− b =∫ ∞−∞

    [II[b≤x] − II[a≤x]

    ]dx.

    Aplicando esta relación a las v.a. (X1 − X̄1 y X2 − X̄2, de (2.1) tenemos

    2Cov(X1, X2)

    = E

    (∫ ∞−∞

    ∫ ∞−∞

    [II[X̄1≤x1] − II[X1≤x1]

    ] [II[X̄2≤x2] − II[X2≤x2]

    ]dx1dx2

    )= 2

    ∫ ∞−∞

    ∫ ∞−∞

    (P [X1 ≤ x1, X2 ≤ x2]− P [X1 ≤ x1]P [X2 ≤ x2]) dx1dx2.

    2

  • 32 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    Definición 2.3 Diremos que X1 y X2 son del mismo tipo si existen a ∈IR, b > 0 tales que X1 y a+ bX2 tienen la misma distribución.

    Teorema 2.4 Sean X1, X) v.a. con segundo momento finito estrictamentepositivo y distribuciones F1, F2 respectivamente y distribución conjunta sinespecificar. Entonces

    1. Las posibles correlaciones pertenecen al intervalo [ρmin, ρmax], dondeρmin < 0 y ρmax > 0.

    2. La correlación ρ = ρmin si y sólo si X1 y X2 son countermonotonic yρ = ρmax si y sólo si son comonotónicas.

    3. ρmin = −1 si y sólo si existen a ∈ IR, b < 0 tales que X1 y −X2 son delmismo tipo. ρmax = 1 si y sólo si X1 y X2 son del mismo tipo.

    DemostraciónDe las cotas de Fréchet y la expresión (2.1), se sigue la propiedad2 ya que los valores máximo y mı inimo que puede tomar la covarianza estándados por las cotas de Fréchet. Por otro lado ρmax ≥ 0, pero ya que ρmax = 0sólo ocurre cuando la cota superior es igual al producto, es decir

    min{F1(x1), F2(x2)} = F1(x1)F2(x2).

    Esto sólo puede ocurrir si son cero o uno, que seŕıa el caso degenerado.Con la cota inferior, tenemos ρmin < 0 , ya que si fuera igual a cero

    tendŕıamos:

    F1(x1) + F2(x2)− 1 = F1(x1)F2(x2),F1(x1)[1− F2(x2)] = 1− F2(x2)

    Finalmente tenemos que demostrar que podems construir una funciónde distribución conjunta con coeficiente de correlación ρ para cada ρ ∈[ρmin, ρmax]. Esta la construimos como una combinación convexa λW (F1, F2)+(1− λ)M(F1, F2)

    W (F1(x1), F2(x2)) = F1(x1)+F2(x2)−1, M(F1(x1), F2(x2)) = ‖min{F1(x1), F2(x2)

    es decir con las cópulas de las cotas de Fréchet. El coeficiente de correlaciónestaŕıa dado por

    λρmin + (1− λ)ρmax

    λ =ρmax − ρρmax − ρmin

    .

  • 2.3. CONCORDANCIA, DEPENDENCIA Y CÓPULAS 33

    Ejemplo 2.4 Correlaciones Alcanzables para v.a. lognormales. Sean X1 =eZ1 , X2 = e

    Z2, donde Z1 ∼ N(0, 1) y Z2 ∼ N(0, σ2). Claramente, X1 y X2no son del mismo tipo, ni tampoco X1 y −X2.

    Supongamos que tienen distribución conjunta dada por :

    F (x1, x2) = min{F1(x1), F2(x2)}.

    Entonces, sabemos que si U ∼ U(0, 1), entonces

    (X1, X2)D= (F−11 (U), F

    −12 (U)).

    Basta calcular las inversas

    F1(x1) = P [eZ1 ≤ x1] = P [Z1 ≤ log x1] = FZ1(log x1),

    F−11 (u1) = exp(F−1Z1

    (u1)) = exp(Φ−1(u1)).

    F−12 (u2) = exp(F−1Z2

    (u2)) = exp(σΦ−1(u2)).

    2.3 Concordancia, Dependencia y Cópulas

    El concepto de concordancia y de medidas de concordancia es común enel tema de dependencia de variables aleatorias. La palabra concordancia,significa conformidad de una cosa con otra, en particular si tenemos dosparejas de números reales (x1, y1), (x2, y2), tales que x1 6= x2, y1 6= y2diremos que son concordantes si x1 < x2 y y1 < y2 ó x1 > x2 y y1 > y2.En otras palabras si x1 − x2 y y1 − y2 tienen el mismo signo, es decir, si(x1−x2)(y1−y2) > 0. Diremos que son discordantes si (x1−x2)(y1−y2) < 0.

    Diremos consideremos n parejas de números reales (xi, yi), i = 1, ..., n.Nos interesa tener una medida de la concordancia. Ya que la concordanciaestá definida por parejas, una posible medida seŕıa la diferencia del númerode parejas concordantes y discordantes. Esta medida es engañosa ya quedepende del número de parejas n. Por lo que sugerimos medir la concordanciacomo sigue: Sea c el número de parejas concordantes y d el de discortantes,entonces una medida de la concordancia está dada por:

    c− dc+ d

    =c

    c+ d− dc+ d

    .

  • 34 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    Cada uno de los términos del lado derecho está entre 0 y 1, y los podemosinterpretar en términos de la probabilidad clásica pues es igual al número decasos favorables entre el número de casos totales. Inspirados en esta idea, sehan definido medidas de concordancia para vectores aleatorios. Estaremosinteresados en definir medidas de concordancia, cuando los vectores aleatoriostienen las mismas marginales.

    Definición 2.4 Sean (X1, Y1), (X2, Y2) vectores aleatorios con distribuciónconjunta G y H, respectivamente y distribuciones marginales F1 y F2 con-tinuas comunes. Definimos la medida de concordancia Q como siue:

    Q(G,H) = P [(X1 −X2)(Y1 − Y2) > 0]− P [(X1 −X2)(Y1 − Y2) < 0] (2.2)

    Proposición 2.3 Sean (X1, Y1), (X2, Y2) vectores aleatorios con distribuciónconjunta G y H, respectivamente y distribuciones marginales F1 y F2 con-tinuas comunes. Supongamos que (X1, Y1) y (X2, Y2) son independientes,entonces

    Q = E[signo[(X1 −X2)(Y1 − Y2)]] = Cov[signo(X1 −X2), signo(Y1 − Y2)].(2.3)

    Demostración Claramente, tenemos

    signo[(X1 −X2)(Y1 − Y2)]] = signo[(X1 −X2)]signo[(Y1 − Y2)]],

    por otro lado, ya que los vectores tienen marginales comunes, tenemos

    E[sign(Xi − Yi)] = 0, i = 1, 2.

    De donde se obtiene el resultado.2

    Teorema 2.5 Sean (X1, Y1), (X2, Y2) dos vectores aleatorios independientes,con función de distribución G,H y cópula C1, C2, respectivamente, tales que

    • X1, X2 son v.a. continuas e idénticamente distribuidas con distribuciónF1.

    • Y1, Y2 son v.a. continuas e idénticamente distribuidas, con distribuciónF2.

  • 2.3. CONCORDANCIA, DEPENDENCIA Y CÓPULAS 35

    Entonces la medida de concordancia dada por (2.2) satisface

    Q(G,H) = Q(C1, C2) = 4

    ∫ 10

    ∫ 10

    C2(u, v)dC1(u, v)− 1. (2.4)

    Demostración. Dado que las v.a. son continuas tenemos que

    P [(X1 −X2)(Y1 − Y2) < 0] = 1− P [(X1 −X2)((Y1 − Y2) > 0].

    Por lo tanto,

    Q = 2P [(X1 −X2)(Y1 − Y2) > 0]− 1.

    Por otro lado, tenemos que

    [(X1 −X2)(Y1 − Y2) > 0] = [X1 > X2, Y1 > Y2] ∪ [X1 < X2, Y1 < Y2]

    P [X1 > X2, Y1 > Y2]

    =

    ∫ ∞−∞

    ∫ ∞−∞

    P [X1 > X2, Y1 > Y2 |X1 = x1, Y1 = y1]dG(x1, y1)

    =

    ∫ ∞−∞

    ∫ ∞−∞

    P [X2 ≤ x1, Y2 ≤ y1 |X1 = x1, Y1 = y1]dG(x1, y1)

    =

    ∫ ∞−∞

    ∫ ∞−∞

    P [X2 ≤ x1, Y2 ≤ y1]dG(x1, y1)

    =

    ∫ ∞−∞

    ∫ ∞−∞

    H(x1, y1)dG(x1, y1)

    =

    ∫ ∞−∞

    ∫ ∞−∞

    C2(F1(x1), F2(y1))dC1(F1(x1), F2(y1)) (2.5)

    Haciendo la transormación u = F1(X1), v = F2(y1) obtenemos

    P [X1 > X2, Y1 > Y2) > 0] =

    ∫ 10

    ∫ 10

    C2(u, v)dC1(u, v). (2.6)

    De la misma manera, tenemos

    P [X1 > X2, Y1 > Y2]

    =

    ∫ ∞−∞

    ∫ ∞−∞

    P [X2 > x1, Y2 > y1]dG(x1, y1)

  • 36 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    =

    ∫ ∞−∞

    ∫ ∞−∞

    [1− F1(x1)− F2(y1)− C2(F1(x1), F2(y1))dC1(F1(x1), F2(y1)

    =

    ∫ 10

    ∫ 10

    (1− u− v + C2(u, v))dC1(u, v)

    =

    ∫ 10

    ∫ 10

    C2(u, v)dC1(u, v). (2.7)

    Donde, la última igualdad se sigue de que la esperanza de una variable aleato-ria Uniforme en (0, 1) es igual a un medio.

    Definición 2.5 La τ de Kendal. Sea (X1, Y1) un vector aleatorio con dis-tribución conjunta G, marginales continuas, cópula C y (X2, Y2) una copiaindependiente. Definimos la τ de Kendall como la medida Q para esta parejade vectores aleatorios, es decir,

    ρτ (X1, Y1) = τ(X1, Y1) = τ(X2, Y2) = Q(C,C) = 4

    ∫ 10

    ∫ 10

    C(u, v)dC(u, v)−1.

    (2.8)

    Teorema 2.6 Sea (X1, Y1) un vector aleatorio con cópula C. Entonces

    1. τ(X1, Y1) = 1 si y sólo si C = M .

    2. τ(X1, Y1) = −1 si y sólo si C = W .

    3. Si X1, Y1 son independientes, entonces τ(X1, Y1) = 0.

    Al igual que en el caso del coeficiente de corelación el rećıproco de la propiedad3 no es válido en general, como puede verse en el siguiente ejemplo:

    Ejemplo 2.5 TAREA buscarlo.

    Definición 2.6 Sea (X1, Y1) un vector aleatorio un vector aleatorio con dis-tribución conjunta G, marginales F1, F2 continuas y cópula C1 y (X2, Y2) unvector aleatorio independiente de (X1, Y1) , tal que X2, Y2 son independientescon marginales F1, F2. Definimos la ρS de Spearman

    ρS(X1, Y1) = 3Q(G,F1F2) = Q(C1,Π) (2.9)

    Proposición 2.4 Sea (X1, Y1) un vector aleatorio con cópula C1 y marginalescontinuas F1, F2, entonces

  • 2.4. ESPERANZA CONDICIONAL 37

    1. ρS(X1, Y1) = 1 si y sólo si C1 = M

    2. ρS(X1, Y1) = −1 si y sólo si C1 = W .

    3.

    ρS(X1, Y1) = ρ(F1(X1), F2(Y1)).

    Demostración La demostración se sigue inmediatamente de las cotas de Fréchety de la cópula de (F1(X1), F2(X2)).

    2

    2.4 Esperanza Condicional

    En esta sección consideraremos X = (X1, ..., Xn) un vector aleatorio, deno-taremos por Y1 y Y2 a los vectores (X1, ..., Xk) y (Xk+1, ..., Xn) respectiva-mente.

    Definición 2.7 Sea X = (X1, ..., Xn) un vector aleatorio (discreto o abso-lutamente continuo) y g : Rn → R una función tal que Z = g(X1, ..., Xn) esvariable aleatoria. Supongamos que Z tiene esperanza finita. Definimos a laesperanza condicional de Z dado que X1 = x1, ..., Xk = xk por:

    1.

    E[Z|X1 = x1, ..., Xk = xk]=

    ∑xk+1,...,xn

    g(x1, ..., xn)fY2|Y1(xk+1, ..., xn|x1, ..., xn).

    Si X es un vector aleatorio discreto.

    2.

    E[Z|X1 = x1, ...Xk =, xk]

    =

    ∫ ∞−∞· · ·∫ ∞−∞

    g(x1, ..., xn)fY2|Y1(xk+1, ..., xn|x1, ..., xn)dxk+1 · · · dxn.

    si X es un vector absolutamente continuo.

  • 38 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    Obsérvese que si fY1(x1, ..., xk) > 0, la E[Z|X1 = x1, ..., Xk = xk] no es otracosa que la esperanza de g(x1, ..., xk, Xk+1, .., Xn) con respecto a la densidadcondicional, por lo que hereda las propiedades de la esperanza.

    Las siguientes definiciones se refieren a vectores aleatorios que no son nidiscretos ni absolutamente continuos.

    Definición 2.8 Sea X = (X1, ..., Xn) un vector aleatorio y g : Rn → R una

    función tal que Z = g(X1, ..., Xn) es variable aleatoria. Sea Y1 = (X1, ..., Xk)un vector aleatorio discreto y dado que X1 = x1, ..., Xk = xk el vector aleato-rio Y2 = (Xk+1, ..., Xn) es absolutamente continuo con función de densidadfY2|Y1 para cada x1, ..., xk tal que fY1(x1, ..., xk) > 0.

    Sea fY2|Y1(xk+1, ..., xn|x1, ..., xk) = 0 si fY1(x1, ..., xk) = 0.

    1. Decimos que Z tiene esperanza finita si∑(x1,...,xk)

    [∫IRn−k

    |g(x1, ...xn)|fY2|Y1(xk+1, ..., xn|x1, ..., xk)dxk+1 · · · dxn]

    ·fY1(x1, ..., xk) 0.

    Sea fY2|Y1(xk+1, ..., xn|x1, ..., xk) = 0 si fY1(x1, ..., xk) = 0.

  • 2.4. ESPERANZA CONDICIONAL 39

    1. Decimos que Z tiene esperanza finita si

    ∫IRk

    ∑(xk+1,...,xn)

    |g(x1, ...xn)|fY2|Y1(xk+1, ..., xn|x1, ..., xk)

    ·fY1(x1, ..., xk)dx1 · · · dxk

  • 40 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    1. Para cada a1, ..., an ∈ R,

    E[n∑i=1

    aiZi|X1 = x1, ..., Xk = xk] =n∑i=1

    aiE[Zi|X1 = x1, ..., Xk = xk].

    2. Para cada a1, ..., an ∈ R,

    E[n∑i=1

    aiZi|X1, ..., Xk] =n∑i=1

    aiE[Zi|X1, ..., Xk].

    3. E[Zi] = E[E[Zi|X1, ..., Xk]].

    Teorema 2.8 Sean X y Y variables aleatorias independientes y g : R2 → Runa función tal que Z = g(X, Y ) es una variable aleatoria con esperanzafinita, entonces si fX(x) > 0,

    1.

    E[g(X, Y )|X = x] = E[g(x, Y )], E[g(x, Y )|X] = E[g(x, Y )] ◦X.

    2. Si g(x, y) = g1(y).

    E[g1(Y )|X = x] = E[g1(Y )], E[g1(Y ) | X] = E[g1(Y )].

    3. Si g(x, y) = g1(x)g2(y), tenemos

    E[g1(X)g2(Y )|X = x] = g1(x)E[g2(Y )],E[g1(X)g2(Y )|X] = g(X)E[g2(Y )].

    Definición 2.11 Varianza Condicional. Sea Y una variable aleatoria consegundo momento finito. Definimos la varianza condicional de Y dado queX = x por:

    V ar[Y |X = x] = E[Y 2|X = x]− (E[Y |X = x])2.

    Análogamente a lo anterior, la varianza condicional de Y dado X estarádada por:

    V ar[Y |X] = E[Y 2|X = x] ◦X − (E[Y |X = x])2 ◦X = E[Y 2|X]− (E[Y |X])2

  • 2.4. ESPERANZA CONDICIONAL 41

    Teorema 2.9 Sea Y una variable aleatoria con segundo momento finito.Entonces:

    V ar[Y ] = E[V ar[Y |X]] + V ar[E[Y |X]]

    Teorema 2.10 Sean X y Y variables aleatorias, supongamos que Y tienesegundo momento finito. Entonces, para cada función g : R → R tal queg(X) es variable aleatoria, se tiene:

    E[(Y − g(X))2] ≥ E[(Y − E[Y |X])2].

    La igualdad se satisface si y sólo si g(X) = E[Y |X].

    Corolario 2.1 Sea Y una variable aleatoria con segundo momento finito.Entonces

    V ar[Y ] ≥ V ar[E[Y |X]].

    La igualdad se satisface si y sólo si Y = E[Y |X].

    Ejemplo 2.6 Sea (Ui)i≥1 una sucesión de v.a.i.i.d. Uniformes sobre (0, 1) ypara cada x ∈ (0, 1) sea

    N(x) = inf{n ≥ 1|n∑i=1

    Ui ≥ x}

    Calcular E[N(x)].

    Sea m(x) = E[N(x)]

    m(x) = E[E[N(x)| U1]] = E[E[N(x)|U1 = y] ◦ U1] =∫ 1

    0

    E[N(x)|U1 = y]dy.

    E[N(x)|U1 = y] = E[min{n ≥ 1|n∑i=1

    Ui ≥ x}|U1 = y]

    = E[min{n ≥ 1|y +n∑i=2

    Ui ≥ x}vertU1 = y]

    = E[min{n ≥ 1|n∑i=2

    Ui ≥ x− y}] por independencia

  • 42 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    E[min{n ≥ 1|n∑i=2

    Ui ≥ x− y}] ={

    1, si y > x,1 + E[N(x− y)], si y ≤ x.

    Entonces

    m(x) =

    ∫ x0

    (1 +m(x− y))dy +∫ 1x

    dy

    = 1 +

    ∫ x0

    m(x− y)dydy

    = 1−∫ 0x

    m(u)du = 1 +

    ∫ x0

    m(u)du.

    Por lo tanto,m′(x) = m(x),

    m′(x)

    m(x)= 1

    ln(m(x) = x+ c, m(x) = kex,

    Ejemplo 2.7 Sean X1, ..., Xn variables aleatorias independientes idénticamentedistribuidas y Sn =

    ∑ni=1 Xi. Calcular E[Sn−1|Sn]. Sugerencia: Calcular

    E[Xi|Sn]

    Sn = E[Sn|Sn]

    =n∑i=1

    [Xi|Sn]

    = nE[X1|Sn].

    Por lo tanto E[Xj|Sn] = Snn para toda 1 ≤ j ≤ n y

    E[Sn−1|Sn] =n− 1n

    Sn

    2.5 Función Generadora de Momentos Con-

    junta

    Al igual que en el caso de variables aleatorias la función generadora de mo-mentos conjunta caracteriza a la función de distribución conjunta y de éstase pueden obtener los momentos de la forma E[Xni X

    kj ].

  • 2.5. FUNCIÓN GENERADORA DE MOMENTOS CONJUNTA 43

    Definición 2.12 Sea X = (X1, ..., Xn) un vector aleatorio, definimos lafunción generadora de momentos conjunta MX por:

    MX(t1, ..., tn) = E

    [exp

    (n∑i=1

    tiXi

    )],

    si la esperanza existe para todo t1, ..., tn tales que ti ∈ (−h, h) para algunah > 0, i = 1, ..., n.

    Teorema 2.11 Propiedades de la Función Generadora Conjunta.

    1. Sean X = (X1, ..., Xn) y Y = (Y1, ..., Yn) dos vectores aleatorios. Sipara alguna h > 0 y ti ∈ (−h, h), i = 1, ..., n,

    MX(t1, ..., tn) = MY (t1, ..., tn)

    entonces X y Y tienen la misma distribución.

    2. Si X = (X1, ..., Xn) es un vector aleatorio tal que la función gene-radora de momentos conjunta existe entonces, XriX

    kj tiene esperanza

    finita para toda i, j ∈ {1, ..., n}, y para toda r, k ≥ 1. Además

    E[XriXkj ] = lim

    ti→0, i=1,...,n

    ∂r+k

    ∂tri∂tkj

    MX(t1, ..., tn)

    3. Si X = (X1, ..., Xn) es un vector aleatorio con función generadora con-junta MX , entonces existe la función generadora de cada una de lasvariables aleatorias Xi, i = 1, ..., n y

    MXi(ti) = MX(0, ..., 0, ti, 0, ..., 0) = limtj→0,j 6=i

    MX(t1, ..., tn).

    4. Si X1, ..., Xn son variables aleatorias independientes con función gener-adora MXi entonces el vector aleatorio X = (X1, ..., Xn) tiene funcióngeneradora y

    MX(t1, ..., tn) =n∏i=1

    MXi(ti).

  • 44 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    2.6 Ejercicios

    1. Sean X y Y variables aleatorias con función de densidad conjunta dadapor:

    fX,Y (x, y) = 3(x+ y)11(0,1)(x+ y)11(0,1)(x)11(0,1)(y).

    (a) Calcular Cov[X, Y ].

    (b) Calcular E[Y |X = x] y E[X|Y = y].(c) Calcular E[Y |X] y E[X|Y ].

    2. Sean X y Y variables aleatorias tales que la función de densidad de Xestá dada por:

    fX(x) =

    {x3, si x = 1, 2,

    0, en otro caso.

    Supongamos que la densidad condicional de Y dado que X = x, es unadensidad Binomial con parámetros p = 1/2 y n = x, x = 1, 2.

    (a) Calcular E[X] y V ar[X].

    (b) Calcular E[Y ].

    3. Sean X y Y variables aleatorias con función de densidad conjunta dadapor:

    fX,Y (x, y) =

    {8xy, si 0 < x < y < 1,0, en otro caso.

    (a) Calcular E[Y |X = x] y E[Y |X].(b) Calcular E[XY |X = x] y E[XY |X].(c) Calcular V ar[Y |X = x].

    4. Sean X y Y variables aleatorias con función de densidad conjunta dadapor:

    fX,Y (x, y) =1

    8(6− x− y)11(0,2)(x)11(2,4)(y).

    (a) Calcular E[Y |X = x] y E[Y |X].(b) Calcular E[XY |X = x] y E[XY |X].(c) Calcular V ar[Y |X = x].(d) Calcular E[Y 2|X = x] y E[Y 2|X].

  • 2.6. EJERCICIOS 45

    5. Sean X y Y variables aleatorias tales que E[Y |X = x] = µ, donde µ esuna constante. Demostrar que V ar[Y ] = E[V ar[Y |X]].

    6. Dar un ejemplo de dos variables aleatorias X y Y NO independientestales que Cov[X, Y ] = 0.

    7. Sean X y Y variables aleatorias que toman sólo los valores a ó b. De-mostrar que X y Y son independientes si y sólo si Cov[X, Y ] = 0.

    Indicación: Considere primero X ′ y Y ′ variables aleatorias Bernoullicon parámetros pX y pY respectivamente. Después transforme a lasvariables aleatorias X y Y en variables aleatorias Bernoulli.

    8. Sea X = (X, Y ) un vector aleatorio con distribución Normal bivariada.Demostrar que X y Y son independientes si y sólo si Cov[X, Y ] = 0.

    9. Sean X y Y variables aleatorias con segundo momento finito, talesque V arX > 0, V arY > 0. Demostrar que la mejor aproximación entérminos de mı́nimos cuadrados de Y por una función afin de X (estoes, de la forma aX + b) está dada por

    Cov(X, Y )

    V arX(X − E[X]) + E[Y ]

    Indicación: Se quiere determinar a y b de suerte que E[[Y − (aX+ b)]2]sea mı́nimo. ¿Qué ocurre si las variables aleatorias son independientes?

    10. Sean U, V,W variables aleatorias independientes con varianza comúnigual a σ2. Definimos X = U+W , Y = V −W . Calcular la Cov(X, Y ).

    11. Sean X1, ..., XN variables aleatorias independientes idénticamente dis-tribúıdas con segundo momento finito y denotemos por X = X1+···+Xn

    n.

    (a) Calcular E[X].

    (b) Calcular E[∑n

    i=1(Xi −X)2.

    En Estad́ıstica se conoce aX como la media muestral y a nn−1

    ∑ni=1(Xi−

    X)2 como la varianza muestral. Podŕıa dar una interpretación de esto?.

    12. SeanX1 yX2 variables aleatorias independientes con distribuciónNormal(0, 1).Definimos Y1 = X1 + X2 y Y2 = X2 −X1. Demuestre que Y1 y Y2 sonvariables aleatoprias independientes.

    Indicación: Usar la función generadora conjunta.

  • 46 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

    13. SeanX1, X2 variables aleatorias independientes con distribuciónNormal(0, 1).y Y = X1X2. Calcular la función generadora de Y .

    Indicación: Usar que X1X2 =(X1+X2)2−(X2−X1)2

    4, usar el ejercicio an-

    terior y recordar cual es la distribución del cuadradao de una variablealeatoria Normal(0, σ2).

    14. SeanX1 yX2 variables aleatorias independientes con distribuciónNormal(0, 1).Definimos Y1 = X1 +X2 y Y2 = X

    21 +X

    22 .

    (a) Calcular la función generadora conjunta de Y = (Y1, Y2).

    (b) Calcular el coeficiente de correlación de Y1 y Y2.

    15. Sea X1 una variable aleatoria Beta con parámetros α1 y α2. Supong-amos que dado que X1 = x, la variable aleatoria X2 tiene una dis-tribución Binomial con parámetros n y x. Calcular

    (a) E[X2 | X1 = x], E[X2 | X1].(a) Calcular E[X2].

    16. SeaX1 una variable aleatoriaGamma(α, λ). Supongamos que dado queX1 = x, la variable aleatoria X2 tiene una distribución Exponencialcon parámetro β.

    (a) Calcular E[X2 | X1 = x] y E[X2 | X1].(b) Calcular E[X2].

    17. Sea {Xn}n≥1 una sucesión de variables aleatorias, independientes, idénticamentedistribúıdas con esperanza finita igual a µ. Sea N una variable aleato-ria con valores en N ∪ {0}, independiente de {Xn}n≥1, con esperanzafinita igual a M .

    Definimos

    SN =

    {X1 + ...+Xn si N = n0 si N=0

    (a) Calcular E[SN ] en función de µ y M .

    (b) Si las variables aleatorias Xn son variables aleatorias Bernoulli conparámetro p, y N una variable aleatoria geométrica con parámetroa ∈ (0, 1). Calcular la distribución de SN .

  • 2.6. EJERCICIOS 47

    (c) Si las variables aleatorias Xn son Bernoulli con parámetro p, y Nuna variable aleatoria Poisson con parámetro λ > 0. Calcular ladistribución de SN .

    18. Sea {Xn}n≥1 una sucesión de variables aleatorias independientes, idénticamentedistribúıdas con esperanza finita igual a µ. Sea N una variable aleato-ria con valores en N ∪ {0}, independiente de {Xn}n≥1, con esperanzafinita igual a M .

    Definimos

    ZN =

    {X1 ·X2 · · ·Xn si N = n0 si N=0

    (a) Calcular E[ZN ] en función de µ y GN , la función generatriz demomentos factoriales de N .

    (b) Si las variables aleatorias Xn son Bernoulli con parámetro p, y Nuna variable aleatoria Poisson con parámetro λ > 0. Calcular laE[ZN ].

    19. Sean X1, ..., Xn variables aleatorias independientes idénticamente dis-tribúıdas exponenciales con parámetro λ. Sea N una variable aleatoriatal que dado que X1 + · · ·+Xn = t, N es una variable aleatoria Poissoncon parámetro λt. Calcular la distribución de N ,

    Indicación: Usar función generadora.

  • 48 CAPÍTULO 2. MOMENTOS DE FUNCIONES DE V.A.

  • Caṕıtulo 3

    Resumen de Transformacionesde Vectores Aleatorios

    En este caṕıtulo se presenta el Teorema de Cambio de Variable de Cálculoaplicado a transformaciones de vectores aleatorios de IRn → IRn, con algunosejemplos ilustrativos.

    Teorema 3.1 Sea X = (X1, ..., Xn) un vector aleatorio continuo con funciónde densidad conjunta fX ,

    X = {(x1, ..., xn) : fX(x1, ..., xn) > 0}

    y

    g(x1, ..., xn) = (g1(x1, ..., xn), ..., gn(x1, ..., xn))

    una transformación uno a uno de X sobre N , por lo tanto es invertible.Denotemos por g−1 a la inversa de g y

    g−1(y1, ..., yn) = (g−11 (y1..., yn), ..., g

    −1n (y1, ...yn)).

    Sea J definido por:

    J =

    ∣∣∣∣∣∣∣∣∣∣

    ∂g−11∂y1

    ∂g−11∂y2

    · · · ∂g−11

    ∂yn∂g−12∂y1

    ∂g−12∂y2

    · · · ∂g−12

    ∂yn

    · · · · · · · · · · · ·∂g−1n∂y1

    ∂g−1n∂y2

    · · · ∂g−1n

    ∂yn

    ∣∣∣∣∣∣∣∣∣∣49

  • 50 CAPÍTULO 3. RESUMEN TRANSFORMACIONES

    Supongamos que las derivadas parciales∂g−1i∂yj

    son continuas para i, j = 1, ..., n

    y que el determinante J es distinto de cero. Entonces el vector aleatorio

    Y = (Y1, ..., Yn) = g(X1, ..., Xn),

    es continuo con función de densidad conjunta:

    fY (y1, ..., yn) =

    {|J |fX(g−11 (y1, ..., yn), ..., g−1n (y1, ..., yn)), si (y1, ..., yn) ∈ N0, en otro caso.

    Ejemplo 3.1 Sean X1, X2 v.a.i. N(0, σ2i ), i = 1, 2, respectivamente y Y1 =

    X1 +X2, Y2 = X1 −X2

    En este caso , tenemos una transformación biyectiva de R2 → R2, y

    g−11 (y1, y2) =y1 + y2

    2, g−12 (y1, y2) =

    y1 − y22

    .

    Por lo tanto

    J =

    ∣∣∣∣ 12 1212−1

    2

    ∣∣∣∣ = 12Por lo tanto, la función de densidad conjunta de Y = (Y1, Y2), está dada por:

    fY (y1, y2) =1

    2

    1

    2πσ1σ2exp

    {−1

    2

    ((y1 + y2)

    2

    4σ21+

    (y1 − y2)2

    4σ22

    )}=

    1

    2

    1

    2πσ1σ2exp

    {− 1

    2× 4σ21σ22

    (σ22(y1 + y2)

    2 + σ21(y1 − y2)2)}

    =1

    2

    1

    2πσ1σ2exp

    {− 1

    2× 4σ21σ22

    (σ21 + σ

    22)y

    21 + (σ

    21 + σ

    22)y

    22 − 2(σ21 − σ22)y1y2

    )}=

    1

    2

    1

    2πσ1σ2exp

    {−(σ

    21 + σ

    22)

    2

    2× 4σ21σ22

    (y21

    σ21 + σ22

    +y22

    σ21 + σ22

    − 2 σ21 − σ22

    (σ21 + σ22)

    2y1y2

    )}(3.1)

    Sea ρ =σ21−σ22σ21+σ

    22, entonces

    fY (y1, y2) =1

    2π(σ21 + σ22)√

    1− ρ2exp

    {1

    2(1− ρ2)

    (y21

    σ21 + σ22

    +y22

    σ21 + σ22

    − 2ρ y1y2σ21 + σ

    22

    )}

    Por lo tanto, Y = (Y1, Y2) es un vector Gaussiano Bivariado, ya queσ2Y1 = σ

    2Y2

    = σ21 +σ22 . Si σ

    21 = σ

    22 entonces las v.a. Y1 y Y2 son independientes.

    Sólo en ese caso.

  • 51

    Ejemplo 3.2 Consideremos X1, X2 v.a.i.i. Uniformes en (0, 1) y la mismatransformación anterior, es decir, Y1 = X1 +X2, Y2 = X1 −X2.

    Por lo tanto tenemos J igual que antes, la diferencia es que debemos tomaren cuenta la región.

    Observemos que la frontera x1 = 0 se transforma en y1 = −y2, la rectax1 = 1 se transforma en la recta y2 = 2 − y1, si x2 = 0 se transforma eny1 = y2, x2 = 1 se transforma en y1 = −y2. Por lo tanto la región setransforma el rombo. y la función de densidad conjunta está dada por:

    fY (y1, y2) =

    {12, si (y1, y2) ∈ N ,

    0, en otro caso .

    Ejemplo 3.3 Sean X1, X2 v.a.i. Gamma con parámetros (α1, λ) y (α2, λ)respectivamente y

    g(x1, x2) =

    (x1

    x1 + x2, x1 + x2

    )Entonces el vector Y = (Y1, Y2) = g(X1, X2) es un vector de v.a.i., Y1 tienedistribución Beta (α1, α2) y Y2 es una v.a. Gamma (α1 + α2, λ)

    Tenemos que es una transformación de R2+ → (0, 1)×R+. Además es uno auno y

    (x1, x2) = (g−11 (y1, y2), g

    −12 (y1, y2)) = (y1y2, y2 − y1y2)

    J =

    ∣∣∣∣ y2 y1−y2 1− y1∣∣∣∣ = y2

    fY (y1, y2) = y2λα1+α2

    Γ(α1),Γ(α2)(y1y2)

    α1−1(y2 − y1y2)α2−1e−λ(y1y2)e−λ(y2−y1y2)II(0,1)×R+

    =λα1+α2

    Γ(α1),Γ(α2)yα1−11 (1− y1)α2−1yα1+α2−12 e−λy2II(0,1)(y1)IIR+(y2)

    =1

    B(α1, α2)yα1−11 (1− y1)α2−1II(0,1)(y1)

    λα1+α2

    Γ(α1 + α2)yα1+α2−12 e

    −λy2IIR+(y2)

    Teorema 3.2 Sea X = (X1, ..., Xn) un vector aleatorio continuo con funciónde densidad conjunta fX ,

    X = {(x1, ..., xn) : fX(x1, ..., xn) > 0}

  • 52 CAPÍTULO 3. RESUMEN TRANSFORMACIONES

    Supongamos queX = ∪mi=1Xi, Xi ∩ X| = ∅, i 6= j,

    y para cada i = 1, ...,m la transformación

    g(x1, ..., xn) = (g1(x1, ..., xn), ..., gn(x1, ..., xn))

    es uno a uno de X〉 sobre N , por lo tanto es invertible. Denotemos por g−1ila inversa de g sobre X〉 y denotemos por

    g−1i (y1, ..., yn) = (g−11i (y1..., yn), ..., g

    −1ni (y1, ...yn)).

    Sea Ji definido por:

    Ji =

    ∣∣∣∣∣∣∣∣∣∣

    ∂g−11i∂y1

    ∂g−11i∂y2

    · · · ∂g−11i

    ∂yn∂g−12i∂y1

    ∂g−12i∂y2

    · · · ∂g−12i

    ∂yn

    · · · · · · · · · · · ·∂g−1ni∂y1

    ∂g−1ni∂y2

    · · · ∂g−1ni

    ∂yn

    ∣∣∣∣∣∣∣∣∣∣Supongamos que para cada i ∈ {1, ...,m} el determinante Ji es distinto decero, las derivadas parciales

    ∂g−1ji∂yk

    son continuas para j, k = 1, ..., n. Entoncesel vector aleatorio

    Y = (Y1, ..., Yn) = g(X1, ..., Xn),

    es continuo con función de densidad conjunta:

    fY (y1, ..., yn) =

    { ∑mi=1 |J |fX(g

    −11i (y1, ..., yn), ..., g

    −1ni (y1, ..., yn)), si (y1, ..., yn) ∈ N

    0, en otro caso.

    Ejemplo 3.4 Sean X1, X2 v.a.i. N(0, 1). Consideremos la transformación

    g(x1, x2) = (x21 + x

    22, x2), Y = g(X1, X2) = (X

    21 +X

    22 , X2 = (Y1, Y2)

    No es una transformación uno a uno.

    N = {(y1, y2)|0 ≤ y1

  • 53

    g−211(y1, y2) = −√y1 − y22, g−122 (y1, y2) = y2

    J1 =

    ∣∣∣∣∣ 12(y1 − y22)− 12 ∂g−111

    ∂y2

    0 1

    ∣∣∣∣∣ = 12(y1 − y22)− 12 (3.2)J2 =

    ∣∣∣∣∣ −12(y1 − y22)− 12 ∂g−112

    ∂y2

    0 1

    ∣∣∣∣∣ = −12(y1 − y22)− 12 (3.3)Por lo tanto

    fY (y1, y2) =[|J1|f(g−111 (y1, y2))f(g−112 (y1, y2)) + |J2|f(g−121 (y1, y2))f(g−122 (y1, y2))

    ]11N (y1, y2)

    =1√

    y1 − y22

    1

    2πe−y2/211N (y1, y2).

    3.0.1 Estad́ısticas de Orden

    Teorema 3.3 Sean X1, ..., Xn v.a.i.i.d. continuas con funciones de dis-tribución y densidad Fy f respectivamente, tales que {x ∈ R|f(x) > 0} =(a, b). Sean X(1) = min{Xi, i = 1, ..., n} X(n) = max{Xi, i = 1, ..., n} . En-tonces X(1) X(n) son v.a. continuas con funciones de distribución y densidaddadas por:

    FX(1)(y) = 1− [1− F (y)]n, fX(1)(y) = n[1− F (y)]

    n−1f(y).

    FX(n)(y) = Fn(y), fX(n)(y) = nF

    n−1(y)f(y)

    Teorema 3.4

    FX(k)(y) =n∑j=k

    (nk

    )F j(y)[1− F (y)]n−j, (3.4)

    fX(k)(y) =n!

    (k − 1)!(n− k)![F (y)]k−1[1− F (y)]n−kf(y). (3.5)

    Teorema 3.5 Sean X1, ..., Xn v.a.i.i.d. continuas con función de densidadf tal que f(x) > 0 si y solo si x ∈ (a, b) y Y = (X(1), ..., X(n)) las estad́ısticasde orden. Entonces Y es un vector continuo con función de densidad fY dadapor

    fY (y1, ..., yn) =

    {n!f(y1)f(y2) · · · f(yn), si a < y1 < y2 < · · · < b,0, en otro caso.

    (3.6)

  • 54 CAPÍTULO 3. RESUMEN TRANSFORMACIONES

    DemostraciónSolo haremos la demostración para n = 3 Observemos primeroque

    P [Xi = Xj] = P [Xi −Xj = 0] = 0, i, j = 1, 2, 3, i 6= j.

    Sea X = {(x1, x2, x3)|a < xi < b, i = 1, 2, 3.} = ∪6i=1Xi, donde

    X1 = {(x1, x2, x3)|a < x1 < x2 < x3 < b},X2 = {(x1, x2, x3)|a < x2 < x1 < x3 < b},X3 = {(x1, x2, x3)|a < x1 < x3 < x2 < b},X4 = {(x1, x2, x3)|a < x2 < x3 < x1 < b},X5 = {(x1, x2, x3)|a < x3 < x1 < x2 < b},X6 = {(x1, x2, x3)|a < x3 < x2 < x1 < b},N = X1

    Sean

    g1(x1, x2, x3) = (g11(x1, x2, x3), g12(x1, x2, x3), g13(x1, x2, x2)) = (x1, x2, x3)

    g2(x1, x2, x3) = (g21(x1, x2, x3), g22(x1, x2, x3), g23(x1, x2, x3)) = (x2, x1, x3)

    g3(x1, x2, x3) = (g31(x1, x2, x3), g32(x1, x2, x3), g33(x1, x2, x2)) = (x1, x3, x2)

    g4(x1, x2, x3) = (g41(x1, x2, x3), g42(x1, x2, x3), g43(x1, x2, x2)) = (x2, x3, x1)

    g5(x1, x2, x3) = (g51(x1, x2, x3), g52(x1, x2, x3), g53(x1, x2, x2)) = (x3, x1, x2)

    g6(x1, x2, x3) = (g61(x1, x2, x3), g62(x1, x2, x3), g63(x1, x2, x2)) = (x3, x2, x1)

    Entonces para cada i = 1, ..., 6 la función gi : Xi → N , satisface el Teoremade Cambio de variable y

    g−11 (y1, y2, y3) = (g−111 (y1, y2, y3), g

    −112 (y1, y2, y3), g

    −113 (y1, y2, y3)) = (y1, y2, y3),

    g−12 (y1, y2, y3) = (g−121 (y1, y2, y3), g

    −122 (y1, y2, y3), g

    −123 (y1, y2, y3)) = (y2, y1, y3),

    g−13 (y1, y2, y3) = (g−131 (y1, y2, y3), g

    −132 (y1, y2, y3), g

    −1333(y1, y2, y3)) = (y1, y3, y2),

    g−14 (y1, y2, y3) = (g−141 (y1, y2, y3), g

    −142 (y1, y2, y3), g

    −143 (y1, y2, y3)) = (y3, y2, y1),

    g−15 (y1, y2, y3) = (g−151 (y1, y2, y3), g

    −152 (y1, y2, y3), g

    −153 (y1, y2, y3)) = (y2, y3, y1),

    g−16 (y1, y2, y3) = (g−161 (y1, y2, y3), g

    −162 (y1, y2, y3), g

    −163 (y1, y2, y3)) = (y3, y2, y1).

  • 55

    Además

    |J1| =

    ∣∣∣∣∣∣1 0 00 1 00 0 1

    ∣∣∣∣∣∣ = 1

    |J2| =

    ∣∣∣∣∣∣0 1 01 0 00 0 1

    ∣∣∣∣∣∣ = 1

    |J3| =

    ∣∣∣∣∣∣1 0 00 0 10 1 0

    ∣∣∣∣∣∣ = 1

    |J4| =

    ∣∣∣∣∣∣1 0 00 0 10 1 0

    ∣∣∣∣∣∣ = 1

    |J5| =

    ∣∣∣∣∣∣1 0 00 0 10 1 0

    ∣∣∣∣∣∣ = 1

    |J6| =

    ∣∣∣∣∣∣1 0 00 0 10 1 0

    ∣∣∣∣∣∣ = 1