45
ANEXO Conceptos Básicos de Probabilidad y Estadística INDICE TEMÁTICO 1. El enfoque clásico de la probabilidad. 2. El enfoque axiomático. 3. Variable aleatoria y distribución de probabilidad. 4. Distribuciones conjuntas de probabilidad. 5. Parámetros de las distribuciones de probabilidad. 6. Variables aleatorias continuas y sus distribuciones de probabilidad. 7. Distribución Normal o Gaussiana. 8. Otras distribuciones de probabilidad usuales.

ANEXO - Conceptos Básicos de Probabilidad y Estadística

Embed Size (px)

Citation preview

Page 1: ANEXO - Conceptos Básicos de Probabilidad y Estadística

ANEXO

Conceptos Básicos de Probabilidad y Estadística

INDICE TEMÁTICO

1. El enfoque clásico de la probabilidad. 2. El enfoque axiomático. 3. Variable aleatoria y distribución de probabilidad. 4. Distribuciones conjuntas de probabilidad. 5. Parámetros de las distribuciones de probabilidad. 6. Variables aleatorias continuas y sus distribuciones

de probabilidad. 7. Distribución Normal o Gaussiana. 8. Otras distribuciones de probabilidad usuales.

Page 2: ANEXO - Conceptos Básicos de Probabilidad y Estadística

1. El enfoque clásico de la probabilidad Cuando se analizan datos económicos o financieros desde un punto de vista estadístico con el objeto de realizar inferencias1, se considera que los datos bajo análisis surgen de un proceso aleatorio, es decir, un proceso azaroso. Sin embargo, el azar no domina totalmente la aparición de los datos. Se supone que existen límites y regularidades estadísticas que caracterizan al proceso. Para ejemplificar qué es un proceso aleatorio supongamos un juego que consiste en arrojar 2 dados (consideremos dos dados distintos, por ejemplo uno rojo y el otro azul) y observar la suma de los números que salen. El resultado del lanzamiento se puede explicitar mediante una dupla de números o par ordenado2 que indique los valores obtenidos, por ejemplo (1, 6) ó (2, 5). Si contamos todos los resultados posibles encontraremos que son 36 (hay 6 posibles resultados del dado rojo para cada una de las 6 caras del dado azul). Por otra parte, tal como está definido el juego, sólo nos interesa la suma de los puntos de ambos dados y, desde este punto de vista, los resultados (1, 6) y (2, 5) son equivalentes. Diremos, entonces, que ambos constituyen el mismo evento 3 : obtener 7 puntos. Retomando la idea de proceso aleatorio, observamos que no es posible cualquier resultado, ya que los puntos en cada dado son sólo los números enteros del 1 al 6. Estas limitaciones se trasladan a los eventos, ya que la suma de los puntos sólo puede tomar los valores del 2 al 12. Por otra parte, considerando cada dado individualmente, la aparición de un resultado cualquiera del 1 al 6 es igualmente probable (supuestos dados ideales, perfectamente equilibrados). Sin embargo, es fácil darse cuenta de que la probabilidad de ocurrencia del evento “suma igual a 7” (que puede surgir de los siguientes combinaciones: (1, 6), (2, 5), (3, 4),

1 Más adelante se explica el alcance técnico preciso del término inferencia en estadística, por el momento considérese su significado usual: sacar una consecuencia o deducir algo de otra cosa. (Diccionario RAE). 2 Se dice así de un par de números, en este caso enteros del 1 al 6, cuyo orden importa, ya que el primer número consigna el resultado de un dado (por ejemplo, el rojo) y el segundo, el del otro dado. Así (1,5) y (5,1) refieren a distintos resultados. 3 También se suele referir como “suceso”.

Page 3: ANEXO - Conceptos Básicos de Probabilidad y Estadística

(4, 3), (5, 2) y (6, 1)) es distinta de la que asociaríamos a la ocurrencia del evento “suma igual a 2” (sólo posible cuando cada dado sale con 1). Sin decirlo, estamos aquí asumiendo que la probabilidad de ocurrencia de un determinado evento está relacionada con el número de posibles resultados que lo determinan (los llamaremos resultados favorables) relativo al número total de resultados posibles. Éste, que estamos asumiendo implícitamente es uno de los enfoques en la teoría de la probabilidad, denominado enfoque clásico y que le adjudica a cada evento una probabilidad dada por:

=NumerodeResultados favorables al evento E

P(E)Numero de Resultados posibles

Donde P(E) se lee como: Probabilidad de ocurrencia del evento E. Ejemplo 1: El enfoque clásico Este enfoque le adjudicaría a la probabilidad de extraer al azar una carta de copas de un mazo de barajas españolas un valor de 10 / 40 = 0,25, a la de extraer un 7 de cualquier palo un valor 4 / 40 = 0,10 y a la de extraer exactamente el 5 de oro un valor 1 / 40 = 0,025. Supongamos el juego que consiste en tirar una moneda 2 veces. ¿Cuál es la probabilidad de que salgan 2 caras? De acuerdo al esquema que hemos presentado deberíamos cuantificar los resultados posibles. Estos serían:

Ω = (C,C) (C,S) (S,C) (S,S) Cantidad de elementos: 4

Aquí, cara se indica con la letra C, ceca con la letra S y Ω (omega) es el conjunto de resultados posibles, también llamado Espacio Muestral. Y los casos favorables son:

=F (C,C) Cantidad de elementos: 1

Por lo tanto, la probabilidad calculada con el enfoque clásico será:

[ ] = =1P (C,C) 0,254

Page 4: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Es fácil ver que en todos los casos referidos se cumplen las siguientes 3 afirmaciones:

1) La probabilidad de que se obtenga alguno de los resultados (cualquiera sea) es igual a 1, o sea, hay certeza, ya que siempre se obtiene algún resultado.

2) La probabilidad de ocurrencia de un evento cualquiera nunca es negativa. Se trata de un cociente entre cantidades no negativas, donde el denominador nunca es cero, aunque el numerador puede serlo.

3) Si dos eventos 1

S y 2

S son mutuamente excluyentes (no

pueden ocurrir simultáneamente), entonces la probabilidad de que ocurra uno u otro es la suma de la probabilidad de ocurrencia de uno más la probabilidad de ocurrencia del segundo, o sea:

∪ = +1 2 1 2P(S S ) P(S ) P(S ) (Aquí el símbolo ∪ debe leerse

como una o). Esta última afirmación la ilustraremos en el siguiente ejemplo. Ejemplo 2: Probabilidad de eventos mutuamente excluyentes Supongamos en el juego ya explicado que consiste en tirar una moneda 2 veces. ¿Cuál es la probabilidad de que salgan 2 caras ó 2 cecas? Fijémonos que ambos eventos son mutuamente excluyentes, es decir, que la ocurrencia de uno de ellos implica la no ocurrencia del otro. De acuerdo al esquema ya visto los resultados posibles son:

Ω = (C,C) (C,S) (S,C) (S,S) Cantidad de elementos: 4

y los casos favorables son: =F (C,C) (S,S) Cantidad de elementos: 2

[ ]∪ = =1P (C,C) (S,S) 0,502

Pero esta probabilidad podría haberse obtenido calculando separadamente:

Probabilidad de que salgan 2 caras: [ ] = =1P (C,C) 0,254

Probabilidad de que salgan 2 cecas: [ ] = =1P (S,S) 0,254

Y luego, sumando ambas probabilidades:

Page 5: ANEXO - Conceptos Básicos de Probabilidad y Estadística

[ ] [ ] [ ]∪ = + = + = =1 1 1P (C,C) (S,S) P (C,C) P (S,S) 0,504 4 2

2. El enfoque axiomático En la moderna teoría de la probabilidad, las 3 afirmaciones mencionadas más arriba se toman como punto de partida (axiomas) para construir una teoría abstracta de la probabilidad que permite independizar dicho concepto de los experimentos reales y trabajar con casos donde la probabilidad de ocurrencia de cada resultado no sea igual para todos ellos. Para nuestro objetivo, que es la comprensión intuitiva y no formal ni rigurosa de los conceptos estadísticos, conviene más el primer enfoque, por lo que nos basaremos en él mientras no se presenten limitaciones o inconvenientes. Volviendo al ejemplo de los dados, lo aprovecharemos para ilustrar algunos conceptos: Experimento aleatorio: Es un proceso mediante el cual se obtiene una observación de un fenómeno, o sea un resultado. Se denomina aleatorio porque no se puede predecir cuál será el resultado aunque se lo repita bajo las mismas condiciones. Ejemplo de un experimento aleatorio sería arrojar dos dados y un ejemplo de resultado sería (1, 6). Espacio muestral: Es el conjunto Ω de todos los resultados posibles de un experimento aleatorio. En nuestro caso sería el conjunto de 36 posibles resultados: Ω = (1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 1), (2, 2), (2, 3), (2 4), (2, 5), (2, 6), (3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6), (4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6), (5, 1), (5, 2), (5, 3), (5 4), (5, 5), (5, 6), (6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6) Evento: Es un subconjunto del espacio muestral. En nuestro caso, definimos 11 eventos o lo que es lo mismo 11 subconjuntos al plantear que lo que nos interesa es el valor de la suma de los puntos de ambos dados:

E1 (2 puntos) = (1, 1)

Page 6: ANEXO - Conceptos Básicos de Probabilidad y Estadística

E2 (3 puntos) = (1, 2), (2, 1) E3 (4 puntos) = (1, 3), (2, 2), (3, 1) E4 (5 puntos) = (1, 4), (2, 3), (3, 2), (4, 1) E5 (6 puntos) = (1, 5), (2, 4), (3, 3), (4, 2), (5, 1) E6 (7 puntos) = (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1) E7 (8 puntos) = (2, 6), (3, 5), (4, 4), (5, 3), (6, 2) E8 (9 puntos) = (3, 6), (4, 5), (5 4), (6, 3) E9 (10 puntos) = (4, 6), (5, 5), (6, 4) E10 (11 puntos) = (5, 6), (6, 5) E11 (12 puntos) = (6, 6)

3. Variable aleatoria y distribución de probabilidad Dado un experimento aleatorio y su correspondiente espacio muestral, denominamos variable aleatoria4 a una función que relaciona cada elemento del espacio muestral con un número real. Para entender en forma más intuitiva el concepto, diremos que en el caso de nuestro ejemplo lo que hacemos es asociar a cada resultado un valor real coincidente con la suma de los puntos que exhiben las caras de los dados. Así, por ejemplo, se asocia a todos y cada uno de los resultados pertenecientes al evento E3 el valor 4 y así para todos. Para que sea más evidente la lógica que hemos elegido para la asignación, podemos bautizar a nuestra variable con el nombre “puntos obtenidos” y así, confeccionar una tabla (Figura 1) donde volcamos estos datos.

Figura 1

4 Dado que el resultado del experimento es azaroso o aleatorio, el valor que toma la función mencionada también lo es. De allí su nombre. A veces, se la llama también Función Aleatoria.

Page 7: ANEXO - Conceptos Básicos de Probabilidad y Estadística

De esta manera, en lugar de tener que trabajar con pares ordenados podemos trabajar con números reales, cada uno de los cuales hace referencia a un subconjunto de resultados de nuestro experimento. Veremos cómo eso facilita enormemente el trabajo al resultar en una notación sucinta, y sujeta a las leyes del álgebra de los números reales, que es bien conocida y sencilla de operar. Es de destacar que la elección de los valores que toma la variable aleatoria para los resultados correspondientes a cada evento es completamente arbitraria. Por ejemplo, si el experimento fuera tirar una moneda y ver si sale cara o ceca, se les podrían asignar a dichos resultados (que también son los eventos de interés en este caso) los números 0 y 1, respectivamente. Pero también, con la misma legitimidad, se les podrían asignar otros valores como -1 y 1; o quizás 0 y 10, etc. En adelante, entonces, en lugar de referirnos a un evento, podemos referirnos al valor de la variable aleatoria con la que hemos asociado a los resultados que incluye. Así [ ]∪ ∪ ≡P (1,3) (2,2) (3,1) P(4) , donde el

símbolo ≡ debe leerse como “equivale a”. Función de probabilidad: Es una función que le hace corresponder a cada uno de los valores de una variable aleatoria, un valor de probabilidad. Con esto agregamos una columna en el cuadro anterior, haciendo corresponder a cada variable aleatoria una probabilidad de ocurrencia. En nuestro ejemplo, ya habíamos decidido el criterio: era el dado por la fórmula.

=NumerodeResultados favorables al evento E

P(E)Numero de Resultados posibles

Por lo tanto, nuestro cuadro quedaría como en la Figura 2:

Page 8: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 2

Como puede fácilmente verificarse la suma de las probabilidades es (y debe ser) igual a 1. Como ya se dijo, esta asignación de los valores de probabilidad a los distintos valores de la variable aleatoria se denomina Función de Probabilidad o también Distribución de Probabilidad. Es una función que asigna a todos y cada uno de los valores de X un (y sólo un) valor dentro del intervalo [0,1] de los números reales.

→ [0,1]P(X) : X R

Para que la función de probabilidad esté bien definida los eventos que corresponden a los distintos valores de la variable aleatoria deben ser mutuamente excluyentes (si ocurre alguno no puede ocurrir otro) y colectivamente exhaustivos (todos los eventos posibles deben estar contemplados). Representación gráfica de la distribución de probabilidad Se utiliza un diagrama de barras donde en horizontal se consignan los valores que puede tomar X, y a cada uno de ellos se le hace corresponder una barra vertical cuya altura es proporcional a su probabilidad asociada.

Page 9: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 3

De esta manera, con la Función de Probabilidad o con su gráfica tenemos una descripción estadística de un proceso que a pesar de estar regido por el azar, tiene sus valores posibles y las probabilidades asociadas con los mismos, claramente, delimitadas y descriptas. Ejemplo 3: Otro juego con monedas Para fijar ideas, vamos a encontrar el espacio muestral, la variable aleatoria asociada a los resultados incluidos en el mismo y la función de probabilidad del experimento consistente en arrojar 3 veces una moneda y contabilizar la cantidad de caras obtenidas. Espacio muestral: Ω = (C C C), (C C S), (C S C), (C S S), (S C C), (S C S), (S S C), (S S S) Variable aleatoria asociada a los eventos:

Page 10: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Probabilidades asociadas a la variable aleatoria X (Distribución de probabilidad)

Representación gráfica de la distribución de probabilidad

Figura 4

4. Distribuciones conjuntas de probabilidad Supongamos analizar otra vez el juego consistente en tirar 2 veces una moneda. Pero esta vez, pensemos en 2 grupos de apostadores. Por un lado. un primer grupo interesado en la cantidad de caras que salen en las 2 tiradas. Por otro lado. un segundo grupo interesado solamente en saber si sale cara en la primera tirada.

Page 11: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Aquí. tenemos el caso de un único experimento aleatorio (y. por lo tanto. un único espacio muestral) que da lugar a dos distintas particiones debido a dos distintas definiciones de los eventos de interés. Cada definición de los eventos dará lugar a una distinta variable aleatoria y cada variable aleatoria tendrá una distinta distribución de probabilidad. En síntesis, si llamamos X a la variable aleatoria “cantidad de caras” e Y a la variable aleatoria “cara en la primera tirada”, podemos definir: Espacio muestral (Común a X e Y) Ω = (C C), (C S), (S C), (S S) Eventos. Variables aleatorias y Distribuciones de Probabilidad Para X = “Número de caras en las dos tiradas”

Para Y = “Cara en la primer tirada”

Estas probabilidades pueden representarse alternativamente en un cuadro como el que sigue:

El cuadro es una tabla de doble entrada y por lo tanto las probabilidades de cada celda deben entenderse como probabilidades conjuntas. Por

Page 12: ANEXO - Conceptos Básicos de Probabilidad y Estadística

ejemplo, la probabilidad de que X sea igual a cero y, simultáneamente, Y sea igual a cero la encontraremos en la celda ubicada en el cruce entre la columna X = 0.y la fila Y = 0.

= ∩ = =P(X 0 Y 0) 1/ 4 (donde el símbolo ∩ debe leerse como “y”) Obviamente, es imposible obtener cero caras en las dos tiradas y cara en la primera tirada, como lo refleja el valor del cuadro correspondiente a

= ∩ = =P(X 0 Y 1) 0 , lo mismo que obtener dos caras en las dos tiradas y

ninguna cara en la primera : = ∩ = =P(X 2 Y 0) 0 . Para obtener las probabilidades simples (también llamadas marginales, no condicionales o incondicionadas, como veremos luego), por ejemplo, P (X = 2), sólo se deben sumar las probabilidades conjuntas en las que X=2 para todos los valores posibles de Y. Igualmente en el caso de las probabilidades simples de la variable Y. Así:

= = = ∩ = + = ∩ = = + =P(X 0) P(X 0 Y 0) P(X 0 Y 1) 1/ 4 0 1/ 4

= = = ∩ = + = ∩ = + = ∩ =P(Y 1) P(X 0 Y 1) P(X 1 Y 1) P(X 2 Y 1)

= = + + =P(Y 1) 0 1/ 4 1/ 4 1/ 2 Como en el cuadro, estas sumas se hacen a lo largo de una línea (fila o columna), se acostumbra ubicar los valores resultantes al final de la misma, o sea, en el margen del cuadro. Por lo que estas probabilidades reciben el nombre de probabilidades marginales.

Probabilidad Condicional Supóngase que el primer tiro sale cara. Una vez conocido este dato la probabilidad de obtener 2 caras depende sólo de la segunda tirada ya que los resultados posibles se reducen ahora a: Ω ’ = (C C), (C S (espacio muestral relevante una vez conocido que salió cara en la primera tirada).

Page 13: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Por lo tanto, ahora P(X=2) = P [(C, C)]=1/2. Para no confundir esta situación con la situación inicial, se adopta una terminología y una simbología específicas. A la probabilidad recién calculada, se la denomina “Probabilidad condicional de X=2 dado que se conoce que Y=1 “, y se simboliza como: = =P(X 2 Y 1) donde el

símbolo se lee como “dado que “. Para obtener las probabilidades condicionales a partir del cuadro debe considerarse que al conocerse el resultado de una de las variables aleatorias, el cuadro queda reducido. Así si se conoce que en la primera tirada salió cara (Y=1) el espacio muestral relevante queda reducido a dicho renglón y se aplica, entonces, la llamada Regla de Bayes:

∩=

P(X Y)P(X Y)

P(Y)

que en este caso quedaría como:

= ∩ =

= = = = ==

P(X 2 Y 1) 1/ 4P(X 2 Y 1) 1/ 2

P(Y 1) 1/ 2

Otro ejemplo sería el cálculo de la probabilidad de que la primera tirada haya salido cara, dado que se conoce que hubo 2 caras en las dos tiradas.

= ∩ == = = = =

=

P(Y 1 X 2) 1/ 4P(Y 1 X 2) 1

P(X 2) 1/ 4

Resulta claro que si se conoce que salieron dos caras, hay certeza (Probabilidad=1) de que en la primera tirada salió cara. Ejemplo 4: Cálculo de probabilidades condicionales en el juego de las 3 monedas Calculemos las probabilidades conjuntas, marginales y condicionales en el juego de las 3 monedas visto en el ejemplo 3. A la variable X =”cantidad de caras”, le agregamos la variable aleatoria Y = “cara en la primer tirada”.

Page 14: ANEXO - Conceptos Básicos de Probabilidad y Estadística

El espacio muestral es el definido en dicho ejemplo, o sea: Ω = (C C C), (C C S), (C S C), (C S S), (S C C), (S C S), (S S C), (S S S) Las probabilidades conjuntas y marginales pueden quedar completamente definidas mediante un cuadro como el que se usó en el ejemplo anterior:

Las probabilidades condicionales pueden calcularse con la regla de Bayes, por ejemplo

= ∩ == = = = =

=

P(Y 1 X 2) 1/ 4 2P(Y 1 X 2)

P(X 2) 3 / 8 3

= ∩ =

= = = = ==

P(X 1 Y 0) 1/ 4 1P(X 1 Y 0)

P(Y 0) 1/ 2 2

= ∩ =

= = = = ==

P(Y 0 X 3) 0P(Y 0 X 3) 0

P(X 3) 1/ 8

Independencia de dos variables aleatorias Intuitivamente, se dice de dos eventos que son independientes si el saber que uno ocurrió, no nos da ninguna información sobre si el otro ha ocurrido o no. Más técnicamente, diremos que dos variables aleatorias son independientes si, para todo evento X de la primera variable y para todo evento Y de la segunda variable se cumple que:

=P(X Y) P(X) y =P(Y X) P(Y)

Page 15: ANEXO - Conceptos Básicos de Probabilidad y Estadística

con lo cual estamos diciendo que el conocimiento del valor adoptado por la otra variable, en ningún caso altera o modifica la distribución de probabilidad correspondiente a la primera. Esto tiene algunas consecuencias sobre el cálculo de las probabilidades. Si se recuerda la regla de Bayes:

Siempre que ≠P(Y) 0 ; ∩

=P(X Y)

P(X Y)P(Y)

y por lo tanto

∩ = ⋅P(X Y) P(X Y) P(Y)

Para el caso particular de dos variables aleatorias independientes, se cumplirá que:

∩ = ⋅P(X Y) P(X) P(Y) Se puede usar esta última relación como definición de independencia de 2 variables aleatorias con la ventaja de que no exige, como la primera definición propuesta, la existencia de las probabilidades condicionales (o sea que P (Y) o P(X) pueden ser iguales a cero). Suele producirse confusión entre eventos independientes y eventos mutuamente excluyentes. Nótese que si A y B son eventos mutuamente excluyentes (o sea, que si ocurre uno no puede ocurrir el otro), el conocimiento de que ocurrió A, por ejemplo, dice mucho sobre la posibilidad de que ocurra B (dice que es imposible), por lo tanto, no son eventos independientes. Ejemplo 5: Independencia de variables aleatorias En el juego de las dos monedas ya visto al tratar sobre probabilidades conjuntas, habíamos definido dos variable aleatorias: X = “cantidad de caras” e Y = “cara en la primera tirada”. ¿Son independientes? Para ello, debería cumplirse que ∩ = ⋅P(X Y) P(X) P(Y) Esto se cumple en algunos casos:

= ∩ = = = ⋅ = = ⋅ =1 1 1

P(X 1 Y 0) P(X 1) P(Y 0)2 2 4

pero no en otros: = ∩ = = ≠ = ⋅ = = ⋅ =1 1 1

P(X 0 Y 1) 0 P(X 0) P(Y 1)4 2 8

Page 16: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Por lo tanto, las variables aleatorias X e Y no son independientes.

5. Parámetros de las distribuciones de probabilidad Media o esperanza matemática de una variable aleatoria X La media o esperanza matemática de una variable aleatoria X brinda un valor medio de los valores de la misma y, por esta razón, se la considera una medida de centralización, centralidad o posición. Nos referiremos a ella mediante la letra griega µ (mu) o µX (mu sub X)

cuando la llamemos media o con el símbolo E(X) (esperanza de X) cuando la refiramos como esperanza matemática. Técnicamente, la media es la suma ponderada de todos los valores posibles de la variable. La ponderación es la probabilidad asociada a cada valor de la variable. En notación matemática:

=

µ = = ⋅∑n

X i ii 1

E(X) X P(X )

Esta es una notación abreviada para indicar una suma de n términos, en la que el subíndice i recorre los valores de los números naturales desde 1 hasta n, según se indica debajo y arriba del símbolo de sumatoria (la letra griega sigma, mayúscula). El desarrollo de esta fórmula sería:

=

µ = = ⋅ = ⋅ + ⋅ + + ⋅∑n

X i i 1 1 2 2 n ni 1

E(X) X P(X ) X P(X ) X P(X ) ... X P(X )

Que en el caso de nuestro ejemplo de los dos dados arrojados queda:

µ = = ⋅ + ⋅ + + ⋅ =

X

1 2 1E(X) 2 3 ... 12 7

36 36 36 (puntos)

Ejemplo 6: Media del juego de las 3 monedas Aunque en el caso anterior E(X), coincida con el valor más probable (o sea, el que tiene mayor probabilidad de ocurrencia, ver el cuadro de la

Page 17: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Función de probabilidad), en general, puede no ser así. Por ejemplo, en el caso de la moneda arrojada al aire tres veces (Ejemplo 3):

µ = = ⋅ + ⋅ + ⋅ + ⋅ =

X

1 3 3 1E(X) 0 1 2 3 1,5

8 8 8 8caras

Sin embargo el valor 1,5 no es un valor admisible de la variable aleatoria ni representa a ningún evento posible. Es por eso que, a menudo, se sugiere pensar en la media o esperanza matemática de una variable aleatoria como el centro de masa de la función de probabilidad de la misma. Si imaginamos, en la representación gráfica de la distribución de probabilidad del Ejemplo 3, el lugar donde debería ubicarse el punto de balance de las barras, seguramente se elegiría el punto correspondiente al valor 1,5.

Figura 5

Varianza de una variable aleatoria X Es una medida de dispersión de los valores de la variable aleatoria X en torno de su media µx . Si los valores de X tienden a concentrarse alrededor de la media, la varianza será pequeña, en tanto que si los valores de X tienden a distribuirse lejos de la media, la varianza será grande. Para referirnos a la varianza utilizamos la letra griega sigma minúscula, elevada al cuadrado σ

2X o en su caso la expresión Var(X) .

Page 18: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Técnicamente, la varianza es la suma ponderada del cuadrado de las desviaciones de los valores de la variable aleatoria respecto del valor esperado de la misma. Estos desvíos elevados al cuadrado se suman ponderados por su probabilidad. Su fórmula matemática es:

=

σ = = − ⋅∑n

2 2X i i i

i 1

Var(X) [X E(X )] P(X )

En nuestro ejemplo de los dados:

σ = = − ⋅ + − ⋅ + + − ⋅ =

2 2 2X

1 2 1Var(X) (2 7) (3 7) ... (12 7)

36 36 36

= ˆ5,83 (puntos al cuadrado) Las unidades de la varianza no son las mismas que las de la variable aleatoria. Por ejemplo, si la variable aleatoria es una variable económica, un precio por ejemplo, se expresará en pesos, unidad que compartirá con la esperanza o media, mientras que la varianza se

expresará en 2$ (pesos al cuadrado), lo cual no tiene un sentido intuitivo.

Por eso, se utiliza con mucha frecuencia una medida alternativa de variabilidad: el desvío estándar, que se define como la raíz cuadrada positiva de la varianza.

σ = σ 2X X en nuestro ejemplo σ =X 2,42 (puntos)

Ejemplo 7: Varianza del juego de las 3 monedas Calculemos la varianza y el desvío estándar de la variable aleatoria “Cantidad de caras” desarrollado en el Ejemplo 3. Varianza:

σ = = − ⋅ + − ⋅ + − ⋅ + − ⋅ =

2 2 2X

1 3 3 1Var(X) (0 1,5) (1 1,5) (2 1,5) (3 1,5)

8 8 8 8´

= 0,75 (caras) 2

Page 19: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Desvío estándar:

σ = σ = =2X X

ˆ0,75 0,86 caras

Covarianza de dos variables aleatorias X e Y La covarianza entre dos variables aleatorias mide de algún modo la asociación entre las mismas, ya que evalúa en promedio la coincidencia de realizaciones de las variables por encima y por debajo de la media. Se habla, entonces, de distribución conjunta de las variables, en la idea de que ambas miden alguna dimensión de un fenómeno que comparten. Así, por ejemplo, un valor positivo de la covarianza de los retornos de dos activos indicaría que ambos están afectados en cierta medida por los mismos fenómenos, por ejemplo el auge o la declinación del ciclo económico. Inversamente, un valor nulo o muy pequeño de la covarianza indicaría que evolucionan en forma independiente5, mientras que también puede darse el caso de que su dinámica sea inversa, por ejemplo, cuando un activo tiene retornos por encima de su retorno medio, el otro está por debajo. En este último caso, la covarianza sería negativa. Para referirnos a la covarianza entre dos variables aleatorias X e Y, utilizamos la letra griega sigma minúscula σ X Y o en su caso la expresión

Cov(X,Y) Técnicamente, la covarianza es la suma ponderada del producto de las desviaciones de los valores de la cada una de las variables aleatorias respecto de su media. Estos productos de los desvíos se suman ponderados por su probabilidad. Su fórmula matemática es:

=

σ = = − ⋅ − ⋅∑n

XY i i i i i ii 1

Cov(X,Y) [X E(X )] [Y E(Y )] P(X ,Y )

5 En realidad, como la covarianza mide sólo un tipo de relación entre ambas variables (la relación lineal), podría existir una relación no captada por la misma (por ejemplo una relación cuadrática). Por eso, independencia y ausencia de covarianza no son conceptos equivalentes. El primero implica al segundo, pero la covarianza nula no implica independencia.

Page 20: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Ejemplo 8: Covarianza del juego de las dos monedas Calculemos la covarianza de las variables aleatorias X e Y definidas para el juego de las dos monedas, ya visto al tratar probabilidad conjunta.

Para cada variable aleatoria los cuadros correspondientes serían:

Con los datos, es fácil encontrar las esperanzas:

= ⋅ + ⋅ + ⋅ =1 1 1

E(X) 0 1 2 14 2 4

cara y = ⋅ + ⋅ =1 1 1

E(Y) 0 12 2 2

cara

y las varianzas :

= ⋅ − + ⋅ − + ⋅ − =2 2 2 2Var(X) 0,25 (0 1) 0,5 (1 1) 0,25 (2 1) 0,5 caras y

= ⋅ − + ⋅ − =2 2 2Var(Y) 0,5 (0 0,5) 0,5 (1 0,5) 0,25 caras

mientras que la covarianza entre ambas variables aleatorias es: σ = =XY Cov(X,Y)

( ) ( )= − ⋅ − ⋅ + − ⋅ − ⋅ + − ⋅ − ⋅ +(0 1) (0 0,5) 0,25 (1 1) (0 0,5) 0,25 (2 1) (0 0,5) 0

( ) ( )+ − ⋅ − ⋅ + − ⋅ − ⋅ + − ⋅ − ⋅ =(0 1) (1 0,5) 0 (1 1) (1 0,5) 0,25 (2 1) (1 0,5) 0,25

= + + + + + = 20,125 0 0 0 0 0,125 0,25 caras

Page 21: ANEXO - Conceptos Básicos de Probabilidad y Estadística

El valor positivo de la covarianza nos dice que un desvío positivo respecto de la media en la variable X se asocia, o que en promedio se da, con un desvío positivo respecto de la media en la variable Y. Matriz de varianzas y covarianzas La información de las variabilidades individuales y conjuntas de dos o más variables aleatorias se suele resumir en la llamada matriz (cuadro) de varianzas y covarianzas, denominada Σ (sigma mayúscula), que en el caso de dos variables aleatorias X e Y sería:

σ σΣ =

σ σ

2X XY

XY 2YX Y

que en nuestro caso sería

Σ =

XY0,5 0,25

0,25 0,25

Por supuesto, como σ = σXY YX el cuadro resulta simétrico respecto de la diagonal. Sin embargo, el número no resulta informativo de cuan fuerte es esta relación directa entre las variables debido a que el valor numérico obtenido está influenciado por los valores asignados a las mismas. Para eliminar la influencia de los valores numéricos específicos que le fueron asignados a la variable, se usa el coeficiente de correlación Corr(X,Y) ó

ρX Y que se define como:

σρ =

σ ⋅ σ

X YX Y 2 2

X Y

Este coeficiente toma valores entre 1 y -1. Cuando la correlación es positiva y perfecta, vale 1. Cuando no hay correlación, toma el valor 0 y cuando la correlación es total pero inversa toma el valor -1. En la práctica, aparecen valores intermedios entre los valores extremos. En nuestro ejemplo, y dado que σ =2

X 0,50 y σ =2Y 0,25

ρ = =⋅

X Y0,25

0,707...0,50 0,25

que es una correlación positiva que puede considerarse alta (más cerca de uno que de cero). Como la varianza puede considerarse un caso particular de covarianza (el caso de co variación de una serie consigo

Page 22: ANEXO - Conceptos Básicos de Probabilidad y Estadística

misma), se puede definir σσ

ρ = ρ = = =σσ ⋅ σ

2XX X

X X X 22 2XX X

1 y definir una

matriz de correlaciones de las variables X e Y como:

ρ ρΡ =

ρ ρ

X XYXY

YX Y

que en nuestro caso sería

Ρ =

XY1 0,707..

0,707.. 1

6. Variables aleatorias continuas y sus distribuciones de probabilidad Supongamos disponer de la distribución de probabilidades del retorno de un activo, por ejemplo, acciones de un Banco Privado. En principio, hemos tomado como valores posibles de la variable aleatoria los retornos positivos del 1 % al 10 %, agrupados para poder representarlos sin cifras decimales (el retorno 1 % agrupa todos los retornos desde 0 % hasta 1 %, el retorno 2 % agrupa todos los retornos superiores a 1 % pero que no sobrepasan el 2 %, etc.). Supongamos una determinada distribución de probabilidad para estos retornos, considerados una variable aleatoria, como se indica en el gráfico.

Figura 6

Page 23: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Supongamos que luego hacemos un análisis más fino y obtenemos la misma distribución de probabilidad pero permitiendo 1 cifra decimal. Ahora, la cantidad de valores que puede tomar la variable aleatoria pasa de 10 (1 % hasta 10 %) a 100 (0,1 % hasta 10,0 %). La forma general de la gráfica no cambiará, pero las barras serán cada vez más finas y a cada valor de la variable aleatoria le corresponderá un valor menor de probabilidad, ya que la suma de las probabilidades asignadas debe continuar siendo igual a uno (fíjese que la escala vertical del cuadro cambia).

Figura 7

En el límite, cuando permitimos que cualquier valor real entre 0 y 10 se presente, a cualquier valor determinado de la variable X (por ejemplo, 3,2475…%) le corresponderá un valor nulo de probabilidad. Sin embargo, la forma de la distribución de probabilidades continuará siendo válida. En este caso, estaríamos pasando de una variable aleatoria discreta a una variable aleatoria continua. En el gráfico, marcamos la línea que estaría indicando la distribución de la probabilidad para los valores de X:

Page 24: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 8

La altura de la curva ya no representa la probabilidad de un valor particular de la variable, ya que los rectángulos han devenido tan finos que su ancho es nulo. La probabilidad de un valor dado cualquiera es igual a cero. Lo que sí se puede medir es la probabilidad de que la variable esté dentro de un intervalo determinado. Por ejemplo, la probabilidad de que un retorno tome un valor entre el 5% y el 8% está dada por la proporción del área bajo la curva entre los puntos correspondientes a dichos valores de la variable aleatoria relativa al total del área bajo la curva.

7. Distribución Normal o Gaussiana La variable aleatoria continua más popular es la distribución normal o Gaussiana (denominada así en honor al sabio alemán Carl Friedrich Gauss). En la figura de más abajo, se representa una normal estándar, o

sea, una normal con media µ = 0 y varianza σ 2 = 1.

Page 25: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 9

La curva representada se denomina Función de Densidad de Probabilidad de la variable aleatoria X, y su fórmula, para el caso de una distribución normal o Gaussiana con media genérica µ y desvío estándar

σ , viene dada por:

−µ −

σ =π ⋅σ

21 X21

f(X) e2

Aquí µ y σ , la media y la varianza respectivamente, se denominan parámetros de la distribución. La esperanza matemática o media de la distribución ya no puede

calcularse con la fórmula antes mencionada =

µ = = ⋅∑n

i ii 1

E(X) X P(X ) , ya

que existen infinitos valores de X y cada uno de ellos tiene probabilidad nula. Se utiliza en su lugar una operación análoga de la suma, pero apta para funciones continuas que se denomina integración. Así:

+∞

−∞µ = = ⋅∫X E(X) X f(X) dX

Page 26: ANEXO - Conceptos Básicos de Probabilidad y Estadística

El lector no debe preocuparse por la resolución de la integral, sino más bien por captar que el concepto de la esperanza matemática se mantiene. Es una medida de centralización de la variable aleatoria X que se obtiene como una “suma” de los valores de la misma ponderados por su probabilidad de ocurrencia. Igualmente, el cálculo de la varianza (y su raíz cuadrada el desvío estándar) ahora se calculan mediante integrales.

+∞

−∞σ = − µ ⋅∫

2 2XX (X ) f(X) dX

Las características salientes de la distribución normal son las siguientes:

• La variable aleatoria puede tomar valores desde - ∞ hasta ∞ . • La densidad de probabilidad es simétrica, tiene forma de

campana y está centrada en el valor X = µ .

• Presenta puntos de inflexión (cambio de curvatura de cóncavo a convexo) en coincidencia con los valores ( µ - σ ) y ( µ + σ ), de la variable aleatoria X.

Hay un número infinito de distribuciones normales posibles, dependiendo del valor de la media y el valor del desvío estándar. Conociendo dichos parámetros queda indubitablemente especificada la distribución, toda vez que en la expresión de la Función de Densidad sólo intervienen dichos valores. Por ejemplo, en la Figura 10 se ha representado una distribución normal con media µ = 8 y desvío σ = 3: N (8, 9).

Page 27: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 10

Como puede verse en el gráfico, la media µ es una medida de posición que nos indica el centro de la distribución. En la normal, por ser una distribución simétrica y unimodal (con un solo pico) la media también coincide con el modo (el valor de la variable aleatoria para el cual la probabilidad es mayor) y con la mediana (valor de X que divide al área en partes iguales). En la Figura 11, se representan dos normales con distinta media y la misma varianza.

Figura 11

Page 28: ANEXO - Conceptos Básicos de Probabilidad y Estadística

El desvío estándar σ , por su parte, es una medida de la dispersión o variabilidad de la distribución. Cuando el desvío estándar σ es relativamente chico, la distribución es delgada y alta, mientras que si σ es relativamente grande, la curva es amplia y chata. En la figura, se representan dos normales con la misma media y distinta varianza

Figura 12

Esto explica que, como veremos más adelante, el desvío estándar sea utilizado en los estudios financieros como una medida del riesgo. En el caso ilustrado en la figura para el mismo retorno medio (8 %), la curva con σ = 3 presenta mucha mayor incertidumbre sobre el valor que finalmente se observará. Volviendo al tema del cálculo de probabilidades, como decíamos, la altura de la curva ya no representa la probabilidad de un valor particular de la variable, porque los rectángulos se han vuelto tan finos que su ancho es nulo y la probabilidad de un valor dado cualquiera es igual a cero. Lo que sí se puede medir es la probabilidad de que la variable esté dentro de un intervalo determinado. Por ejemplo, la probabilidad de que la variable tome un valor entre -1 y 1 está dada por el área bajo la curva de densidad de probabilidad entre los valores – 1 y 1 de la variable aleatoria. Por supuesto, el área bajo toda la curva (o sea entre - ∞ y + ∞ ) debe tomar un valor igual a uno, dado que representa toda la probabilidad.

Page 29: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Por ejemplo, en la distribución normal que ya hemos ejemplificado ( µ = 8

y σ = 3), y suponiendo que la variable aleatoria describa un retorno financiero, la probabilidad de tener un retorno mayor que 8 %, estará dado por el área bajo la curva en el intervalo [8, ∞ ]. En este caso, por la simetría de la distribución ≥ =P(X 8) 0,5 .

Figura 13

La distribución normal es una distribución exhaustivamente estudiada y conviene retener alguna de sus características. Por ejemplo, el área bajo la curva, es decir la probabilidad, para un intervalo ( µ - σ ) y ( µ + σ ), es de 0,68 (o sea 68 %). En nuestro ejemplo, el intervalo sería [5%; 11%]. Por lo tanto, ≤ ≤ =P(5 X 11) 0,68 . También, por simetría,

≤ ≤ =P(5 X 8) 0,34 y ≤ ≤ =P(8 X 11) 0,34 .

Page 30: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 14

Cuando el intervalo abarca dos desvíos estándar a partir de la media, por encima y por debajo de la misma, la probabilidad suma 95,45 %. Si tomamos 3 desvíos estándar la probabilidad suma 99,73 %. Es decir, que los retornos por encima y por debajo de tres desvíos estándar de la media (en nuestro caso sería inferiores a – 1 % o superiores a 17 % tienen probabilidad de ocurrencia prácticamente nula. Ésta es una de las justificaciones para usar la distribución normal en variables que claramente no pueden tomar valores extremos (muy bajos o muy altos). Aunque la distribución los permite, la probabilidad que les asigna es prácticamente nula.

Ejemplo 9: Distribución Normal de los retornos financieros Supongamos que se ha determinado que los retornos de un cierto activo financiero se distribuyen según una normal con media 3% y desvío 1,5%. 9.1 ¿Cuál es la probabilidad de obtener retornos de 4,5 % o más? Para resolver, tomemos en cuenta que 4,5% es, en nuestro caso la media µ más un desvío σ . Por lo tanto:

− Sabemos que el área total bajo la curva vale 1. − Por simetría, el área desde la media hasta + ∞ es 0,5. − Como sabemos, el área entre µ y µ + σ es 0,34.

− El área por encima de µ + σ será: 0,5 -0,34 = 0,16. La probabilidad de obtener retornos del 4,5 % o más es del 16 %

Page 31: ANEXO - Conceptos Básicos de Probabilidad y Estadística

9.2 ¿Cuál es la probabilidad de obtener retornos de 6 % o más? Para resolver, tomemos en cuenta que 6 % es, en nuestro caso, la media µ más dos desvíos σ . Por lo tanto:

− Como vimos, el área desde la media hasta + ∞ es 0,5. − Cuando el intervalo abarca dos desvíos estándar a partir de la

media, por encima y por debajo de la misma, el área vale 0,9545. − Por simetría, el área entre µ y µ + 2 σ es la mitad, o sea

0,47725. − El área por encima de µ + 2 σ será : 0,5 -0,47725 = 0,02275 =

2,3 % La probabilidad de obtener retornos del 6 % o más es del 2,3 % El lector debería poder verificar que:

• La probabilidad de obtener retornos del 7,5% o más, es del 0,14%.

• La probabilidad de obtener retornos negativos es del 2,3 %

Otras características de las distribuciones continuas: Simetría y Curtosis Simetría La simetría de la función normal respecto de la línea vertical trazada sobre su media, es evidente. Existen otras distribuciones, sin embargo, que no lo son y para cuantificar dicha asimetría, se utiliza un parámetro que se denomina Coeficiente de Asimetría o Skewness. Su fórmula matemática para el caso de una variable discreta X es:

=

− ⋅

∑n

3i i i

i 13

[X E(X )] P(X )

A(X)

En el caso de las distribuciones continuas, existe una fórmula análoga con integrales.

Page 32: ANEXO - Conceptos Básicos de Probabilidad y Estadística

En el caso de la normal y cualquier otra distribución simétrica, A = 0. Si A > 0 se dice que la distribución es asimétrica positiva. En este caso, las desviaciones positivas respecto de la media (elevadas al cubo y multiplicadas por sus respectivas probabilidades) priman sobre las negativas. Los valores bajos de la variable tienen una densidad de probabilidad bastante concentrada mientras que los valores altos tienen una densidad de probabilidad muy distribuida (ver figura).

Figura 15

En el caso de la asimetría positiva, se cumple que: µ (media) > M (modo). Si A < 0 (asimetría negativa), todo lo contrario y µ (media) < M (modo). En la Figura 15, se muestra una distribución de probabilidad con asimetría positiva. Curtosis La Curtosis (en inglés Kurtosis), por su parte, mide el apuntamiento de la función de densidad de probabilidad. Su fórmula matemática para el caso de una variable discreta X es:

=

− ⋅

∑n

4i i i

i 14

[X E(X )] P(X )

K(X)

Page 33: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Una distribución con alta curtosis tiende a tener un pico bien distinguible cerca de la media, declina rápidamente y tiene colas pesadas. Una distribución con baja curtosis tiende a tener un valor máximo suave cerca de la media en vez de un pico marcado. En el caso de la distribución normal K = 3, por lo general, se suele comparar la curtosis de las distribuciones de probabilidad con la curtosis de la distribución normal. Si K = 3 se dice que la distribución es mesocúrtica (tiene la misma curtosis que la normal). Si K > 3 la distribución es leptocúrtica (tiene mayor curtosis que la normal). Este es el caso de interés en finanzas, dado que se ha verificado una tendencia de los retornos de los activos a asumir una distribución de probabilidad leptocúrtica. Como dijimos, una distribución leptocúrtica se caracteriza por tener mayor apuntamiento que una normal y a la vez colas de la distribución más “pesadas”, es decir, con valores de probabilidad más altos que los de la normal. En este caso, los valores muy alejados de la media tienen asociados valores de probabilidad no despreciables. Un ejemplo de distribución leptocúrtica es la distribución llamada t de Student (ver figura).

Figura 16

Page 34: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Finalmente, si K < 3 se dice que la distribución es platicúrtica. Nota: Algunos autores definen a la curtosis como: Curtosis = K – 3. En este caso, un valor distinto de cero indicaría un apartamiento de la normal. Ejemplo 10: Generación de observaciones con distribución normal estándar EViews® tiene entre sus posibilidades la de generar números al azar provenientes de distintas distribuciones conocidas. Generaremos, por ejemplo, 1000 valores al azar extraídos de una distribución normal estándar. Para hacerlo abrimos un nuevo archivo no estructurado con 1000 observaciones mediante las instrucciones: File / New / Workfile y en la ventana Workfile Create, seleccionamos como estructura Unstructured-Undated y como rango 1000.

Figura 17

Para que el lector pueda reproducir el experimento debemos inicializar el generador de números aleatorios tipeando en la ventana de comandos rndseed 123456 y luego Enter (para acceder a la ventana de comandos, si no se encuentra visible, seleccionar en el menú principal Window/Command). Luego, seleccionamos Quick /Generate Series... y, en la ventanilla, que aparece escribimos:

Page 35: ANEXO - Conceptos Básicos de Probabilidad y Estadística

r = nrnd

Figura 18

r indica el nombre de la serie que estamos generando, nrnd es la instrucción de generación de números aleatorios tomados de la normal estándar. El lector puede abrir desde el menú principal con Help/EViews Help Topics la ventana de ayuda y en la solapa Buscar tipear nrnd. Le aparecerá una hoja de ayuda (el único inconveniente puede ser el idioma) que le explicará en detalle el uso del comando. En la parte inferior de la página de ayuda al comando nrnd, encontrará bajo el nombre de Cross-references (referencias cruzadas) un enlace (link) denominado Statistical Distribution Functions. Este enlace lo llevará a la hoja de ayuda con ese nombre donde verá la amplia capacidad de EViews® para generar números aleatorios de un variado menú de distribuciones de probabilidad. Volviendo a nuestro ejemplo, vemos la serie que se ha generado. En primer lugar, verifiquemos que ha aparecido un nuevo objeto denominado r en la ventana del archivo de trabajo y si lo abrimos haciendo doble clic en el ícono vemos una hoja de cálculo con los valores generados. Seleccionando View / Graph / Line vemos un gráfico de los datos.

Figura 19

Page 36: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Seleccionando View / Descriptive Statistics / Histogram and Stats, veremos un histograma de los datos y los principales estadísticos calculados a partir de los mismos.

Figura 20

Si analizamos este histograma vemos lo siguiente: El gráfico de barras es campanular, replicando aproximadamente la forma de la función de densidad de la normal, que es la distribución de origen. − La media de los datos es muy aproximadamente igual a cero (mean =

- 0,004067). − El desvío estándar de los datos es muy aproximadamente igual a uno

(std. dev. = 0,989490). − El coeficiente de asimetría A es aproximadamente igual a cero

(skewness = 0,067239). − El coeficiente de Curtosis es aproximadamente igual a 3 (Kurtosis =

2,887803). − Los datos están confinados a un intervalo aproximadamente igual a [-

3, +3] (Maximum = 3,747901, Minimum =- 2,964238).

Page 37: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Ejemplo 11: Generación de observaciones con distribución normal genérica Si deseamos generar números aleatorios con una distribución normal con media µ = 3 y desvío estándar σ = 1,5 (que denotamos como

2N(3;1,5 ) , podemos aprovechar de la siguiente propiedad: Propiedad: Si X es una variable aleatoria N (0,1), Y = a + b X es

2N(a;b )

por lo tanto, para generar valores correspondientes a una normal

2N(3;1,5 ) , generamos una variable X ~ N (0,1) y hacemos Y = 3 + 1,5 * X. En nuestro caso, repetimos los pasos del ejemplo anterior y, en la casilla de la ventana Generate Series by Equation, escribimos r2 = 3 + 1.5 * r. Si observamos el histograma y los datos estadísticos de la serie que se ha generado, vemos que hemos logrado nuestro cometido. La media es aproximadamente 3 (mean = 2,993900) y el desvío estándar aproximadamente 1,5 (std. dev. = 1,484235). También, el lector deberá verificar la curtosis, la asimetría y el rango para convencerse de que los datos simulados han sido extraídos de una normal como la deseada.

Figura 21

Page 38: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Ejemplo 12: Caracterización de datos empíricos Ahora, intentaremos el camino inverso. Tomamos los datos reales de los retornos de un activo y vemos su histograma, tratando de determinar de qué tipo de distribución han sido extraídos. En cierto modo, estaríamos suponiendo que los valores de los retornos han sido generados por un proceso aleatorio, el cual trataremos de reconocer a partir de los datos de que disponemos y que constituyen una muestra del mismo. Utilizaremos el archivo precios.wf1 ubicado en el CD y analizaremos los retornos del Banco Francés. Podemos generar la serie de retornos a partir de la serie de precios (Serie FRAN en el archivo), seleccionando Quick /Generate Series... e ingresando la fórmula r_fran = dlog(fran). Yendo a la ventana del archivo de trabajo, con un doble clic en el ícono de la serie R_FRAN recién creada podemos ver la serie. Si elegimos View / Graph / Line, vemos un gráfico de los datos.

Figura 22

Luego, elegimos ver el histograma de los datos con View / Descriptive Statistics / Histogram and Stats y tenemos:

Page 39: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 23

Vemos que el histograma tiene forma campanular típica de la normal (pero también de otras distribuciones de probabilidad). Claramente, la curtosis es más alta que la correspondiente a una normal (6,37 versus 3 de la normal) y, además, el coeficiente de asimetría es un poco elevado, mostrando asimetría negativa. El histograma muestra dos características asociadas a la leptocurtosis. En primer lugar, una cima apuntada y, en segundo lugar, valores muy alejados de la media (colas pesadas).

8. Otras distribuciones de probabilidad usuales En los capítulos posteriores, se hará referencia a algunas distribuciones importantes para el análisis estadístico, que surgen a partir de la distribución normal y que son las siguientes:

Distribución Chi – cuadrado ( χ 2)

Si 1 2 nX ,X ,...,X son variables aleatorias independientes, distribuidas

normalmente, con media cero y varianza uno, o sea iX iid N(0,1) para i=

1, 2,..., n, entonces, la variable aleatoria Y que surge de:

= + + +2 2 2

n1 2Y X X ... X se distribuye como Chi – cuadrado con n grados

de libertad, o sea:

Page 40: ANEXO - Conceptos Básicos de Probabilidad y Estadística

χ2Y (n) . La distribución chi – cuadrado tiene un solo parámetro y sólo

se define para valores no negativos de Y.

Figura 24

Distribución t de Student Es una distribución también derivada de la normal. Si X e Y son variables aleatorias independientes, y X está distribuida normalmente con media cero y varianza uno, mientras que Y está distribuida como chi – cuadrado,

con n grados de libertad, o sea: X N(0,1) y χ2Y (n) , entonces, la

variable aleatoria T que surge de =X

TY /n

tiene la distribución t con n

grados de libertad, o sea T t(n) . La distribución t comparte algunas propiedades con la normal, como por ejemplo su forma campanular, su simetría, etc. pero tiene mayor curtosis para valores de n bajos, mientras que para n = 30 es casi asimilable a una normal.

Page 41: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 25

Debido a esta propiedad de la distribución de tener un exceso de curtosis, tal como se observa en los histogramas, en los análisis académicos se supone, muchas veces, que la distribución de los retornos financieros sigue una distribución t. Distribución F de Snedecor Si dos variables 1V y 2V son independientes y tienen distribuciones chi –

cuadrado con ν1 y ν 2 grados de libertad respectivamente, la variable

ν=

ν

1 1

2 2

V /V

V / se distribuye con distribución F con ν1 y ν 2 grados de

libertad, o sea: ν ν 1 2V F( , ) .

Page 42: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 26

Como vemos, en este caso, la distribución tiene dos parámetros. Ejemplo 13: Trabajo con distribuciones de probabilidad Vamos a trabajar con las distribuciones de probabilidad aprovechando las facilidades del programa EViews®. Para hacerlo, abrimos el programa y generamos un nuevo archivo llamado distribuciones.wf1 con: File/New/Workfile... y elegimos 1000 datos no fechados. Para que el lector pueda reproducir el experimento, debemos inicializar el generador de números aleatorios tipeando en la ventana de comandos rndseed 123456 y, Enter (para acceder a la ventana de comandos, si no se encuentra visible, seleccionar en el menú principal Window/Command). Distribución normal Generaremos varias variable normales con Quick/Generate Series... y la fórmula =ix nrnd con i = 1, 2, 3, 4, 5. Una vez generadas deberíamos

chequear con View/Descriptive Statistics/Histogram and Stats la forma general de la distribución, sus parámetros y, muy especialmente, los test de normalidad (el test de Jarque-Bera) cuyo valor p debería ser mayor que 0,05 en todos los casos. Otro chequeo es la independencia de

Page 43: ANEXO - Conceptos Básicos de Probabilidad y Estadística

las series que podría constatarse, aproximadamente, mediante la baja correlación entre ellas. Esto último lo comprobamos seleccionando todas las series desde la ventana del archivo de trabajo y desplegando el submenú con el botón derecho del mouse abrimos como Grupo. Luego, con View/Descriptive Statistics/Common Sample disponemos de todos las características de las series, incluso los tests de normalidad. También, con View/Correlation/Common Sample, podemos verificar la matriz de correlaciones, que nos muestra una baja correlación entre las mismas.

Figura 27

Ya que disponemos de 5 variables X distribuidas como normales estándar (se dice así cuando la media es cero y al varianza uno), podemos generar variables chi – cuadrado. Generaremos chi_4 con las primeras tres normales mediante Quick/Generate Series... y la fórmula:

chi_4 = x1^2 + x2^2 + x3^2 + x4^2

Para ver la distribución de la serie chi:4 generada intentando una chi-cuadrado con 4 grados de libertad, hacemos doble clic en la serie y vemos su histograma como vimos en los ejemplos anteriores. La forma de la distribución es similar a la forma esperada (ver gráficos de la chi-cuadrado).

Page 44: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 28

La media teórica de una distribución chi-cuadrado es igual al número de grados de libertad y su varianza es dos veces dicho número. Por lo tanto, en nuestro caso, los valores teóricos son: µ = =n 4 y

σ = ⋅ = 2 n 8 2,83 . Como vemos, nuestros datos empíricos aproximan bien estos valores. También, podemos hacer un test (prueba) estadístico. Todavía no hemos visto qué significa esto, pero para poder volver sobre el tema una vez que tengamos la teoría, hagamos View/Distribution/Empirical Distribution Tests..., elijamos distribución chi-cuadrado (chi-square) y, si no ponemos el número de grados de libertad, EViews® lo estima. Si lo ingresamos, EViews® hace un test de correspondencia con la distribución teórica. En el primer caso, se obtendrá un valor estimado de 3,930054 que es muy similar al valor teórico y, en el segundo caso, la evidencia empírica llevará a aceptar que se trata de una distribución chi-cuadrado. También, con View/Distribution /Kernel Density Graphs...podemos obtener una versión suavizada del histograma.

Page 45: ANEXO - Conceptos Básicos de Probabilidad y Estadística

Figura 29

También, podemos generar una distribución t de Student con 4 grados de libertad, mediante la generación de la variable t_4 = x5/@sqrt(chi_4/4). Estaríamos aplicando la fórmula ya vista en la descripción de esta distribución. El histograma de la serie generada es:

Figura 30

La media teórica de una distribución t es igual a cero y su varianza es

σ =2 n / (n – 2). En nuestro caso, el valor teórico

sería: σ = − =2/(4 2) 1,41. Como vemos nuestros datos empíricos aproximan estos valores.