201
Dirección General de Institutos Tecnológicos del Estado de Veracruz. Instituto Tecnológico Superior de Las Choapas. Investigación CARRERA: Ing. Civil. MATERIA: PROBABILIDAD Y ESTADISTICA DOCENTE: ING. JOSE LUIS PEREZ RESENDIZ Alumno: Estela Ballinas Herrera SEMESTRE:

Estela Probabilidad

  • Upload
    kizzber

  • View
    110

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Estela Probabilidad

Dirección General de Institutos Tecnológicos del Estado de Veracruz.

Instituto Tecnológico Superior de Las Choapas.

Investigación

CARRERA:

Ing. Civil.

MATERIA:

PROBABILIDAD Y ESTADISTICA

DOCENTE:

ING. JOSE LUIS PEREZ RESENDIZ

Alumno:

Estela Ballinas Herrera

SEMESTRE:

Las Choapas, ver. A 13 de junio del 2012.

Page 2: Estela Probabilidad

UNIDAD 1.-TEORIA DE LA PROBABILIDAD

La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios estocásticos. Estos deben contraponerse a los fenómenos determinísticos, los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas, por ejemplo, si se calienta agua a 100 grados Celsius a nivel del mar se obtendrá vapor. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de una moneda. La teoría de probabilidades se ocupa de asignar un cierto número a cada posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un suceso es más probable que otro.

Muchos fenómenos naturales son aleatorios, pero existen algunos como el lanzamiento de un dado, donde el fenómeno no se repite en las mismas condiciones, debido a que la características del material hace que no exista una simetría del mismo, así las repeticiones no garantizan una probabilidad definida. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen a priori todos los parámetros que intervienen; ésta es una de las razones por las cuales la estadística, que busca determinar estos parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí.

En 1933, el matemático soviético AndréiKolmogórov propuso un sistema de axiomas para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida,

Page 3: Estela Probabilidad

desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.

Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del conocimiento, como puede ser la física (donde corresponde mencionar el desarrollo de las difusiones y el movimiento Browniano), o las finanzas (donde destaca el modelo de Black y Scholes para la valuación de acciones).

1.1.- CONJUNTOS SUS OPERACIONES Y SU REPRESENTACION.

  AZAR y DESCONOCIMIENTO.

    El azar está relacionado con el desconocimiento. Un ejemplo nos puede ayudar; piense en un proceso industrial que produce grandes cantidades de un artículo determinado. No todos los artículos producidos son idénticos, cada artículo puede calificarse como "bueno'' o "defectuoso''. Si de toda la producción se escoge un artículo "a ciegas'', ese artículo puede resultar bueno o defectuoso. Esta es una situación azarosa (o aleatoria) y la parte esencial de este azar es que no sabemos si el artículo seleccionado es defectuoso. Claro que con experiencia en el proceso es posible cuantificar de una manera numérica qué tan probable es que el artículo sea defectuoso o no.  

Page 4: Estela Probabilidad

AZAR e INCERTIDUMBRE.

    Hay otro concepto asociado al azar y es el de incertidumbre. Veamos un ejemplo. Respecto a una inversión, podemos estar contemplando invertir una cantidad de dinero. El retorno sobre la inversión puede ser fijo, como en el caso de una cuenta en un banco con interés fijo; pero pensemos en una empresa. El negocio puede resultar desde un gran éxito hasta un fracaso, es decir, la ganancia no es fija, sino que depende del éxito a obtener. Si no podemos evaluar qué tan factible es cada monto posible de la ganancia, tenemos una situación de incertidumbre. Por el contrario, si podemos tener una idea de qué tan probables son los diferentes resultados y entonces tendremos una situación de riesgo. Esta última es la que llamamos aleatoria o azarosa.

 

ESPACIO MUESTRAL Y PROBABILIDAD.

    El párrafo anterior se resume diciendo que en las situaciones o experimentos aleatorios tenemos dos elementos esenciales:

Una lista de posibilidades a futuro: espacio muestral Una cuantificación de la incertidumbre sobre esa lista de posibilidades: asignación de probabilidades. Cualquier problema o situación en la probabilidad, parte de esos dos elementos: Espacio Muestral y Probabilidades.

Page 5: Estela Probabilidad

ESPACIO MUESTRAL.

    El espacio muestral es el conjunto de todos los posibles resultados de un experimento o situación aleatoria.

    Si en una caja hay 10 manzanas y 2 están echadas a perder (¡al menos en este momento!), al extraer tres manzanas y ver cuantas son buenas podemos obtener 1, 2 o 3 buenas (¡0 buenas es imposible!). De modo que en este ejemplo el espacio muestral es: { 1, 2, 3 }.

    Si un juego consiste en tirar todas las aves que hagan falta hasta obtener tres perdoces seguidas o hasta que sean 15 aves, si nos fijamos en el número de aves requeridas, el espacio muestral es: { 3, 4, 5, . . . , 15 }. Pero si nos fijáramos en el número de disparos que resultan, entonces el espacio muestral es: { 0, 1, 2, . . . , 15 }.

    Es claro que para determinar el espacio muestral en un experimento aleatorio es necesario entender perfectamente:

Qué se va a hacer. Qué se va a observar o contar.

EVENTOS o SUCESOS.

    Cuando se tiene un espacio muestral llamamos, formalmente evento o suceso a cualquier subconjunto del espacio muestral.

    Decimos que un suceso se realiza, cuando el resultado del experimento aleatorio es uno de los sucesos posibles.

Page 6: Estela Probabilidad

    Las dos definiciones anteriores son muy abstractas. Veamos un par de ejemplos.

    En el caso de contar cuantas aves hacen falta para conseguir tres perdoces seguidas o tirar 15 aves; el espacio muestral son los números: 3, 4, 5, . . . , 15. Un evento podría ser { 3, 5, 7, . . . , 15}. Este evento corresponde a que el número de tiros necesario sea nón. Si al hacer los disparos los resultados fueran:

    PPSPPSSSPPP (aquí nos detenemos porque han caído ya, tres perdices seguidas), el evento si se realizó porque el número necesario fue 11 y es nón.

    SSSPPP (aquí paramos porque ya hay tres perdices), el evento no se realizó.

Podemos pensar que cada experimento al azar es un juego y que un evento es una lista de los resultados que hacen que YO gane.

    Otro ejemplo más. Al comprar llantas para mi coche, puede ser que manifiesten un defecto de fabricación dentro del período de garantía total y que el fabricante deba reponerlas. También puede pasar que el defecto se manifieste en el período de garantía parcial y que el fabricante bonifique sólo un porcentaje o que el defecto se manifieste después de vencido el período de garantía en cuyo caso el fabricante no paga nada. También puede pasar que las llantas no tengan defecto de fabricación aparente y que no haya garantía que reclamar. Como se puede considerar que las llantas que me vendieron se escogieron al azar de entre toda la producción, tenemos un experimento aleatorio.

    El espacio muestral en este experimento es: S = { T, P1, P2, P3, N, OK }. Con la siguiente notación

Page 7: Estela Probabilidad

T: pago total, P1 pago del 50%, P2: pago del 30%, P3: pago del 10%, N: nada de pago, OK: llantas sin defecto.

    El suceso { OK } sólo se realiza cuando las llantas no tienen defecto.

    En este último ejemplo se tiene un suceso simple porque consta de un solo punto del espacio muestral. Será compuesto cuando tenga varios puntos del espacio muestral. Se llama suceso imposible al que no puede ocurrir; éste evento corresponde al conjunto vacío. Otro suceso extremo es el espacio muestral mismo que, puesto que siempre ocurre, se llama suceso o evento seguro.

La probabilidad mide la frecuencia con la que aparece un resultado determinado cuando se realiza un experimento.Ejemplo : tiramos un dado al aire y queremos saber cual es la probabilidad de que salga un 2, o que salga un número par, o que salga un número menor que 4.

El experimento tiene que ser aleatorio, es decir, que pueden presentarse diversos resultados, dentro de un conjunto posible de soluciones, y esto aún realizando el experimento en las mismas condiciones. Por lo tanto, a priori no se conoce cual de los resultados se va a presentar:Ejemplo : lanzamos una moneda al aire: el resultado puede ser cara o cruz, pero no sabemos de antemano cual de ellos va a salir.

En la Lotería de Navidad, el "Gordo" (en España se llama "Gordo" al primer premio) puede ser cualquier número entre el 1 y el 100.000, pero no sabemos a priori cual va a ser (si lo supiéramos no estaríamos aquí escribiendo esta lección).

Page 8: Estela Probabilidad

Hay experimentos que no son aleatorios y por lo tanto no se les puede aplicar las reglas de la probabilidad.Ejemplo : en lugar de tirar la moneda al aire, directamente seleccionamos la cara. Aquí no podemos hablar de probabilidades, sino que ha sido un resultado determinado por uno mismo.

  Antes de calcular las probabilidades de un experimento aleatorio hay que definir una serie de conceptos:Suceso elemental: hace referencia a cada una de las posibles soluciones que se pueden presentar.Ejemplo : al lanzar una moneda al aire, los sucesos elementales son la cara y la cruz. Al lanzar un dado, los sucesos elementales son el 1, el 2, .., hasta el 6.

Suceso compuesto: es un subconjunto de sucesos elementales.Ejemplo : lanzamos un dado y queremos que salga un número par. El suceso "numero par" es un suceso compuesto, integrado por 3 sucesos elementales: el 2, el 4 y el 6

O, por ejemplo, jugamos a la ruleta y queremos que salga "menor o igual que 18". Este es un suceso compuesto formado por 18 sucesos elementales (todos los números que van del 1 al 18).

Espacio muestral: se denomina al conjunto de todos los posibles sucesos elementales. Cada experimento aleatorio tiene definido su espacio muestral (es decir, un conjunto con todas las soluciones posibles).Ejemplo : si tiramos una moneda al aíre una sola vez, el espacio muestral será cara o cruz.

Page 9: Estela Probabilidad

Si el experimento consiste en lanzar una moneda al aire dos veces, entonces el espacio muestral estaría formado por (cara-cara), (cara-cruz), (cruz-cara) y (cruz-cruz).

Entre los sucesos compuestos se pueden establecer distintas relaciones:

a) Un suceso puede estar contenido en otro: las posibles soluciones del primer suceso también lo son del segundo, pero este segundo suceso tiene además otras soluciones suyas propias.

Ejemplo: lanzamos un dado y analizamos dos sucesos: a) que salga el número 6, y b) que salga un número par. Vemos que el suceso a) está contenido en el suceso b)

Siempre que se da el suceso a) se da el suceso b), pero no al contrario. Por ejemplo, si el resultado fuera el 2, se cumpliría el suceso b), pero no el a).

b) Dos sucesos pueden ser iguales: esto ocurre cuando siempre que se cumple uno de ellos se cumple obligatoriamente el otro y viceversa.

Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga número par, y b) que salga múltiplo de 2. Vemos que las soluciones coinciden en ambos casos.

c) Unión de dos o más sucesos: la unión será otro suceso formado por todos los elementos de los sucesos que se unen.Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: 

Page 10: Estela Probabilidad

b) que el resultado sea mayor que 3. El suceso unión estaría formado por los siguientes resultados: el 2, el 4, el 5 y el 6d) Intersección de sucesos: es aquel suceso compuesto por los elementos comunes de dos o más sucesos que se intersectan.Ejemplo : lanzamos un dado al aire, y analizamos dos sucesos: a) que salga número par, y b) que sea mayor que 4. La intersección de estos dos sucesos tiene un sólo elemento, el número 6 (es el único resultado común a ambos sucesos: es mayor que 4 y es número par).e) Sucesos incompatibles: son aquellos que no se pueden dar al mismo tiempo ya que no tienen elementos comunes (su intersección es el conjunto vacio).Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un número menor que 3, y b) que salga el número 6. Es evidente que ambos no se pueden dar al mismo tiempo.f) Sucesos complementarios: son aquellos que si no se da uno, obligatoriamente se tiene que dar el otro.Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un número par, y b) que salga un número impar. Vemos que si no se da el primero se tiene que dar el segundo (y viceversa).  Probabilidad de sucesosAl definir los sucesos hablamos de las diferentes relaciones que pueden guardar dos sucesos entre sí, así como de las posibles relaciones que se pueden establecer entre los

Page 11: Estela Probabilidad

mismos. Vamos a ver ahora cómo se refleja esto en el cálculo de probabilidades.

a) Un suceso puede estar contenido en otro: entonces, la probabilidad del primer suceso será menor que la del suceso que lo contiene.

Ejemplo : lanzamos un dado y analizamos dos sucesos: a) que salga el número 6, y b) que salga un número par. Dijimos que el suceso a) está contenido en el suceso b).

P(A) = 1/6 = 0,166

P(B) = 3 / 6 = 0,50

Por lo tanto, podemos ver que la probabilidad del suceso contenido, suceso a), es menor que la probabilidad del suceso que lo contiene, suceso b).

b) Dos sucesos pueden ser iguales : en este caso, las probabilidades de ambos sucesos son las mismas.

Ejemplo : lanzamos un dado al aire y analizamos dos sucesos: a) que salga número par, y b) que salga múltiplo de 2. Las soluciones coinciden en ambos casos.

P(A) = 3 / 6 = 0,50

P(B) = 3 / 6 = 0,50

c) Intersección de sucesos: es aquel suceso compuesto por los elementos comunes de los dos o más sucesos que se intersectan. La probabilidad será igual a la probabilidad de los elementos comunes.

Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga número par, y b) que sea mayor que 3.

Page 12: Estela Probabilidad

La intersección de estos dos sucesos tiene dos elementos: el 4 y el 6.

Su probabilidad será por tanto:

P(A  B) = 2 / 6 = 0,33

d) Unión de dos o más sucesos: la probabilidad de la unión de dos sucesos es igual a la suma de las probabilidades individuales de los dos sucesos que se unen, menos la probabilidad del suceso intersección

Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga número par, y b) que el resultado sea mayor que 3. El suceso unión estaría formado por los siguientes resultados: el 2, el 4, el 5 y el 6.

P(A) = 3 / 6 = 0,50

P(B) = 3 / 6 = 0,50

P (A  B) = 2 / 6 = 0,33

Por lo tanto,

P (A u B) = (0,50 + 0,50) - 0,33 = 0,666

e) Sucesos incompatibles: la probabilidad de la unión de dos sucesos incompatibles será igual a la suma de las probabilidades de cada uno de los sucesos (ya que su intersección es el conjunto vacio y por lo tanto no hay que restarle nada).

Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un número menor que 3, y b) que salga el número 6.

La probabilidad del suceso unión de estos dos sucesos será igual a:

P(A) = 2 / 6 = 0,333

Page 13: Estela Probabilidad

P(B) = 1 / 6 = 0,166

Por lo tanto,

P(A u B) = 0,33 + 0,166 = 0,50

f) Sucesos complementarios: la probabilidad de un suceso complementario a un suceso (A) es igual a 1 - P(A)

Ejemplo: lanzamos un dado al aire. El suceso (A) es que salga un número par, luego su complementario, suceso (B), es que salga un número impar.

La probabilidad del suceso (A) es igual a :

P(A) = 3 / 6 = 0,50Luego, la probabilidad del suceso (B) es igual a:

P(B) = 1 - P(A) = 1 - 0,50 = 0,50Se puede comprobar aplicando la regla de "casos favorables / casos posibles":

P(B) = 3 / 6 = 0,50

g) Unión de sucesos complementarios: la probabilidad de la unión de dos sucesos complementarios es igual a 1.

Ejemplo: seguimos con el ejemplo anterior: a) que salga un número par, y b) que salga un número impar. La probabilidad del suceso unión de estos dos sucesos será igual a:

P(A) = 3 / 6 = 0,50

P(B) = 3 / 6 = 0,50

Por lo tanto,

P(A U B) = 0,50 + 0,50 = 1.

1.2.2.- DIAGRAMAS DE ÁRBOL

Page 14: Estela Probabilidad

Para la construcción de un diagrama en árbol se partirá poniendo una rama para cada una de las posibilidades, acompañada de su probabilidad.

En el final de cada rama parcial se constituye a su vez, un nudo del cual parten nuevas ramas, según las posibilidades del siguiente paso, salvo si el nudo representa un posible final del experimento (nudo final).

Hay que tener en cuenta: que la suma de probabilidades de las ramas de cada nudo ha de dar 1.

Ejemplos

Una clase consta de seis niñas y 10 niños. Si se escoge un comité de tres al azar, hallar la probabilidad de:

1 Seleccionar tres niños.

Page 15: Estela Probabilidad

2.-Seleccionar exactamente dos niños y una niña.

3.-Seleccionar exactamente dos niñas y un niño.

1 Seleccionar tres niñas.

Page 16: Estela Probabilidad

Calcular la probabilidad de que al arrojar al aire tres monedas, salgan:

Tres caras.

Experimentos compuestos

Un experimento compuesto es aquel que consta de dos o más experimentos aleatorios simples.

Es decir, si tiramos un dado, o una moneda, son experimentos aleatorios simples, pero si realizamos

Page 17: Estela Probabilidad

el experimento de tirar un dado y posteriormente una moneda, estamos realizando un experimento compuesto.

En los experimentos compuestos es conveniente usar el llamado diagrama en árbol para hacerse una idea global de todos ellos.

1.2.3.-PERMUTACIONES Y COMBINACIONES

Normalmente usamos la palabra "combinación" descuidadamente, sin pensar en si el orden de las cosas es importante. En otras palabras:

"Mi ensalada de frutas es una combinación de manzanas, uvas y bananas": no importa en qué orden pusimos las frutas, podría ser "bananas, uvas y manzanas" o "uvas, manzanas y bananas", es la misma ensalada.

   

"La combinación de la cerradura es 472": ahora sí importa el orden. "724" no funcionaría, ni "247". Tiene que ser exactamente 4-7-2.

Así que en matemáticas usamos un lenguaje más preciso:

Si el orden no importa, es una combinación.

Si el orden sí importa es una permutación.

Page 18: Estela Probabilidad

 ¡Así que lo de arriba se podría llamar "cerradura de permutación"!

Con otras palabras:

Una permutación es una combinación ordenada.

Para ayudarte a recordar, piensa en "Permutación... Posición"

Permutaciones

Hay dos tipos de permutaciones:

Se permite repetir: como la cerradura de arriba, podría ser "333".

Sin repetición: por ejemplo los tres primeros en una carrera. No puedes quedar primero y segundo a la vez.

1. Permutaciones con repetición

Son las más fáciles de calcular. Si tienes n cosas para elegir y eliges r de ellas, las permutaciones posibles son:

n × n × ... (r veces) = nr

(Porque hay n posibilidades para la primera elección, DESPUÉS hay n posibilidades para la segunda elección, y así.)

Page 19: Estela Probabilidad

Por ejemplo en la cerradura de arriba, hay 10 números para elegir (0,1,...,9) y eliges 3 de ellos:

10 × 10 × ... (3 veces) = 103 = 1000 permutaciones

Así que la fórmula es simplemente:

nr

donde n es el número de cosas que puedes elegir, y eliges r de ellas(Se puede repetir, el orden importa)

 

2. Permutaciones sin repetición

En este caso, se reduce el número de opciones en cada paso.

Por ejemplo, ¿cómo podrías ordenar 16 bolas de billar?

Después de elegir por ejemplo la "14" no puedes elegirla otra vez.

Así que tu primera elección tiene 16 posibilidades, y tu siguiente elección tiene 15 posibilidades, después 14, 13, etc. Y el total de permutaciones sería:

16 × 15 × 14 × 13 ... = 20,922,789,888,000

Page 20: Estela Probabilidad

Pero a lo mejor no quieres elegirlas todas, sólo 3 de ellas, así que sería solamente:

16 × 15 × 14 = 3360

Es decir, hay 3,360 maneras diferentes de elegir 3 bolas de billar de entre 16.

¿Pero cómo lo escribimos matemáticamente? Respuesta: usamos la "función factorial"

La función factorial (símbolo: !) significa que se multiplican números descendentes. Ejemplos:

4! = 4 × 3 × 2 × 1 = 24 7! = 7 × 6 × 5 × 4 × 3 × 2 × 1 = 5040 1! = 1

Nota: en general se está de acuerdo en que 0! = 1. Puede que parezca curioso que no multiplicar ningún número dé 1, pero ayuda a simplificar muchas ecuaciones.

Así que si quieres elegir todas las bolas de billar las permutaciones serían:

16! = 20,922,789,888,000

Pero si sólo quieres elegir 3, tienes que dejar de multiplicar después de 14. ¿Cómo lo escribimos? Hay un buen truco... dividimos entre 13!...

16 × 15 × 14 × 13 × 12 ...   = 16 × 15 × 14 = 3360

Page 21: Estela Probabilidad

13 × 12 ...

¿Lo ves? 16! / 13! = 16 × 15 × 14

La fórmula se escribe:

donde n es el número de cosas que puedes elegir, y eliges r de ellas(No se puede repetir, el orden importa)

Ejemplos:

Nuestro "ejemplo de elegir en orden 3 bolas de 16" sería:

16!

=

16!

=

20,922,789,888,000

= 3360

(16-3)! 13! 6,227,020,800

¿De cuántas maneras se pueden dar primer y segundo premio entre 10 personas?

10!

=

10!

=

3,628,800

= 90

(10-2)! 8! 40,320

(que es lo mismo que: 10 × 9 = 90)

Page 22: Estela Probabilidad

Notación

En lugar de escribir toda la fórmula, la gente usa otras notaciones como:

Combinaciones

También hay dos tipos de combinaciones (recuerda que ahora el orden no importa):

Se puede repetir: como monedas en tu bolsillo (5,5,5,10,10)

Sin repetición: como números de lotería (2,14,15,27,30,33)

1. Combinaciones con repetición

En realidad son las más difíciles de explicar, así que las dejamos para luego.

2. Combinaciones sin repetición

Así funciona la lotería. Los números se eligen de uno en uno, y si tienes los números de la suerte (da igual el orden) ¡entonces has ganado!

La manera más fácil de explicarlo es:

imaginemos que el orden sí importa (permutaciones), después lo cambiamos para que el orden no importe.

Volviendo a las bolas de billar, digamos que queremos saber qué 3 bolas se eligieron, no el orden.

Ya sabemos que 3 de 16 dan 3360 permutaciones.

Page 23: Estela Probabilidad

Pero muchas de ellas son iguales para nosotros, porque no nos importa el orden.

Por ejemplo, digamos que se tomaron las bolas 1, 2 y 3. Las posibilidades son:

El orden importa

El orden no importa

1 2 31 3 22 1 32 3 13 1 23 2 1

1 2 3

Así que las permutaciones son 6 veces más posibilidades.

De hecho hay una manera fácil de saber de cuántas maneras "1 2 3" se pueden ordenar, y ya la sabemos. La respuesta es:

3! = 3 × 2 × 1 = 6

(Otro ejemplo: 4 cosas se pueden ordenar de 4! = 4 × 3 × 2 × 1 = 24 maneras distintas, ¡prueba tú mismo!)

Así que sólo tenemos que ajustar nuestra fórmula de permutaciones para reducir por las maneras de ordenar los objetos elegidos (porque no nos interesa ordenarlos):

Esta fórmula es tan importante que normalmente se la escribe con grandes paréntesis, así:

Page 24: Estela Probabilidad

donde n es el número de cosas que puedes elegir, y eliges r de ellas(No se puede repetir, el orden no importa)

Y se la llama "coeficiente binomial".

Notación

Además de los "grandes paréntesis", la gente también usa estas notaciones:

Ejemplo

Entonces, nuestro ejemplo de bolas de billar (ahora sin orden) es:

16!

=

16!

=

20,922,789,888,000

= 560

3!(16-3)! 3!×13! 6×6,227,020,800

O lo puedes hacer así:

16×15×14

=

3360

= 560

3×2×1 6

Page 25: Estela Probabilidad

Así que recuerda, haz las permutaciones, después reduce entre "r!"

... o mejor todavía...

¡Recuerda la fórmula!

Es interesante darse cuenta de que la fórmula es bonita y simétrica:

Con otras palabras, elegir 3 bolas de 16 da las mismas combinaciones que elegir 13 bolas de 16.

16!

=

16!

=

16!

= 560

3!(16-3)! 13!(16-13)! 3!×13!

Triángulo de Pascal

Puedes usar el triángulo de Pascal para calcular valores. Baja a la fila "n" (la de arriba es n=0), y ve a la derecha "r" posiciones, ese valor es la respuesta. Aquí tienes un trozo de la fila 16:

1 14 91 364 ...1 15 105 455 1365 ...1 16 120 560 1820 4368 ...

 

Page 26: Estela Probabilidad

1. Combinaciones con repetición

OK, ahora vamos con este...

Digamos que tenemos cinco sabores de helado: banana, chocolate, limón, fresa y vainilla. Puedes tomar 3 paladas. ¿Cuántas variaciones hay?

Vamos a usar letras para los sabores: {b, c, l, f, v}. Algunos ejemplos son

{c, c, c} (3 de chocolate) {b, l, v} (uno de banana, uno de limón y uno

de vainilla) {b, v, v} (uno de banana, dos de vainilla)

(Y para dejarlo claro: hay n=5 cosas para elegir, y eliges r=3 de ellas.El orden no importa, ¡y sí puedes repetir!)

Bien, no puedo decirte directamente cómo se calcula, pero te voy a enseñar una técnica especial para que lo averigües tú mismo.

Imagina que el helado está en contenedores, podrías decir "sáltate el primero, después 3 paladas, después sáltate los 3 contenedores siguientes" ¡y acabarás con 3 paladas de chocolate!

  Entonces es como si ordenaras a un robot que te trajera helado, pero no cambia nada, tendrás lo que quieres.

Page 27: Estela Probabilidad

Ahora puedes escribirlo como   (la flecha es saltar, el círculo es tomar)

Entonces los tres ejemplos de arriba se pueden escribir así:

{c, c, c} (3 de chocolate):

{b, l, v} (uno de banana, uno de limón y uno de vainilla):

{b, v, v} (uno de banana, dos de vainilla):

OK, entonces ya no nos tenemos que preocupar por diferentes sabores, ahora tenemos un problema más simple para resolver: "de cuántas maneras puedes ordenar flechas y círculos"

Fíjate en que siempre hay 3 círculos (3 paladas de helado) y 4 flechas (tenemos que movernos 4 veces para ir del contenedor 1º al 5º).

Así que (en general) hay r + (n-1) posiciones, y queremos que r de ellas tengan círculos.

Esto es como decir "tenemos r + (n-1) bolas de billar y queremos elegir r de ellas". Es decir, es como el problema de elegir bolas de billar, pero con números un poco distintos. Lo podrías escribir así:

donde n es el número de cosas que puedes elegir, y eliges r de ellas

Page 28: Estela Probabilidad

(Se puede repetir, el orden no importa)

Es interesante pensar que podríamos habernos fijado en flechas en vez de círculos, y entonces habríamos dicho "tenemos r + (n-1) posiciones y queremos que (n-1) tengan flechas", y la respuesta sería la misma...

¿Qué pasa con nuestro ejemplo, cuál es la respuesta?

(5+3-1)!

=

7!

=

5040

= 35

3!(5-1)! 3!×4! 6×24

En conclusión

¡Uau, es un montón de cosas que absorber, quizás tendrías que leerlo otra vez para entenderlo todo bien!

Pero saber cómo funcionan estas fórmulas es sólo la mitad del trabajo. Averiguar cómo se interpreta una situación real puede ser bastante complicado.

Por lo menos ahora sabes cómo se calculan las 4 variantes de "el orden sí/no importa" y "sí/no se puede repetir".

1.2.4.- ESPACIO MUESTRAL Y EVENTOS

Page 29: Estela Probabilidad

El uso de conjuntos representados por diagramas de Ven, facilita la compresión de espacio muestral y evento, ya que el espacio muestral S, se puede equiparar con el conjunto universo, debido a que S contiene la totalidad de los resultados posibles de un experimento, mientras que los eventos E contienen solo un conjunto de resultados posibles del experimento, mientras que los puntos muéstrales se equiparan con los elementos.

Vamos a suponer que el experimento que se realiza es el lanzamiento de un dado y queremos conocer ¿cuál es la probabilidad de que caiga un 3 o un 5? Si S contiene la totalidad de los resultados posibles, entonces S = {1, 2, 3, 4, 5, 6} puesto que el dado tiene 6 caras y si buscamos la probabilidad P de que caiga 3 o 5, esto constituye un evento entonces, E = {3, 5}.

El espacio muestral S, está representado por un rectángulo, este contiene eventos E representados a través de círculos y puntos muéstrales. Dado que en E existen dos elementos y en S seis, la probabilidad P de que ocurra E es 2 de 6 y se obtiene al dividir el número de elementos en E sobre el número de elementos en S.

Espacio Muestral.- Se llama espacio muestral (E) asociado a un experimento aleatorio, el conjunto de todos los resultados posibles de dicho experimento. Al lanzar una moneda, el espacio muestral es E = {sale cara, sale sello} ó E = {c, s}.

Al lanzar un dado de seis caras, el espacio muestral es E = {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6} ó E = {1, 2, 3, 4, 5, 6}

Al lanzar dos monedas, el espacio muestral es E = (c,c), (c,s), (s,c), (s,s).

Page 30: Estela Probabilidad

Al lanzar tres monedas, el espacio muestral es E = (c,c,c), (c,c,s), (c,s,c), (c,s,s), (s,c,c), (s,c,s), (s,s,c), (s,s,s) Evento o Suceso: Se llama evento o suceso a todo subconjunto de un espacio muestral. Por ejemplo en el espacio muestral E = {1, 2, 3, 4, 5, 6} del lanzamiento de un dado, los siguientes son eventos:

1. Obtener un número primo A = {2, 3, 5} 2. Obtener un número primo y par B = {2} 3. Obtener un número mayor o igual a 5 C = {5, 6}

1.3.-DEFINICIONES DE PROBABILIDAD

Antes de profundizar en la forma como se utilizan las probabilidades, es necesario conocer de cierta manera de donde provienen. Hay tres formas de calcular o estimar la probabilidad. El enfoque clásico o "a priori"proveniente de los juegos de azar o definición clásica de Laplace que se emplea cuando los espacios muéstrales son finitos y tienen resultados igualmente probables; la definición empírica, "a posteriori" o frecuencia que se basa en la frecuencia relativa de ocurrencia de un evento con respecto a un gran número de ensayos repetidos y por último la definición de Kolmogorov o definici6n axiomática de probabilidad.

Seleccionar uno de los tres enfoques dependerá de la naturaleza del problema.

1.3.1.-DEFINICION CLÁSICA

DEFINICIÓN CLÁSICA DE LAPLACE O "A PRIORI"

Page 31: Estela Probabilidad

Esta definición es de uso limitado puesto que descansa sobre la base de las siguientes dos condiciones:

1. El espacio muestra de todos los resultados posibles S es finito.

2. Los resultados del espacio muestra deben ser igualmente probables.

Bajo estas condiciones y si A es el evento formado por n(A) resultados del espacio muestra y, el número total de resultados posibles es n(S), entonces

Ejemplo 24: Si se extrae una carta de un paquete de 52 cartas de las cuales 26 son negras (13 espadas A, 2, 3,  , 10, J, Q, K; 13 son tréboles); y 26 son rojas (13 corazones y 13 diamantes), la probabilidad de que la carta sea un as

es  porque el evento de "extraer un as" consta de 4 de los 52 resultados igualmente probables. La probabilidad de

que la carta sea negra es  y la probabilidad de que sea

un diamante es  .

 

Ejemplo 25: Al lanzar un dado, ¿cuál es la probabilidad de obtener un número par?

Solución: S ={1, 2, 3, 4, 5, 6}, y hay tres pares, luego,

 

Page 32: Estela Probabilidad

Ejemplo 26: ¿Cuál es la probabilidad de que una familia que tiene tres hijos, hayan dos niñas y un niño, si se considera igualmente probable el nacimiento de un niño o niña?

Solución: Usando "a" para niña y "o" para niño, el espacio muestra es:

S = {aaa, aao, aoa, aoo, oaa, oao, ooa, ooo} n(S) = 8

El evento A en que hayan dos niñas y un niño es

A = {aao, aoa, oaa, } n(A) = 3

Obsérvese que siempre 0 < P(A) < 1, puesto que 0 < n(A) < n(S).

DEFINICIÓN EMPÍRICA "A POSTERIORI" 0 FRECUENCIAL

La definición clásica se ve limitada a situaciones en las que hay un número finito de resultados igualmente probables. Por desgracia, hay situaciones prácticas que no son de este tipo y la definición de Laplace no se puede aplicar. Por ejemplo, si se pregunta por la probabilidad de que un paciente se cure mediante cierto tratamiento médico, o la probabilidad de que una determinada máquina produzca artículos defectuosos, entonces no hay forma de introducir resultados igualmente probables. Por ello se necesita un concepto más general de probabilidad. Una forma de dar respuesta a estas preguntas es obtener algunos datos empíricos en un intento por estimar las probabilidades.

Supongamos que efectuamos un experimento n veces y que en esta serie de n ensayos el evento A ocurre

Page 33: Estela Probabilidad

exactamente r veces, entonces la frecuencia relativa del

evento es  ,o sea, 

Si continuamos calculando esta frecuencia relativa cada cierto número de ensayos, a medida que aumentamos n, las frecuencias relativas correspondientes serán más estables; es decir; tienden a ser casi las mismas; en este caso decimos que el experimento muestra regularidad estadística o estabilidad de las frecuencias relativas. Esto se ilustra en la siguiente tabla, de una moneda lanzada al aire 1000 veces.

 

 

# de lanzamientos

# de

caras

Frecuencia relativa

Frecuencia acumulada

Frecuencia acumulada relativa

1 – 100 52 0.52 52 0.520

100 – 200 53 0.53 105 0.525

200 – 300 52 0.52 157 0.523

300 – 400 47 0.47 204 0.510

400 – 500 51 0.51 255 0.510

500 – 600 53 0.53 308 0.513

600 – 700 48 0.48 356 0.509

700 – 800 46 0.46 402 0.503

800 – 900 52 0.52 454 0.504

900 -1000 54 0.54 508 0.508

Page 34: Estela Probabilidad

Total: 1000 508 0.508  

 

 

 

En un total de 1000 lanzamientos ocurrieron 508 caras, es decir la frecuencia relativa es aproximadamente 0.50.

Tres investigadores realizaron experimentos y obtuvieron los siguientes resultados

Investigador

Número de lanzamientos

Número de caras

Frecuencia relativa

Buffon 4040 2048 0.5069

K. Pearson

12000 6019 0.5016

K. Pearson

24000 12012 0.5005

La mayoría de experimentos aleatorios de importancia práctica tienen estabilidad, por esto podemos sospechar que prácticamente será cierto que la frecuencia relativa de un evento E en un gran número de ensayos es aproximadamente igual a un determinado número P(E), o sea, la probabilidad del evento E es

Obsérvese que este número es una propiedad que no depende solamente de E, sino que se refiere a un cierto

Page 35: Estela Probabilidad

espacio muestra S y a un experimento aleatorio. Entonces, decir que el evento E tiene probabilidad P(E) significa que si efectuamos el experimento muchas veces, es prácticamente cierto que la frecuencia relativa de E, fr(E) es aproximadamente igual a P(E).

Cuando se usa la definición frecuencial, es importante tomar en cuenta los siguientes aspectos:

i. La probabilidad obtenida de esta manera es únicamente una estimación del valor real.

ii. Cuanto mayor sea el número de ensayos, tanto mejor será la estimación de la probabilidad; es decir, a mayor número de ensayos mejor será la estimación.

iii. La probabilidad es propia de sólo un conjunto de condiciones idénticas a aquéllas en las que se obtuvieron los datos, o sea, la validez de emplear esta definición depende de que las condiciones en que se realizó el experimento sean repetidas idénticamente.

 

DEFINICIÓN AXIÓMATICA DE KOLMOGOROV

Las definiciones anteriores son netamente empíricas o experimentales, sin embargo después de establecer una forma de determinar la probabilidad experimentalmente, se pueden deducir leyes o propiedades de la probabilidad en forma lógica o computacional bajo ciertas suposiciones llamados axiomas de la probabilidad.

La probabilidad de un evento A se define como el número P(A), tal que cumple con los siguientes axiomas:

Page 36: Estela Probabilidad

AXIOMA 1: La probabilidad P(A) de cualquier evento no debe ser menor que cero ni mayor que uno: 0 < P(A) < 1

AXIOMA 2: P(S) = 1

AXIOMA 3: Si A y B son dos eventos mutuamente exclusivos (A  B =  ), entonces: P (A  B) = P(A) + P(B)

Toda la teoría elemental de la probabilidad está construida sobre las bases de estos tres simples axiomas.

Si el espacio muestral es infinito, debemos reemplazar el axioma 3 por el

AXIOMA 4: Si A1, A2, … son eventos mutuamente exclusivos, entonces tenemos que

P(A1  A2  …) = P(Al) + P(A2) +…+

1.3.1.-Definición clásica

Definición Clásica de la Probabilidad

Esta definición clásica de probabilidad fue una de las primeras que se dieron (1900) y se atribuye a Laplace; también se conoce con el nombre de probabilidad a priori pues, para calcularla, es necesario conocer, antes de realizar el experimento aleatorio, el espacio muestral y el número de resultados o sucesos elementales que entran a formar parte del suceso.

La aplicación de la definicion clásica de probabilidad puede presentar dificultades de aplicación cuando el espacio

Page 37: Estela Probabilidad

muestral es infinito o cuando los posibles resultados de un experimento no son equiprobables. Ej: En un proceso de fabricación de piezas puede haber algunas defectuosas y si queremos determinar la probabilidad de que una pieza sea defectuosa no podemos utilizar la definición clásica pues necesitaríamos conocer previamente el resultado del proceso de fabricación.Para resolver estos casos, se hace una extensión de la definición de probabilidad, de manera que se pueda aplicar con menos restricciones, llegando así a la definición frecuentista de probabilidad.

1.3.3.- AXIOMÁTICA

os axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una función definida sobre un conjunto de sucesos determine consistentemente sus probabilidades. Fueron formulados por Kolmogórov en 1933.

Dado un conjunto de sucesos elementales, Ω, sobre el que se ha definida una σ-álgebra (léase sigma-álgebra) σ de subconjuntos de Ω y una función P que asigna valores reales a los miembros de σ, a los que denominamos "sucesos", se dice que P es una probabilidad sobre (Ω,σ) si se cumplen los siguientes tres axiomas.

[editar]Primer axioma

La probabilidad de un suceso   es un número real mayor o igual que 0.

Page 38: Estela Probabilidad

[editar]Segundo axioma

La probabilidad del total,  , es igual a 1, es decir,

[editar]Tercer axioma

Si   son sucesos mutuamente excluyentes (incompatibles dos a dos, disjuntos o de intersección vacía dos a dos), entonces:

.

Según este axioma se puede calcular la probabilidad de un suceso compuesto de varias alternativas mutuamente excluyentes sumando las probabilidades de sus componentes.

En términos más formales, una probabilidad es una medida sobre una σ-álgebra de subconjuntos del espacio muestral, siendo los subconjuntos miembros de la σ-álgebra los sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias a su definición matemática, verifica igualmente los tres axiomas de Kolmogórov. A la terna formada por el espacio muestral, la σ-álgebra y la función de probabilidad se la denomina Espacio probabilístico, esto es, un "espacio de sucesos" (el espacio muestral) en el que se han definido los posibles sucesos a considerar (la σ-álgebra) y la probabilidad de cada suceso (la función de probabilidad).

Propiedades que se deducen de los axiomas

De los axiomas anteriores se deducen otras propiedades de la probabilidad:

1.  donde el conjunto vacío   representa en probabilidad el suceso imposible

Page 39: Estela Probabilidad

2. Para cualquier suceso 3.4. Si   entonces 5.

Ejemplos

Como ejemplo se puede tomar como espacio muestral a los posibles resultados al arrojar un dado corriente  , tomaremos como σ-álgebra todos los subconjuntos posibles de Ω (que en matemáticas se denota por  ) y como función de probabilidad

donde   representa el número de elementos del conjunto  .

Es fácil comprobar que esta función verifica los tres axiomas de Kolmogórov y, por tanto, consituye una probabilidad sobre este conjunto.

1. , puesto que es el cociente de dos números positivos

2.

3. Si   de tal manera que   entonces

con lo que 

1.4.- PROBABILIDAD CONDICIONAL E INDEPENDIENTE

Page 40: Estela Probabilidad

Eventos independientes: dos eventos A y B son independientes sisé la ocurrencia o no ocurrencia afecta la probabilidad asignada a la ocurrencia del otro.

Algunas veces es sencillo determinar la independencia por ejemplo los dos eventos considerados se refieren a ensayos no relacionados tales como el lanzamiento de dos monedas de diferente denominación en consecuencia los resultados con ambas monedas son independientes. La falta de independencia o sea la dependencia es demostrada por la siguiente ilustración considérese el experimento donde se lanzan dos dados y se observa los dos eventos la suma es igual a 10 y número doble que se establece P(10)=3/36=1/12, P(doble)=6/36=1/6 ¿la ocurrencia de 10 afecta la probabilidad de doble? Considérese esta pregunta de la manera siguiente: a ocurrido una suma igual a 10 debe de ser uno de los resultados siguientes [(4,6),(5,5),(6,4)] una de estas tres posibilidades es número doble.

En consecuencia debe concluirse que “P” (doble sabiendo que ha ocurrido un diez), escrita

P(doble/10), es igual a 1/3 ya que un tercio es distinta a la probabilidad de un doble puede concluirse que el evento 10 afecta la probabilidad de un número doble así un doble y 10 son eventos dependientes. El símbolo P(A/B)=P(B/A)=PB.

Considérese la probabilidad condicional. Tómese, por ejemplo, el experimento donde se lanza un dado: S=[1,2,3,4,5,6] en este experimento pueden definirse dos eventos como A =“ocurre un 4″, y B=“ocurre un número par”. Entonces P(A)=1/6, el evento A se satisface

Page 41: Estela Probabilidad

exactamente por uno de los seis muéstrales igualmente probables en S. La probabilidad condicional de A dado B, P(A/B), se encuentra de manera similar, pero S ya no es este caso el espacio muestral. Esto puede verse de la manera siguiente: se lanza un dado sin que se pueda ver, aunque recibe la información de que el número obtenido sea par, es decir que ha ocurrido el evento B. Esta es la condición dada, conociéndola a uno se la pide asignar la probabilidad del evento “ocurre un 4″. Sólo haqy tres posibilidades en el nuevo espacio muestral (reducido), [2,4,6]. Cada uno de los tres resultados es igualmente probable: en consecuencia P(A B)=1/3.

Esto puede escribirse como:

P(A/B) = P(A y B) / P(B)

REGLA DE LA MULTIPLICACIÓN

.- Regla de la multiplicación CASO GENERAL

Sean A y B dos eventos definidos en el espacio muestral S. Entonces :

P(A y B)=P(A).P(B/A)

o bien

P(A y B)=P(B).P(A/B)

Si los eventos A y B son independientes, el caso general de la regla de la multiplicación (la fórmula anterior).

.- Regla de la multiplicación CASO ESPECIAL

Page 42: Estela Probabilidad

Sean A y B dos eventos definidos en el espacio muestral S. Si A y B son eventos independientes entonces:

P(A y B)=P(A).P(B)

Esta fórmula puede ser generalizada. Si A,B,C;…;g son eventos independientes, entonces:

P(A y B y C y … y G)=P(A).P(B).P©…P(G=

TRATAMIENTO DE LA PROBABILIDAD CONDICONAL E INDEPENDENCIA DE EVENTOS

EJEMPLO: En un grupo de 200 estudiantes se selecciona uno de ellos en forma aleatoria. Se sabe que en el grupo hay 140 estudiantes de tiempo completo (80 mujeres y 60 hombres), y 60 de tiempo parcial (40 mujeres y 20 hombres) el evento A es “la persona seleccionada es estudiante de tiempo completo “ y el evento C es “el estudiante selecciona-

do es mujer”.

EL USO DE DIAGRAMAS DE ARBOL PARA EL CÁLCULO DE LA PROBABILIDAD

Muchos problemas sobre probabilidades se pueden representar con diagramas de árbol. En tales casos se pueden utilizar con facilidad las reglas de la multiplicación y la adición para ilustrar la solución de problemas sobre probabilidades.

Se ha extraído dos fichas de póker de una caja que contiene una ficha roja, otra blanca y otra verde. El diagrama de árbol que representa este experimento en la primera figura muestra la segundad y la primera selección. En cada extracción se selecciona una ficha y no se reemplaza.

Page 43: Estela Probabilidad

Después de que se ha dibujado e identificado el árbol, es necesario que se asigne probabilidades a cada rama. Si se supone que es igualmente probable que se extraiga cualquier ficha en cualquier selección, es posible asignar una probabilidad a cada segmento de cada rama de árbol como se muestra en la segunda figura. Nótese que un conjunto de ramas que nacen de un punto común tiene una probabilidad total igual a uno. En este diagrama en particular hay cuatro de tales conjuntos de segmentos de famas. El diagrama de árbol muestra seis resultados distintos. Leyendo hacia abajo la rama indica el resultado (R,B);la dos (2), (R,V); etc. Cada resultado el esta representado por una rama que nace en un punto inicial común y termina en los puntos extremos de la derecha.

La probabilidad asociada con el resultado (R,B) P(ficha roja en la primera extracción y blanca en la segunda), se encuentra multiplicando P(R en la primera selección)*P(B en la segunda selección R en la primera). Estas son las dos probabilidades 1/3 y ½ indicadas en los dos segmentos de la rama uno en la figura dos. El ½ es la probabilidad condicional requerida por la regla de la multiplicación. En consecuencia debe n}multiplicarse a loa largo de las ramas. Algunos eventos están constituidos por más de un resultado del experimento. Por ejemplo supóngase que se ha pedido la probabilidad de que sean seleccionadas una ficha roja y otra blanca. Se observa que hay dos resultados que satisfacen dos eventos, la rama uno y la tres con “o” se utiliza la regla de la adición .puesto que las ramas de un diagrama representan eventos mutuamente excluyentes, se tiene que :

P(R y una B)= SRC=“Image1.gif” WIDTH=221 HEIGHT=45>

EVENTOS INDEPENDIENTES

Page 44: Estela Probabilidad

Suponemos que se sabe que la probabilidad de A dada la de B es igual a la probabilidad de A. ¿Qué se podría concluir respecto a los eventos de A y B? ¿El hecho de saber que el evento b a ocurrido, afecta de algún modo la probabilidad de A?. La situación anterior conduce a la necesidad de definir otro tipo de eventos: Si A y B son eventos independientes, entonces P (A B)= P(A).

Definición: A y B son eventos independientes si y solo sí

Teorema 1: si A y B son eventos independientes SRC=“Image2.gif” WIDTH=60 HEIGHT=21>y SRC=“Image3.gif” WIDTH=60 HEIGHT=21>

, entonces

Nótese que la definición de eventos independientes se aplica a todos los eventos sean o no sus probabilidades iguales a cero. No sería así si hubiéramos ocupado el teorema 1 para la definición de eventos independientes.

Si escoge una familia del conjunto de todas las que tiene 2 niños ¿Cuál es la probabilidad de que ambos sean varones si se sabe que por lo menos que hay un varón en esa familia. Sea S=(m,m),-(m,f).(f,m),(f,f) el espacio muestra, donde la primera letra de cualquier pareja ordenada indica el sexo del primogénito y la segunda el sexo del segundo.

Supondremos que los cuatro puntos son igualmente probables (esta suposición no es correcta para determinadas razones pero es aceptable).

Ahora bien, si se sabe que por lo menos uno de los hijos es varón ¿Cuál es el nuevo espacio muestral? De los tres punto de ese espacio ¿ Cuántos representan familias en las que

Page 45: Estela Probabilidad

ambos hijos son varones?. Entonces la probabilidad requerida es 1/3.

Demostración: de la teoría de conjuntos sabemos que SRC=“Image4.gif” WIDTH=97 HEIGHT=21>(verifique esto con un diagrama de Venn). Del teorema anterior, tenemos SRC=“Image5.gif” WIDTH=105 HEIGHT=25>.

1.5.-TEOREMA DE BAYES

Teorema de Bayes

Sea A1, A2, ...,An un sistema completo de sucesos, tales que la probabilidad de cada uno de ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las probabilidades condicionales P(B/Ai). entonces la probabilidad P(Ai/B) viene dada por la expresión:

Ejercicio 8-1:

Tres máquinas, A, B y C, producen el 45%, 30% y 25%, respectivamente, del total de las piezas producidas en una fábrica. Los porcentajes de producción defectuosa de estas máquinas son del 3%, 4% y 5%.

Page 46: Estela Probabilidad

a. Seleccionamos una pieza al azar; calcula la probabilidad de que sea defectuosa.

b. Tomamos, al azar, una pieza y resulta ser defectuosa; calcula la probabilidad de haber sido producida por la máquina B.

c. ¿Qué máquina tiene la mayor probabilidad de haber producido la citada pieza defectuosa?

Solución:

Sea D= "la pieza es defectuosa" y N= "la pieza no es defectuosa". La información del problema puede expresarse en el diagrama de árbol adjunto.

a. Para calcular la probabilidad de que la pieza elegida sea defectuosa, P(D), por la propiedad de la probabilidad total,

P(D) = P(A) · P(D/A) + P(B) · P(D/B) + P(C) · P(D/C) == 0.45 · 0.03 + 0.30 · 0.04 + 0.25 · 0.05 = 0.038

b. Debemos calcular P(B/D). Por el teorema de Bayes,

c. Calculamos P(A/D) y P(C/D), comparándolas con el valor de P(B/D) ya calculado. Aplicando el teorema de Bayes, obtenemos:

Page 47: Estela Probabilidad

Unidad 2.- variables aleatorias y distribuciones

2.1.-variable aleatoria y funciones de densidad de probabilidad y de distribución acumulatoria

Toda distribución de probabilidad es generada por una variable aleatoria x, la que puede ser de dos tipos:

1.      Variable aleatoria discreta (x). Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo puede tomar valores enteros y un número finito de ellos. Ejemplos:x Variable que nos define el número de burbujas por envase de vidrio que son generadas en un proceso dado.x0, 1, 2, 3, 4, 5, etc, etc. burbujas por envasexVariable que nos define el número de productos defectuosos en un lote de 25 productos.x0, 1, 2, 3,....,25 productos defectuosos en el lote

 

Page 48: Estela Probabilidad

xVariable que nos define el número de alumnos aprobados en la materia de probabilidad en un grupo de 40 alumnos.x0, 1, 2, 3, 4, 5,....,40 alumnos aprobados en probabilidad

 Con los ejemplos anteriores nos damos cuenta claramente que los valores de la variable x siempre serán enteros, nunca fraccionarios.

 2.      Variable aleatoria continua (x). Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque los valores que toma son totalmente al azar y continua porque puede tomar tanto valores enteros como fraccionarios y un número infinito de ellos.

 Ejemplos: xVariable que nos define el diámetro de un engrane en pulgadasx5.0”, 4.99, 4.98, 5.0, 5.01, 5.0, 4.96 xVariable que nos define la longitud de un cable o circuito utilizado en un arnés de autox20.5 cm, 20.1, 20.0, 19.8, 20,6, 20.0, 20.0 xVariable que nos define la concentración en gramos de plata de algunas muestras de mineralx14.8gramos, 12.0, 10.0, 42.3, 15.0, 18.4, 19.0, 21.0, 20.8 Como se observa en los ejemplos anteriores, una variable continua puede tomar cualquier valor, entero o fraccionario, una forma de distinguir cuando se trata de una variable continua es que esta variable nos permite medirla o evaluarla, mientras que una variable discreta no

Page 49: Estela Probabilidad

es medible, es una variable de tipo atributo, cuando se inspecciona un producto este puede ser defectuoso o no, blanco o negro, cumple con las especificaciones o no cumple, etc, etc. Las variables descritas anteriormente nos generan una distribución de probabilidad, las que pueden ser. 

1)      Distribución de probabilidad discreta.2)      Distribución de probabilidad continúa.  Las características de cada una de las distribuciones anteriores se mencionarán a continuación:  DISTRIBUCIÓN  DE  PROBABILIDAD  DISCRETA.Características:1. Es generada por una variable discreta (x).

 xVariable que solo toma valores enterosx0, 1, 2, 3, 4, 5, 6, 7, 8,...etc, etc. 2. p(xi)0   Las probabilidades asociadas a cada uno de los valores que toma x deben ser mayores o iguales a cero. 3.p(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los valores que toma x debe ser igual a 1.  DISTRIBUCIÓN DE PROBABILIDAD CONTINUA.Características:1. Es generada por una variable continua (x).

Page 50: Estela Probabilidad

 x   Es una variable que puede tomar tanto valores enteros como fraccionarios. x   1.0, 3.7, 4.0, 4.6, 7.9, 8.0, 8.3, 11.5, ....., 2. f(x)0    Las probabilidades asociadas a cada uno de

los valores que toma x deben ser mayores o iguales a cero. Dicho de otra forma, la función de densidad de probabilidad deberá tomar solo valores mayores o iguales a cero. La función de densidad de probabilidad sólo puede estar definida en los cuadrantes I y II.

 

3.     La sumatoria de las probabilidades asociadas a cada uno de los valores que toma x debe ser igual a 1. El área definida bajo la función de densidad de probabilidad  deberá ser de 1.  CALCULO DE MEDIA Y DESVIACIÓN ESTANDAR PARA UNA DISTRIBUCIÓN DISCRETA 1.      Media o valor esperado de x.- Para determinar la

media de la distribución discreta se utiliza la siguiente fórmula:

 

                                                        Donde: = media de la distribuciónE(x) = valor esperado de xxi = valores que toma la variable

Page 51: Estela Probabilidad

p(xi) = probabilidad asociada a cada uno de los valores de la variable x 

2. Desviación estándar. Para determinar la desviación estándar de la distribución discreta se utiliza la siguiente fórmula:

 

                                                    Donde: = desviación estándar = media o valor esperado de xxi = valores que toma la variable xp(xi) = probabilidad asociada a cada uno de los valores que toma x Ejemplos:Según estadísticas la probabilidad de que el motor de un auto nuevo, de cierto modelo, y  marca sufra de algún desperfecto en los primeros 12 meses de uso es de 0.02, si se prueban tres automóviles de esta marca  y modelo, encuentre el número esperado de autos que no sufren de algún desperfecto en los primeros doce meses de uso y su desviación estándar.

 Solución:Haciendo uso de un diagrama de árbol, usando las literales siguientes, se obtiene el espacio muestral  como se muestra a continuación;

   N = no sufre de algún desperfecto en el motor los primeros 12 meses de uso

S =  sufre de algún desperfecto en el motor los primeros 12 meses de uso  

Page 52: Estela Probabilidad

 

 

                                   N

                                               S 

                        N

                                               N                               

                                   S                                              

                                               S                                              

                                               N                                  

1er auto                       N                                                       S

                        S         

                                         N

                  2o auto            S         

Page 53: Estela Probabilidad

                                                            3o      S = NNN, NNS, NSN, NSS, SNN, SNS, SSN, SSS x = variable que nos define el número de autos que no sufre de algún desperfecto en el motor durante los primeros 12 meses de uso x = 0, 1, 2 o 3 autos que no sufren algún desperfecto en el motor en los primeros 12 meses de uso  p(x=0)=p(SSS)=(0.02)(0.02)(0.02)=0.000008p(x=1)=p(NSS, SNS, SSN)=(0.98)(0.02)(0.02)+(0.02)(0.98)(0.02)+(0.02)(0.02)(0.98)==0.001176p(x=2)=p(NNS,NSN,SNN)=(0.98)(0.98)(0.02)+(0.98)(0.02)(0.98)+(0.02)(0.98)(0.98)==0.057624

      p(NNN) = (0.98)(0.98)(0.98) =0.941192 Por tanto  la media o valor esperado se determina de la siguiente manera:  

 =E(x) =  (0)(0.000008)+(1)(0.001176)+(2)(0.057624)+(3)(0.941192)==0.0+0.001176+0.115248+2.823576=2.94 3 autos que no sufren algún desperfecto en el motor en los primeros 12 meses de uso La interpretación de la media o valor esperado es; se espera que los 3 autos probados no sufran de algún desperfecto en el motor en los primeros 12 meses de uso.

Page 54: Estela Probabilidad

 

                 =

=  

               = 0.24970.0 autos que no sufren algún desperfecto en su motor en los primeros 12 meses de uso.  Interpretación:En este experimento se espera que los 3 autos probados no sufran de algún desperfecto en su motor en los primeros 12 meses de uso y la variabilidad de este experimento es de cero. Nota: La media y la desviación estándar se redondean a un valor entero ya que son la media y desviación de una distribución de probabilidad discreta.  

2. Se ha detectado en una línea de producción que 1 de cada 10 artículos fabricados es defectuoso; se toman de esa línea tres artículos uno tras otro, a) obtenga la distribución de probabilidad del experimento, b) encuentre el número esperado de artículos defectuosos en esa muestra y su desviación estándar.

 Solución:También haciendo uso de in diagrama de árbol, se obtiene el espacio muestral  

Page 55: Estela Probabilidad

a)D = objeto defectuosoN = objeto no defectuoso=DDD, DDN, DND, DNN, NDD, NDN, NND, NNN Este espacio muestral ha sido obtenido haciendo uso de un diagrama de árbol, x = Variable que nos define el número de objetos defectuosos encontradosx = 0, 1, 2 o 3 objetos defectuosos p(x=0)=p(NNN)=(0.9)(0.9(0.9)=0.729p(x=1)=p(DNN, NDN, NND)=(0.1)(0.9)(0.9)+(0.9)(0.1)(0.9)+(0.9)(0.9)(0.1)=0.243p(x=2)=p(DDN, DND, NDD)=(0.1)(0.1)(0.9)+(0.1)(0.9)(0.1)+(0.9)(0.1)(0.1)=0.027p(x=3)=p(DDD)=(0.1)(0.1)(0.1)=0.001 Distribución de probabilidad x 0 1 2 3P(x) 0.729 0.243 0.027 0.001   

b)  (0)(0.729)+(1)(0.243)+(2)(0.027)+(3)(0.001)=    = 0.0 + 0.243 + 0.054 + 0.003 = 0.3 0 productos defectuosos Interpretación: Se espera que ninguno de los productos inspeccionados sea defectuoso.

Page 56: Estela Probabilidad

 

                  

 = 0.6 = 1 producto defectuoso  Interpretación:En este experimento se espera que ninguno de los productos inspeccionados sea defectuoso, pero los resultados de este experimento pueden variar en  1 producto defectuoso, por lo que al inspeccionar los 3 productos el numero de productos defectuosos puede variar desde –1 producto defectuoso, hasta 1 producto defectuoso, pero, ¿es posible obtener –1 producto defectuoso?, claro que esto no puede ocurrir, luego el número de productos defectuosos en el experimento variará de 0 a 1 producto defectuoso solamente.  3. Según estadísticas, la probabilidad de que un pozo

petrolero que se perfore en cierta región pueda ser beneficiado es de 0.30. Se perforan tres pozos en esa región, encuentre el número esperado de pozos que pueden ser beneficiados y su desviación estándar.

 Solución:Se obtiene el espacio muestral , de la misma forma que se ha hecho en los ejemplos anteriores; B = se puede el pozo que se perfora

Page 57: Estela Probabilidad

N = no se puede beneficiar el pozo que se perfora = BBB, BBN, BNB, BNN, NBB, NBN, NNB, NNN x = variable que nos define el número de pozos que se pueden beneficiarx = 0, 1, 2 o 3 pozos que se pueden beneficiar p’(x = 0) = p(NNN) = (0.7)(0.7)(0.7)= 0.343p(x = 1) = p(BNN, NBN, NNB) = (0.3)(0.7)(0.7)(3)=0.441p(x = 2) = p(BBN, BNB, NBB) = (0.3)(0.3)(0.7)(3)=0.189p(x = 3) = p(BBB) =(0.3)(0.3)(0.3)= 0.027  

1 pozo beneficiado Interpretación:Se espera que solo 1 de los tres pozos perforados sea el que pueda ser beneficiado. 

           Interpretación:La cantidad esperada de pozos que se pueden beneficiar puede variar en 1  1 pozo, esto es la cantidad de pozos que se pueden beneficiar puede variar de 0 a 2 pozos. 

Page 58: Estela Probabilidad

4. La distribución de probabilidad de x , el número de defectos por cada 10 metros de una tela sintética en rollos continuos de ancho uniforme , es

  x 0 1 2 3 4p(x) 0.41 0.37 0.16 0.05 0.01 a)      Determine la distribución de probabilidad

acumulada de x; P(x).b)      Determine el número esperado de defectos por

cada 10 metros de tela sintética en rollos continuos de ancho uniforme y la desviación estándar del número de defectos por cada 10 metros de tela .....

c)      Determine la probabilidad de que en 10 metros de tela sintética se encuentren como máximo 2 defectos.

d)      Determine la probabilidad de que en 10 metros de tela sintética se encuentren por lo menos 2 defectos.

  Solución: a)X 0 1 2 3 4p(x) 0.4

10.37 0.16 0.05 0.01

P(x) 0.41

0.78 0.94 0.99 1.0

 

b)  1 defecto

 

Page 59: Estela Probabilidad

Interpretación:0.16, 0.05 ,0.01Se espera que por cada 10 metros de tela se encuentre un defecto.           

           

 Interpretación:El número de defectos esperado puede variar en  1 defecto, es decir que el número de defectos esperado por cada 10 metros de tela puede variar de 0 a 2. 

c)        p(x  2)= p(x=0) + p(x=1) + p(x=2) = 0.41+0.37+0.16 = 0.94 d)        p(x  2) = p(x=2) + p(x=3) + p(x=4) = 0.16 + 0.05 + 0.01= 0.22

  

     CALCULO DE MEDIA Y DESVIACIÓN ESTÁNDAR

PARA UNA DISTRIBUCIÓN CONTINUA     1.Media o valor esperado de x.- Para calcular la media de una distribución de probabilidad continua se utiliza la siguiente fórmula:

 

                               

Donde:    = E(x) = media o valor esperado de la

distribución   x =  variable aleatoria continua

Page 60: Estela Probabilidad

   f(x) = función de densidad de la distribución de probabilidad

   

2.Desviación estándar.- La fórmula para determinar la desviación estándar de una distribución continua es; 

 

luego:

        

 Ejemplos:1. Para la siguiente función,  

             cuando 0 x  3 ,      f(x) = 0 para cualquier otro valor 

a)      Diga si esta función nos define una distribución de probabilidad.b)      Si la función define una distribución de probabilidad, entonces, determine su media y desviación estándar.c)      Determine la probabilidad de que 1 x  2.

Solución: 

a)      Para verificar que la función nos define una distribución de probabilidad, es necesario que cumpla con las características que se habían mencionado.1.      x   sí es una variable continua porque puede tomar cualquier valor entre 0 y 3

Page 61: Estela Probabilidad

2.      f(x) 0,  lo que se comprueba si damos diferentes valores a x para ver que valores toma f(x), dándonos cuenta de que efectivamente f(x) solo toma valores mayores o iguales a cero.

  x f(x)0 0.00.5

0.02778

1.0

0.11111

1.4

0.21778

2.1

0.49

2.7

0.81

3.0

1.0

 3.      Para comprobar que la sumatoria de las probabilidades que toma cada       valor de x es de 1, se integra la función de 0 a 3 como se muestra a continuación:

          

 A= área bajo la función

Page 62: Estela Probabilidad

Con las operaciones anteriores

comprobamos que la función  sí nos define una distribución de probabilidad continua. 

b)      Cálculo de media y desviación estándar.  

  

                 

 

                         

 

                          

 

                          

 

 

Las barras  nos indican la evaluación de la integral entre 0 y 3. 

Page 63: Estela Probabilidad

c)                    

 La barra nos indica la evaluación de la integral de 1 a 2. Con las operaciones anteriores nos damos cuenta que para evaluar probabilidades para variables de tipo continuo, es necesario evaluar la función de densidad de probabilidad en el rango de valores que se desea; que vendría siendo el área que se encuentra entre f(x) y el eje de las x y entre el rango de valores definidos por la variable x.  

2. Suponga que el error en la temperatura de reacción, en oC, para un experimento controlado de laboratorio es una variable aleatoria continua x, que tiene la función de densidad de probabilidad:

  

              , para -1 x  2     y    f(x) = 0 en cualquier otro caso 

a)      Verifique la tercera condición de la definición de una distribución de probabilidad continua.

b)      Determine la media o valor esperado de la distribución de probabilidad.

c)      Encuentre la probabilidad de que 0 x  1.

2.2.- VALOR ESPERADO Y MOMENTOS

Page 64: Estela Probabilidad

 Supongamos que hemos realizado n veces un experimento aleatorio que genera una variable X. El valor medio del experimento en estas n repeticiones es la suma de los productos de los valores de la variable por su frecuencia relativa. Cuando n sea igual a infinito, el valor medio del experimento se llama valor esperado o esperanza matemática, E[X].

            Si X es una variable discreta con función d probabilidad f(x), el valor esperado de X se calcula según decíamos anteriormente sumando los productos de los valores de la variable por sus respectivas probabilidades.

En el caso de una variable continua

 

Propiedades del valor esperado

        Al multiplicar todos los valores de una variable por una misma constante, el valor esperado de ésta queda multiplicado por el valor de la constante.

Page 65: Estela Probabilidad

        Al sumar a todos los valores de una variable una misma constante, el valor esperado de ésta queda incrementado por el valor de la constante.

        Si tenemos dos variables X e Y, discretas o continuas, el valor esperado de su suma o diferencia es la suma o diferencia de sus valores esperados

Page 66: Estela Probabilidad

E[X ± Y] = E[X] ± E[Y]

        Si las variables anteriores, X e Y son variables aleatorias independientes ocurre que el valor esperado de su producto es igual al producto de sus valores esperados.

E[X Y] = E[X] E[Y]

 

Es importante indicar que la independencia de las variables es condición suficiente pero no necesaria para que

Page 67: Estela Probabilidad

el valor esperado del producto de dos variables sea igual al producto de sus valores esperados, es decir, ésta es una propiedad de las variables independientes pero se cumple en variables que no son independientes.

 

Momentos de una variable

 

Momentos respecto del origen

Dada una variable aleatoria X con función de probabilidad o densidad f(x) podemos definir una función de X que sea igual a la variable elevada a un exponente entero no negativo.

            

El valor esperado de z(x) es el k-ésimo momento de la variable X respecto a su origen y se llama 

            

 

        k = 0  

        k = 1  

 

Page 68: Estela Probabilidad

a este primer momento respecto al origen que es igual al valor esperado se le llama también media aritmética de la variable y se le denomina μX, simplemente μ.

En la mayoría de los casos, la media μ expresa la tendencia central de la variable o el orden de magnitud de sus valores.

El resto de los momentos respecto al origen tienen escaso interés en la mayoría de los casos.

Momentos respecto a la media

             Dada una variable aleatoria X con función de probabilidad o densidad f(x) podemos definir una función de X que sea igual a la diferencia entre la variable y su media aritmética elevada a un exponente entero no negativo.

            

 

El valor esperado de z(x) es el k-ésimo momento de la variable X respecto a la media y se llama μk.

            

 

      k = 0     

      k = 1    

Page 69: Estela Probabilidad

es decir, en cualquier variable aleatoria su primer momento respecto de la media es igual a 0. Esta propiedad se utilizar reiteradamente en las demostraciones estadísticas.

      k = 2     

este segundo momento respecto de la media se le llama también varianza.

 

La varianza de una variable mide la dispersión de sus valores respecto al valor central μ.

Para calcular la varianza por un método más sencillo se utiliza la expresión:

Es decir, la varianza de una variable es igual a la media de los cuadrados menos el cuadrado de la media. 

Page 70: Estela Probabilidad

El principal problema de la varianza es que se expresa en unidades cuadráticas que no siempre tienen una interpretación clara. Para obviar este problema se define otra medida de la dispersión que es la desviación típica, σX, o simplemente σ, que se calcula como la raíz cuadrada positiva de la varianza; evidentemente, la desviación típica se mide en las mismas unidades que la variable

No obstante, la desviación típica no resuelve todos los problemas que se pueden plantear, como por ejemplo la comparación de situaciones en las que la unidad de medida o el orden de magnitud de esta sea diferente. Para resolver esta cuestión se define una medida adimensional de la variabilidad que es el coeficiente de variación, C V, que se calcula como el cociente entre la desviación típica y la media (a veces este cociente se expresa en tanto por ciento multiplicándolo por 100).

Page 71: Estela Probabilidad

En este contexto de la medida de la variación se plantea el problema de medir la variación conjunta de variables de variables asociadas.

Supongamos que tenemos dos variables aleatorias X e Y, discretas o continuas, con función de probabilidad o densidad conjunta f(x,y) y definimos una función z(x,y) igual al producto de las desviaciones de cada valor a su media respectiva (es decir, z(x,y) tiene la misma estructura que (X - μ)2 = (X - μ) (X - μ) si sustituimos una vez a X por Y).

Al valor esperado de z(x,y) se le llama covarianza de las variables X e Y y se representa como σxy o cov(x,y).

 

La covarianza es una medida de la variación común a dos variables y, por tanto, una medida del grado y tipo de su relación.

        σxy es positiva si los valores altos de X están asociados a los valores altos de Y y viceversa.

        σxy es negativa si los valores altos de X están asociados a los valores bajos de Y y viceversa.

Page 72: Estela Probabilidad

        Si X e Y son variables aleatorias independientes cov(x,y) = 0 .

        La independencia es condición suficiente pero no necesaria para que la cov(x,y) sea nula.

cov(x,y) = 0 cov(x,y) > 0 cov(x,y) < 0

Se puede deducir, algebraicamente, un medio más sencillo para calcular la covarianza de dos variables.

En el caso de la covarianza tenemos el mismo problema que se nos presentó con la varianza, es decir, la covarianza se expresa en términos del producto de las unidades de medida de ambas variables, lo cual no siempre es fácilmente interpretable. Por otra parte también es difícil comparar situaciones diferentes entre sí. En este caso, ambos problemas se solucionan de una vez mediante la definición del coeficiente de correlación, ρ, que se define como el cociente entre la covarianza y el producto de las desviaciones típicas de las dos variables.

Page 73: Estela Probabilidad

 

La correlación toma valores entre -1 y 1, siendo su signo igual al de la covarianza. Correlaciones con valor absoluto 1 implican que existe una asociación matemática lineal perfecta, positiva o negativa, entre las dos variables y correlaciones iguales a 0 implican ausencia de asociación. Obviamente, las variables independientes tienen correlación 0, pero nuevamente, la independencia es condición suficiente pero no necesaria.

Correlaciones con valores absolutos intermedios indican cierto grado de asociación entre los valores de las variables. 

2.3.- DISTRIBUCIONES DISCRETAS

Las distribuciones discretas son aquellas en las que la variable puede pude tomar un número determinado de valores:Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un valor del 1 al 32.Las distribuciones continuas son aquellas que presentan un número infinito de posibles soluciones:Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc); la esperanza media de vida de una población (72,5 años, 7,513 años, 72, 51234 años).

  En este apartado nos centraremos exclusivamente en

Page 74: Estela Probabilidad

estudiar las principales distribuciones discretas, que además se basan cada una de ellas en la anterior.

 

2.3.1.-DISTRIBUCIONES DISCRETAS: BERNOUILLI.

La distribución de Bernuilli es el modelo que sigue un experimento que se realiza una sola vez y que puede tener dos soluciones: acierto o fracaso:

Cuando es acierto la variable toma el valor 1

Cuando es fracaso la variable toma el valor 0

Ejemplo: Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no sale); p probabilidad de ser admitido en una universidad (o te admiten o no te admiten); p probabilidad de acertar una quiniela (o aciertas o no aciertas)

Al haber únicamente dos soluciones se trata de sucesos complementarios:A la probabilidad de éxito se le denomina "p"

A la probabilidad de fracaso se le denomina "q"

Verificándose que:

p + q = 1

Veamos los ejemplos antes mencionados :

Ejemplo 1: Probabilidad de salir cara al lanzar una moneda al aire:Probabilidad de que salga cara: p = 0,5

Probabilidad de que no salga cara: q = 0,5

Page 75: Estela Probabilidad

p + q = 0,5 + 0,5 = 1

Ejemplo 2: Probabilidad de ser admitido en la universidad:Probabilidad de ser admitido: p = 0,25

Probabilidad de no ser admitido: q = 0,75

p + q = 0,25 + 0,75 = 1

Ejemplo 3: Probabilidad de acertar una quiniela:Probabilidad de acertar: p = 0,00001

Probabilidad de no acertar: q = 0,99999

p + q = 0,00001 + 0,99999 = 1  

2.3.2.-DISTRIBUCIONES DISCRETAS: BINOMIAL.

Las distribución binomial parte de la distribución de Bernouilli:

La distribución de Bernouilli se aplica cuando se realiza una sola vez un experimento que tiene únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo puede tomar dos valores: el 1 y el 0

La distribución binomial se aplica cuando se realizan un número"n" de veces el experimento de Bernouilli, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre:

0: si todos los experimentos han sido fracaso

n: si todos los experimentos han sido éxitos

Ejemplo: se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna la variable toma el valor 0; si

Page 76: Estela Probabilidad

han salido dos caras la variable toma el valor 2; si todas han sido cara la variable toma el valor 10

La distribución de probabilidad de este tipo de distribución sigue el siguiente modelo:

Ejemplo 1: ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces?

" k " es el número de aciertos. En este ejemplo " k " igual a 6 (en cada acierto decíamos que la variable toma el valor 1: como son 6 aciertos, entonces k = 6)

" n" es el número de ensayos. En nuestro ejemplo son 10

" p " es la probabilidad de éxito, es decir, que salga "cara" al lanzar la moneda. Por lo tanto p = 0,5

La fórmula quedaría:

Luego,

P (x = 6) = 0,205

Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda.

Ejemplo 2:¿Cuál es la probabilidad de obtener cuatro veces el número 3 al lanzar un dado 8 veces?

" k " (número de aciertos) toma el valor 4

" n" toma el valor 8

Page 77: Estela Probabilidad

" p " (probabilidad de que salga un 3 al tirar el dado) es 1 / 6 (= 0,1666)

La fórmula queda:

Luego,P (x = 4) = 0,026Es decir, se tiene una probabilidad del 2,6% de obtener cuatro veces el número 3 al tirar un dado 8 veces.

Distribuciones discretas: Poisson.

Las distribución de Poisson parte de la distribución binomial:

Cuando en una distribución binomial se realiza el experimento un número "n" muy elevado de veces y la probabilidad de éxito "p" en cada ensayo es reducida, entonces se aplica el modelo de distribución de Poisson:

Se tiene que cumplir que:

" p " < 0,10

" p * n " < 10

2.3.3.-LA DISTRIBUCIÓN DE POISSON SIGUE EL SIGUIENTE MODELO:

Vamos a explicarla:

El número "e" es 2,71828

Page 78: Estela Probabilidad

"  " = n * p (es decir, el número de veces " n " que se realiza el experimento multiplicado por la probabilidad " p " de éxito en cada ensayo)

" k " es el número de éxito cuya probabilidad se está calculando

Veamos un ejemplo:La probabilidad de tener un accidente de tráfico es de 0,02 cada vez que se viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3 accidentes?

Como la probabilidad " p " es menor que 0,1, y el producto " n * p " es menor que 10, entonces aplicamos el modelo de distribución de Poisson.

Luego,

P (x = 3) = 0,0892

Por lo tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es del 8,9%

Otro ejemplo:La probabilidad de que un niño nazca pelirrojo es de 0,012. ¿Cuál es la probabilidad de que entre 800 recién nacidos haya 5 pelirrojos?

Luego,

P (x = 5) = 4,602

Page 79: Estela Probabilidad

Por lo tanto, la probabilidad de que haya 5 pelirrojos entre 800 recién nacidos es del 4,6%..

2.3.4.-DISTRIBUCIÓN GEOMÉTRICA O DE PASCAL

    La distribución geométrica es un modelo adecuado para aquellos procesos en los que se repiten pruebas hasta la consecución del éxito a resultado deseado y tiene interesantes aplicaciones en los muestreos realizados de esta manera . También implica la existencia de una dicotomía de posibles resultados y la independencia de las pruebas entre sí.

Proceso experimental del que se puede hacer derivar

Esta distribución se puede hacer derivar de un proceso experimental puro o de Bernouilli en el que tengamos las siguientes características

 El proceso consta de un número no definido de pruebas o experimentos separados o separables. El proceso concluirá cuando se obtenga por primera vez el resultado deseado (éxito).

 Cada prueba puede dar dos resultados mutuamente excluyentes : A y no A

 La probabilidad de obtener un resultado A en cada prueba es p y la de obtener un resultado no A es q siendo (p + q = 1).

Las probabilidades p y q son constantes en todas las pruebas ,por tanto , las pruebas ,son independientes (si se trata de un

Page 80: Estela Probabilidad

proceso de "extracción" éste se llevará a , cabo con devolución del individuo extraído) .

 (Derivación de la distribución). Si en estas circunstancias aleatorizamos de forma que tomemos como variable aleatoria X = el número de pruebas necesarias para obtener por primera vez un éxito o resultado A , esta variable se distribuirá con una distribución geométrica de parámetro p.

                                                                                           

Obtención de la función de cuantía

    De lo dicho anteriormente , tendremos que la variable X es el número de pruebas necesarias para la consecución del primer éxito. De esta forma la variables aleatoria toma valores enteros a partir del uno ;  1,2,………

    La función de cuantía P(x) hará corresponder a cada valor de X la probabilidad de obtener el primer éxito precisamente en la X-sima prueba. Esto es , P(X) será la probabilidad del suceso obtener X-1 resultados "no A" y un éxito o resultado A en la prueba número X teniendo en cuenta que todas las pruebas son independientes y que conocemos sus probabilidades tendremos:

                          dado que se trata de sucesos independientes y conocemos las probabilidades

Page 81: Estela Probabilidad

                                             

                                                luego la función de cuantía

quedaría 

 

            Algunos autores consideran la aleatorización como "número de pruebas anteriores al primer éxito". De esta manera el conseguir el éxito a la primera sería X=0 . En la siguiente representación gráfica de la función de cuantía de la geométrica puede apreciarse este

tipo de aleatorización , sin embargo nosotros preferimos , por razones prácticas, utilizar la aleatorización antes comentada

 

 

 

 

 

Page 82: Estela Probabilidad

Función de distribución        En base a la función de cuantía se puede expresar la función de distribución de la siguiente manera. 

                                              desarrollando la expresión tendríamos

                           de donde          

La Función Generatriz de Momentos (F.G.M.) quedaría:

                                          

                                            

                          

por  lo que queda establecida que la F.G.M. tiene la

expresión        

En base a la FGM podemos obtener la media y varianza:

Así                    

                              Haciendo t =0 tendríamos que            

Page 83: Estela Probabilidad

        La varianza sería      

                                     

Haciendo t =0 tendríamos que 

                 De esta

manera                

                                                               Luego 

    La moda es el valor de la variable que tiene asociada mayor probabilidad el valor de su función de cuantía es el mayor. Es fácil comprobar (véase simplemente la representación gráfica anterior) que   .Por lo tanto la media de la distribución geométrica es siempre 1.

En cuanto a la mediana Me será aquel valor de la variable en el cual la función de distribución toma el valor 0,5. Así

                                                        

                                por lo que 

2.4.- distribuciones continúas

Page 84: Estela Probabilidad

2.4DISTRIBUCIÓN DE PROBABILIDAD CONTINUA

Una distribución de probabilidad continua, la distribución normal.

En teoría de la probabilidad una distribución de probabilidad se llama continua si su función de distribución es continua. Puesto que la función de distribución de una variable aleatoria X viene dada por , la definición implica que en una distribución de probabilidad continua X se cumple P [X = a] = 0 para todo número real a, esto es, la probabilidad de que X tome el valor a es cero para cualquier valor de a. Si la distribución de X es continua, se llama a X variable aleatoria continua.

En las distribuciones de probabilidad continuas, la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:

Mientras que en una distribución de probabilidad discreta un suceso con probabilidad cero es imposible, no se da el caso en una variable aleatoria continua. Por ejemplo, si se mide la anchura de una hoja de roble, el resultado 3,5 cm es posible, pero tiene probabilidad cero porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esos valores individuales tiene probabilidad cero, aunque la probabilidad

Page 85: Estela Probabilidad

de ese intervalo no lo es. Esta aparente paradoja se resuelve por el hecho de que la probabilidad de que X tome algún valor en un conjunto infinito como un intervalo, no puede calcularse mediante la adición simple de probabilidades de valores individuales. Formalmente, cada valor tiene una probabilidad infinitesimalque estadísticamente equivale a cero.

Existe una definición alternativa más rigurosa en la que el término "distribución de probabilidad continua" se reserva a distribuciones que tienen función de densidad de probabilidad. Estas funciones se llaman, con más precisión, variables aleatorias absolutamente continuas (véase el Teorema de Radon-Nikodym). Para una variable aleatoria X absolutamente continua es equivalente decir que la probabilidad P[X = a] = 0 para todo número real a, en virtud de que hay un incontables conjuntos de medida de Lebesgue cero (por ejemplo, el conjunto de Cantor).

Una variable aleatoria con la distribución de Cantor es continua de acuerdo con la primera definición, pero según la segunda, no es absolutamente continua. Tampoco es discreta, ni una media ponderada de variables discretas y absolutamente continuas.

En aplicaciones prácticas, las variables aleatorias a menudo ofrece una distribución discreta o absolutamente continua, aunque también aparezcan de forma natural mezclas de los dos tipos.

Definición

Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de ellos se pueden definir infinitos valores más. En estas condiciones no es posible deducir la probabilidad de un valor puntual de la variable; como se puede hacer en el caso de va discretas, pero es posible calcular la probabilidad acumulada hasta un cierto

Page 86: Estela Probabilidad

valor (función de distribución de probabilidad), y se puede analizar como cambia la probabilidad acumulada en cada punto (estos cambios no son probabilidades sino otro concepto: la función de densidad.

En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:

Sea   una va continua, una distribución de probabilidad o función de densidad de probabilidad (FDP) de   es una función   tal que, para cualesquiera dos números   y   siendo  .

La gráfica de   se conoce a veces como curva de densidad, la probabilidad de que   tome un valor en el intervalo   es el área bajo la curva de la función de densidad; así, la función mide concentración de probabilidad alrededor de los valores de una variable aleatoria continua.

 Área bajo la curva de   entre   y 

Para que   sea una FDP ( ) sea legítima, debe satisfacer las siguientes dos condiciones:

1.     0 para toda  .

Page 87: Estela Probabilidad

2. 

Ya que la probabilidad es siempre un número positivo, la FDP es una función no decreciente que cumple:

1.  . Es decir, la probabilidad de todo el espacio muestral es 1.

2.  . Es decir, la probabilidad del suceso nulo es cero.

Algunas FDP están declaradas en rangos de   a  , como la de la distribución normal.

2.1.4.-UNIFORME

En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como U(a,b).

Función de densidad de probabilidad

La función de densidad de probabilidad de la distribución uniforme continua es:

Page 88: Estela Probabilidad

Los valores en los dos extremos a y b no son por lo general importantes porque no afectan el valor de las integrales de f(x) dxsobre el intervalo, ni de x f(x) dx o expresiones similares. A veces se elige que sean cero, y a veces se los elige con el valor 1/(b − a). Este último resulta apropiado en el contexto de estimación por el método de máxima verosimilitud. En el contexto del análisis de Fourier, se puede elegir que el valor de f(a) ó f(b) sean 1/(2(b − a)), para que entonces la transformada inversa de muchas transformadas integrales de esta función uniforme resulten en la función inicial, de otra forma la función que se obtiene sería igual "en casi todo punto", o sea excepto en un conjunto de puntos con medida nula. También, de esta forma resulta consistente con la función signo que no posee dicha ambigüedad.

Función de distribución de probabilidad

La función de distribución de probabilidad es:

Funciones generadoras asociadasFunción generadora de momentos

La función generadora de momentos es

Page 89: Estela Probabilidad

a partir de la cual se pueden calcular los momentos mk

y, en general,

Para una variable aleatoria que satisface esta distribución, la esperanza matemática es entonces m1 = (a + b)/2 y la varianza es m2 − m1

2 = (b − a)2/12.

Propiedades

Generalización a conjuntos de Borel

Esta distribución puede ser generalizada a conjuntos de intervalos más complicados. Si S es un conjunto de Borel de medida finita positiva, la distribución probabilidad uniforme en S se puede especificar definiendo que la pdf sea nula fuera de S e igual a 1/K dentro de S, donde K es la medida de Lebesgue de S.

Estadísticas de orden

Sea X1,..., Xn una muestra i.i.d. de U(0,1). Sea X(k) el orden estadístico k-ésimo de esta muestra. Entonces la distribución de probabilidad de X(k) es una distribución Beta con parámetros k yn − k + 1. La esperanza matemática es

Esto es útil cuando se realizan Q-Q plots.

Las varianzas son

Page 90: Estela Probabilidad

'Uniformidad'

La probabilidad de que una variable aleatoria uniformemente distribuida se encuentre dentro de algún intervalo de longitud finita es independiente de la ubicación del intervalo (aunque sí depende del tamaño del intervalo), siempre que el intervalo esté contenido en el dominio de la distribución.

Es posible verificar esto, por ejemplo si X ≈ U(0,b) y [x, x+d] es un subintervalo de [0,b] con d fijo y d > 0, entonces

lo cual es independiente de x. Este hecho es el que le da su nombre a la distribución.

Uniforme estándar

Si se restringe   y  , a la distribución resultante U(0,1) se la llama distribución uniforme estándar.

Una propiedad interesante de la distribución uniforme estándar es que si u1 es una distribución uniforme estándar, entonces 1-u1 también lo es.

Distribuciones relacionadas

Si X tiene una distribución uniforme estándar, entonces:

Y = -ln(X)/λ tiene una distribución exponencial con parámetro λ.

Y = 1 - X1/n tiene una distribución beta con parámetros 1 y n. (Notar que esto implica que la distribución uniforme estándar es un caso especial de la distribución beta, con parámetros 1 y 1).

Page 91: Estela Probabilidad

Relaciones con otras funciones

Siempre y cuando se sigan las mismas convenciones en los puntos de transición, la función densidad de probabilidad puede también ser expresada mediante la función escalón de Heaviside:

ó en términos de la función rectángulo

No existe ambigüedad en el punto de transición de la función signo. Utilizando la convención de la mitad del máximo en los puntos de transición, la distribución uniforme se puede expresar a partir de la función signo como:

Aplicaciones

En estadística, cuando se utiliza un p-value a modo de prueba estadística para una hipótesis nula simple, y la distribución de la prueba estadística es continua, entonces la prueba estadística esta uniformemente distribuida entre 0 y 1 si la hipótesis nula es verdadera.

Muestreo de una distribución uniforme

Existen muchos usos en que es útil realizar experimentos de simulación. Muchos lenguajes de programación poseen la capacidad de generar números pseudo-aleatorios que están distribuidos de acuerdo a una distribución uniforme estándar.

Si u es un valor muestreado de una distribución uniforme estándar, entonces el valor a + (b − a)u posee una distribución uniforme parametrizada por a y b, como se describió previamente.

Page 92: Estela Probabilidad

Muestreo de una distribución arbitraria

La distribución uniforme resulta útil para muestrear distribuciones arbitrarias. Un método general es el método de muestreo de transformación inversa, que utiliza la distribución de probabilidad(CDF) de la variable aleatoria objetivo. Este método es muy útil en trabajos teóricos. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han diseñado métodos alternativos para aquellos casos donde no se conoce el CDF en una forma cerrada. Otro método similar es el rejectionsampling.

La distribución normal es un ejemplo importante en el que el método de la transformada inversa no es eficiente. Sin embargo, existe un método exacto, la transformación de Box-Muller, que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente.

Ejemplo en el intervalo [0,1]

2.4.2.- EXPONENCIAL

Distribución exponencial

Distribución exponencial

Page 94: Estela Probabilidad

Coeficiente de simetría

Curtosis

Entropía

Función generadora de momentos (mgf)

Función característica

En estadística la distribución exponencial es una distribución de probabilidad continua con un parámetro   cuya función de densidad es:

Su función de distribución es:

Donde   representa el número e.

El valor esperado y la varianza de una variable aleatoria X con distribución exponencial son:

La distribución exponencial es un caso particular de distribución gamma con k = 1. Además la suma de variables aleatorias que siguen una misma distribución exponencial es una variable aleatoria expresable en términos de la distribución gamma.

Page 95: Estela Probabilidad

Ejemplo

Ejemplos para la distribución exponencial es la distribución de la longitud de los intervalos de variable continua que transcuren entre la ocurrencia de dos sucesos "raros", que se distribuyen según la distribución de Poisson.

Calcular variables aleatorias

Se pueden calcular una variable aleatoria de distribución exponencial   por medio de una variable aleatoria de distribución uniforme  :

o, dado que   es también una variable aleatoria con distribución  , puede utilizarse la versión más eficiente:

2.4.3.-normal y normal estándar

N(0, 1)

La distribución normal estándar, o tipificada o reducida, es aquella que tiene por media el valor cero, μ = 0, y pordesviación típica la unidad, σ =1.

Su función de densidad es:

Su gráfica es:

Page 96: Estela Probabilidad

La probabilidad de la variable X dependerá del área del recinto sombreado en la figura . Y para calcularla utilizaremos unatabla.

Tipificación de la variable

Para poder utilizar la tabla tenemos que transformar la variable X que sigue una distribución N(μ, σ) en otra variable Z que siga una distribución N(0, 1).

2.4.4.- APROXIMACIONES CON LA NORMALDISTRIBUCIÓN BINOMIAL

Page 97: Estela Probabilidad
Page 98: Estela Probabilidad
Page 99: Estela Probabilidad

UNIDAD 3.- ESTADÍSTICA RELATIVA Y LA TEORÍA DEL MUESTRO

3.1.-DISTRIBUCION DE FRECUENCIA, DE FRECUENCIA RELATIVA Y ACUMULATIVA

Una distribución de frecuencias o tabla de frecuencias es una ordenación en forma de tabla de los datos estadísticos, asignando a cada dato su frecuencia correspondiente.

Tipos de frecuenciaFrecuencia absoluta

La frecuencia absoluta es el número de veces que aparece un determinado valor en un estudio estadístico.

Se representa por fi.

Page 100: Estela Probabilidad

La suma de las frecuencias absolutas es igual al número total de datos, que se representa por N.

Para indicar resumidamente estas sumas se utiliza la letra griega Σ (sigma mayúscula) que se lee suma o sumatoria.

Frecuencia relativa

La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el número total de datos.

Se puede expresar en tantos por ciento y se representa por n i.

La suma de las frecuencias relativas es igual a 1.

Frecuencia acumulada

La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores inferiores o iguales al valorconsiderado.

Se representa por F i.

Page 101: Estela Probabilidad

Frecuencia relativa acumulada

La frecuencia relativa acumulada es el cociente entre la frecuencia acumulada de un determinado valor y el número total de datos. Se puede expresar en tantos por ciento.

Ejemplo

Durante el mes de julio, en una ciudad se han registrado las siguientes temperaturas máximas:

32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27, 28, 29, 30, 32, 31, 31, 30, 30, 29, 29, 30, 30, 31, 30, 31, 34, 33, 33, 29, 29.

En la primera columna de la tabla colocamos la variable ordenada de menor a mayor, en la segunda hacemos el recuento y en la tercera anotamos la frecuencia absoluta.

xiRecuento

fi F i n i Ni

27

I 1 10.032

0.032

28

II 2 30.065

0.097

29

6 90.194

0.290

Page 102: Estela Probabilidad

30

716

0.226

0.516

31

824

0.258

0.774

32

III 327

0.097

0.871

33

III 330

0.097

0.968

34

I 131

0.032

1

   31

  1  

Este tipo de tablas de frecuencias se utiliza con variables discretas.

Distribución de frecuencias agrupadas

La distribución de frecuencias agrupadas o tabla con datos agrupados se emplea si las variables toman un número grande de valores o la variable es continua.

Se agrupan los valores en intervalos que tengan la misma amplitud denominados clases. A

Page 103: Estela Probabilidad

cada clase se le asigna su frecuencia correspondiente.

Límites de la clase

Cada clase está delimitada por el límite inferior de la clase y el límite superior de la clase.

Amplitud de la clase

La amplitud de la clase es la diferencia entre el límite superior e inferior de la clase.

Marca de clase

La marca de clase es el punto medio de cada intervalo y es el valor que representa a todo el intervalo para el cálculo de algunos parámetros.

Construcción de una tabla de datos agrupados

3, 15, 24, 28, 33, 35, 38, 42, 43, 38, 36, 34, 29, 25, 17, 7, 34, 36, 39, 44, 31, 26, 20, 11, 13, 22, 27, 47, 39, 37, 34, 32, 35, 28, 38, 41, 48, 15, 32, 13.

1º se localizan los valores menor y mayor de la distribución. En este caso son 3 y 48.

2º Se restan y se busca un número entero un poco mayor que la diferencia y que sea divisible por el número de intervalos de queramos poner.

Page 104: Estela Probabilidad

Es conveniente que el número de intervalos oscile entre 6 y 15.

En este caso, 48 - 3 = 45, incrementamos el número hasta 50 : 5 = 10 intervalos.

Se forman los intervalos teniendo presente que el límite inferior de una clase pertenece al intervalo, pero el límite superior no pertenece intervalo, se cuenta en el siguiente intervalo.

  ci fi F i n i Ni

[0, 5)

2.5 1 1 0.025 0.025

[5, 10)

7.5 1 2 0.025 0.050

[10, 15)

12.5 3 5 0.075 0.125

[15, 20)

17.5 3 8 0.075 0.200

[20, 25)

22.5 3 11 0.075 0.2775

[25, 30)

27.5 6 17 0.150 0.425

Page 105: Estela Probabilidad

[30, 35)

32.5 7 24 0.175 0.600

[35, 40)

37.5 10 34 0.250 0.850

[40, 45)

42.5 4 38 0.100 0.950

[45, 50)

47.5 2 40 0.050 1

    40   1  

3.2.-MEDIDAS DE TENDENCIA CENTRALMEDIDAS DE TENDENCIA CENTRAL

Al describir grupos de observaciones, con frecuencia es conveniente resumir la información con un solo número. Este número que, para tal fin, suele situarse hacia el centro de la distribución de datos se denomina medida o parámetro de tendencia central o de centralización. Cuando se hace referencia únicamente a la posición de estos parámetros dentro de la distribución, independientemente de que ésta esté más o menos centrada, se habla de estas medidas como medidas de posición.1 En este caso se incluyen también los cuantiles entre estas medidas. Se debe tener en cuenta que existen variables cualitativas y variables cuantitativas, por lo que las medidas de posición o medidas de tendencia se usan de acuerdo al tipo de variable que se

Page 106: Estela Probabilidad

esta observando, en este caso se observan variables cuantitativas

La media aritmética (o simplemente media)

Artículo principal: Media aritmética.

La media aritmética es el valor obtenido por la suma de todos sus valores dividida entre el número de sumandos.

Por ejemplo, las notas de 5 alumnos en una prueba:

niño nota 1 6,0 ·Primero, se suman las notas: 2 5,4 6,0+5,4+3,1+7,0+6,1 = 27,6 3 3,1 ·Luego el total se divide entre la cantidad de alumnos: 4 7,0 27,6/5=5,52 5 6,1 ·La media aritmética en este ejemplo es 5,52

La media aritmética es, probablemente, uno de los parámetros estadísticos más extendidos.2 Se le llama también promedio o, simplemente, media.

[editar]Definición formal

Dado un conjunto numérico de datos, x1, x2, ..., xn, se define su media aritmética como

Esta definición varía, aunque no sustancialmente, cuando se trata de variables continuas, esto es, también puede calcularse para variables agrupadas en intervalos.

[editar]PROPIEDADES

Page 107: Estela Probabilidad

Las principales propiedades de la media aritmética son:3

Su cálculo es muy sencillo y en él intervienen todos los datos.

Su valor es único para una serie de datos dada.

Se usa con frecuencia para comparar poblaciones, aunque es más apropiado acompañarla de una medida de dispersión.

Se interpreta como "punto de equilibrio" o "centro de masas" del conjunto de datos, ya que tiene la propiedad de equilibrar las desviaciones de los datos respecto de su propio valor:

Minimiza las desviaciones cuadráticas de los datos respecto de cualquier valor prefijado, esto es, el valor

de   es mínimo cuando  . Este resultado se conoce comoTeorema de König. Esta propiedad permite interpretar uno de los parámetros de dispersión más importantes: la varianza.

Se ve afectada por transformaciones afines (cambios de origen y escala), esto es, si

 entonces  , donde   es la media aritmética de los  , para i = 1, ..., n y a y b números reales.

Es poco sensible a fluctuaciones muestrales, por lo que es un parámetro muy útil en inferencia estadística.

[editar]Inconvenientes de su uso

Page 108: Estela Probabilidad

Este parámetro, aún teniendo múltiples propiedades que aconsejan su uso en situaciones muy diversas, tiene también algunos inconvenientes, como son:

Para datos agrupados en intervalos (variables continuas) su valor oscila en función de la cantidad y amplitud de los intervalos que se consideren.

La estatura media como resumen de una población homogénea (abajo) o heterogénea (arriba).

Es una medida a cuyo significado afecta sobremanera la dispersión, de modo que cuanto menos homogéneos sean los datos, menos información proporciona. Dicho de otro modo, poblaciones muy distintas en su composición pueden tener la misma media.4 Por ejemplo, un equipo de baloncesto con cinco jugadores de igual estatura, 1,95 m, evidentemente, tendría una estatura media de 1,95 m, valor que representa fielmente a esta población homogénea. Sin embargo, un equipo de jugadores de estaturas más heterogéneas, 2,20 m, 2,15 m, 1,95 m, 1,75 m

Page 109: Estela Probabilidad

y 1,70 m, por ejemplo, tendría también, como puede comprobarse, una estatura media de 1,95 m, valor que no representa a casi ninguno de sus componentes.

En el cálculo de la media no todos los valores contribuyen de la misma manera. Los valores altos tienen más peso que los valores cercanos a cero. Por ejemplo, en el cálculo del salario medio de un empresa, el salario de un alto directivo que gane 1.000.000 de €tiene tanto peso como el de diez empleados "normales" que ganen 1.000 €. En otras palabras, se ve muy afectada por valores extremos.

No se puede determinar si en una distribución de frecuencias hay intervalos de clase abiertos.

[editar]Media aritmética ponderada

A veces puede ser útil otorgar pesos o valores a los datos dependiendo de su relevancia para determinado estudio. En esos casos se puede utilizar una media ponderada.

Si   son nuestros datos y   son sus "pesos" respectivos, la media ponderada se define de la siguiente forma:

[editar]Media muestral

Esencialmente, la media muestral es el mismo parámetro que el anterior, aunque el adjetivo "muestral" se aplica a aquellas situaciones en las que la media aritmética se calcula para un subconjunto de la población objeto de estudio.

Page 110: Estela Probabilidad

La media muestral es un parámetro de extrema importancia en la inferencia estadística, siendo de gran utilidad para la estimación de la media poblacional, entre otros usos.

[editar]Moda

Artículo principal: Moda (estadística).

La moda es el dato más repetido, el valor de la variable con mayor frecuencia absoluta.5 En cierto sentido la definición matemática corresponde con la locución "estar de moda", esto es, ser lo que más se lleva.

Su cálculo es extremadamente sencillo, pues sólo necesita un recuento. En variables continuas, expresadas en intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario obtener un valor concreto de la variable, se recurre a la interpolación.

Por ejemplo, el número de personas en distintos vehículos en una carretera: 5-7-4-6-9-5-6-1-5-3-7. El número que más se repite es 5, entonces la moda es 5.

Hablaremos de una distribución bimodal de los datos, cuando encontremos dos modas, es decir, dos datos que tengan la misma frecuencia absoluta máxima. Cuando en una distribución de datos se encuentran tres o más modas, entonces es multimodal. Por último, si todas las variables tienen la misma frecuencia diremos que no hay moda.

Cuando tratamos con datos agrupados en intervalos, antes de calcular la moda, se ha de definir el intervalo modal. El intervalo modal es el de mayor frecuencia absoluta.

Page 111: Estela Probabilidad

La moda, cuando los datos están agrupados, es un punto que divide el intervalo modal en dos partes de la forma p y c-p, siendo c la amplitud del intervalo, que verifiquen que:

Siendo   la frecuencia absoluta del intervalo modal y   y   las frecuencias absolutas de los intervalos anterior y posterior, respectivamente, al

Las calificaciones en la asignatura de Matemáticas de 39 alumnos de una clase vienen dada por la siguiente tabla (debajo):

Calificaciones 1 2 3 4 5 6 7 8 9

Número de alumnos 2 2 4 5 8 9 3 4 2

[editar]Propiedades

Sus principales propiedades son:

Cálculo sencillo.

Interpretación muy clara.

Al depender sólo de las frecuencias, puede calcularse para variables cualitativas. Es por ello el parámetro más utilizado cuando al resumir una población no es posible realizar otros cálculos, por ejemplo, cuando se enumeran en medios periodísticos las características más frecuentes de determinado sector social. Esto se conoce informalmente como "retrato robot".6

Inconvenientes

Su valor es independiente de la mayor parte de los datos, lo que la hace muy sensible a variaciones muestrales. Por otra

Page 112: Estela Probabilidad

parte, en variables agrupadas en intervalos, su valor depende excesivamente del número de intervalos y de su amplitud.

Usa muy pocas observaciones, de tal modo que grandes variaciones en los datos fuera de la moda, no afectan en modo alguno a su valor.

No siempre se sitúa hacia el centro de la distribución.

Puede haber más de una moda en el caso en que dos o más valores de la variable presenten la misma frecuencia (distribuciones bimodales o multimodales).

LA MEDIANA

La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos, una vez que éstos están ordenados de menor a mayor.7 Por ejemplo, la mediana del número de hijos de un conjunto de trece familias, cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posición central es 2:

En caso de un número par de datos, la mediana no correspondería a ningún valor de la variable, por lo que se conviene en tomar como mediana el valor intermedio entre los dos valores centrales. Por ejemplo, en el caso de doce datos como los anteriores:

Page 113: Estela Probabilidad

Se toma como mediana 

Existen métodos de cálculo más rápidos para datos más númerosos (véase el artículo principal dedicado a este parámetro). Del mismo modo, para valores agrupados en intervalos, se halla el "intervalo mediano" y, dentro de éste, se obtiene un valor concreto por interpolación.

Cálculo de la mediana para datos agrupados

Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla del margen derecho).

Así, aplicando la formula asociada a la mediana para n impar, obtenemos X(39+1)/2 = X20 y basándonos en la fórmula que hace referencia a las frecuencias absolutas:

Ni-1< n/2 < Ni = N19 < 19.5 < N20

Por tanto la mediana será el valor de la variable que ocupe el vigésimo lugar. En nuestro ejemplo, 21 (frecuencia absoluta acumulada para Xi = 5) > 19.5 con lo que Me = 5 puntos (es aconsejable no olvidar las unidades; en este caso como estamos hablando de calificaciones, serán puntos)

La mitad de la clase ha obtenido un 5 o menos, y la otra mitad un 5 o más.

Ejemplo (N par)

Las calificaciones en la asignatura de Matemáticas de 38 alumnos de una clase viene dada por la siguiente tabla (debajo):

Calificaciones 1 2 3 4 5 6 7 8 9

Page 114: Estela Probabilidad

Número de alumnos

2 2 4 5 6 9 4 4 2

Calculemos la Mediana:

Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla margen derecho).

Si volvemos a utilizar la fórmula asociada a la mediana para n par, obtenemos X(38/2) = X19 y basándonos en la fórmula que hace referencia a las frecuencias absolutas --> Ni-1< n/2 < Ni = N18 < 19 < N19

Con lo cual la mediana será la media aritmética de los valores de la variable que ocupen el decimonoveno y el vigésimo lugar.

En nuestro ejemplo, el lugar decimonoveno lo ocupa el 5 y el vigésimo el 6, (desde el vigésimo hasta el vigésimo octavo)

con lo que Me = (5+6)/2 = 5,5 puntos.

Propiedades e inconvenientes

Las principales propiedades de la mediana son:8

Es menos sensible que la media a oscilaciones de los valores de la variable. Un error de transcripción en la serie del ejemplo anterior en, pongamos por caso, el último número, deja a la mediana inalterada.

Como se ha comentado, puede calcularse para datos agrupados en intervalos, incluso cuando alguno de ellos no está acotado.

xi fi Fi

1 2 2

2 2 4

3 4 8

4 5 13

5 6 19 = 19

6 9 28

7 4 32

8 4 36

9 2 38

Page 115: Estela Probabilidad

No se ve afectada por la dispersión. De hecho, es más representativa que la media aritmética cuando la población es bastante heterogénea. Suele darse esta circunstancia cuando se resume la información sobre los salarios de un país o una empresa. Hay unos pocos salarios muy altos que elevan la media aritmética haciendo que pierda representatividad respecto al grueso de la población. Sin embargo, alguien con el salario "mediano" sabría que hay tanta gente que gana más dinero que él, como que gana menos.

Sus principales inconvenientes son que en el caso de datos agrupados en intervalos, su valor varía en función de la amplitud de estos. Por otra parte, no se presta a cálculos algebraicos tan bien como la media aritmética.

concentran en un reducido intervalo de valoresMesocùrticas: estas presentan una concentración de valores alrededor de la media, y una reducción de estos hacia los extremos. A estas se les Conoce como distribuciones normales o de campana

ITSAL25

 Probabilidad y estadísticaPlaticùrticas: En ellas los datos se redistribuyen de manera relativa uniformé entodo el rango de valores El momento de courtosis puede calcularse  por medio de  los momentos de la distribución de frecuencias,

3.5.MUESTREO ALEATORIO SIMPLE, MUESTREO ALEATORIOS I S T E M Á T I C O ,   M U E S T R E O   AL E A T O R I O   E S T R A T I F I C A D O , MUESTREO

ALEATORIO POR CONGLOMERADOS

Muestreo:

Page 116: Estela Probabilidad

 Proceso por el cual se seleccionan los individuos que formarán una muestra. E l   t a m a ñ o   d e   l a   m u e s t r a   d e p e n d e   d e   l a  p r e c i s i ó n q u e   s e   q u i e r a   c o n s e g u i r   e n   l a estimación que se realice a partir de ella. Para su determinación se requieren técnicas estadísticas superiores, pero resulta sorprendente cómo, con muestras notablemente pequeñas, se pueden conseguir resultados suficientemente precisos.

Muestreo AleatorioUna muestra se dice que es extraída al azar cuando la manera de selección es tal, que cada elemento de la población tiene igual oportunidad de ser seleccionado. Una muestra aleatoria es también llamada una muestra probabilística son generalmente preferidas por los estadísticos porque la selección de las muestras es objetiva y el error muestral puede ser medido en términos de probabilidad bajo la curva normal. Los tipos comunes de muestreo aleatorio son el muestreo aleatorio simple, muestreo sistemático, muestreo estratificado y muestreo de conglomerados.

Muestreo aleatorio simpleUna muestra aleatoria simple es seleccionada de tal manera que cada muestrap o s i b l e   d e l   m i s m o   t a m a ñ o   t i e n e   i g u a l  p r o b a b i l i d a d   d e   s e r   s e l e c c i o n a d a   d e   l a población. Para obtener una muestra aleatoria simple, cada elemento en la población tenga la misma probabi l idad de ser seleccionado, el plan de muestreo puede noITSAL26

Page 117: Estela Probabilidad

 Probabilidad y estadísticaconducir a una muestra aleatoria simple. Por conveniencia, este método pude ser reemplazado por una tabla de números aleatorios. Cuando una población es infinita, es obvio que la tarea de numerar cada elemento de la población es infinita, es obvio que la tarea de numerar cada elemento de la población es imposible. Por lo tanto, ciertas modificaciones del muestreo aleatorio simple son necesarias. Los tipos más comunes de muestreo aleatorio modif icado son sistemáticos, estrat i f icados y deconglomerados. El muestreo aleatorio simple puede ser de dos tipos:Sin reposición de  los elementos:c a d a   e l e m e n t o   e x t r a í d o   s e   d e s c a r t a   p a r a   l a siguiente extracción. Por ejemplo, si se extrae una muestra de una "población" de bombillas para estimar la vida media de las bombillas que la integran, no será posible medir más que una vez la bombilla seleccionada.C o n   r e p o s i c i ó n   d e   l o s   e l e m e n t o s :l a s   o b s e r v a c i o n e s   s e   r e a l i z a n   c o n reemplaza miento de los individuos, de forma que la población es idéntica en todasl a s   e x t r a c c i o n e s .   E n   p o b l a c i o n e s   m u y  g r a n d e s ,   l a   p r o b a b i l i d a d   d e   r e p e t i r   u n a extracción es tan pequeña que el  muestreo puede considerarse sin reposición aunque, realmente, no lo sea .Para realizar este tipo de muestreo, y en determinadas situaciones, es muy útil laextracción de números aleatorios mediante ordenadores,  calculadoras o tablas construidas al efecto.

Muestreo sistemático.

Page 118: Estela Probabilidad

Una muestra sistemática es obtenida cuando los elementos son seleccionados en una manera ordenada. La manera de la selección depende del número de elementos incluidos en la población y el tamaño de la muestra. El número de elementos en laITSAL27

 Probabilidad y estadísticapoblación es, primero, dividido por el número deseado en la muestra. El cociente indicará si cada décimo, cada onceavo, o cada centésimo elemento en la población va a ser seleccionado .El primer elemento de la muestra es seleccionado al azar. Por lo tanto, una muestra sistemática puede dar la misma precisión de estimación acerca de la población, que una muestra aleatoria simple cuando los elementos en la población están ordenado sal azar.E l   r i e s g o   d e   l o s   m u e s t r e o s   s i s t e m á t i c o s   e s  e l   d e   l a s   p e r i o d i c i d a d e s   o c u l t a s . Supongamos que queremos testear el funcionamiento de una máquina, para lo cuál vamos a seleccionar una de cada 15 piezas producidas. Si ocurriera la desgracia de que justamente 1 de cada 15 piezas fuese defectuosa y el error de la máquina fuera defectuoso periódicamente, tendríamos dos posibles resultados muéstrales:- Q u e   f a l l a s i e m p r e - Q u e n o f a l l a n u n c a .

Muestreo EstratificadoPara obtener una muestra aleatoria estratificada, primero se divide la población en grupos, llamados estratos, que son más homogéneos que la población como un todo .Los elementos de la muestra son entonces seleccionados al azar o por un métodos i s t e m á t i c o   d e   c a d a   e s t r a t o .   L a s  

Page 119: Estela Probabilidad

e s t i m a c i o n e s   d e   l a   p o b l a c i ó n ,   b a s a d a s   e n   l a muestra estratificada, usualmente tienen mayor precisión (o menor error muestral)que si   la población entera muestreada mediante muestreo aleatorio simple.  Eln ú m e r o   d e  e l e m e n t o s   s e l e c c i o n a d o   d e   c a d a   e s t r a t o   p u e d e  s e r   p r o p o r c i o n a l   o desproporcional al tamaño del estrato en relación con la población. Según la cantidad de elementos de la muestra que se han de elegir de cada uno delos estratos, existen dos técnicas de muestreo estratificado:ITSAL28

 

Probabilidad y estadística• Asignación proporcional:e l   t a m a ñ o   d e   c a d a   e s t r a t o   e n   l a   m u e s t r a  e s proporcional a su tamaño en la población.• Asignación óptima:la muestra recogerá más individuos de aquellos estratos que tengan más variabilidad. Para ello es necesario un conocimiento previo de la población. Por ejemplo, para un estudio de opinión, puede resultar interesante estudiar por  separado las opiniones de hombres y mujeres pues se estima que, dentro de cada uno de estos grupos, puede haber cierta homogeneidad. Así, si la población está compuesta de un 55% de mujeres y un

Page 120: Estela Probabilidad

45% de hombres, se tomaría una muestra que contenga también esa misma proporción.

Muestreo de conglomerados.Para obtener una muestra de conglomerados, primero dividir la población en grupos que son convenientes para el muestreo. En seguida, seleccionar una porción de los grupos al azar o por un método sistemático. Finalmente, tomar todos los elementos o parte de ellos al azar o por un método sistemático de los grupos seleccionados parao b t e n e r   u n a   m u e s t r a .   B a j o   e s t e   m é t o d o ,  a u n q u e   n o   t o d o s   l o s   g r u p o s   s o n muestreados, cada grupo tiene una igual probabilidad de ser seleccionado. Por lo tanto la muestra es aleatoria. Una muestra de conglomerados, usualmente produce un mayor error muestral (por lo tanto, da menor precisión de las est imaciones acerca de la población) que una muestra aleatoria simple del mismo tamaño. Los elementos individuales dentro década "conglomerado" tienden usualmente a ser iguales. Por ejemplo la gente rica puede vivir en el mismo barrio, mientras que la gente pobre puede vivir en otra área. No todas las áreas son muestreadas en un muestreo de áreas. La variación entre los elementos obtenidos de las áreas seleccionadas es, por lo tanto, frecuentemente mayor que la obtenida si la población entera es muestreada mediante muestreo.

UNIDAD 4.- INTERFERENCIA ESTATICA.

4.1.-ESTIMACION PUNTUAL Y POR INTERVALOS DE CDONFIANZA.

Page 121: Estela Probabilidad

En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n.1

La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos que se usan en función de las características y propósitos del estudio:

Estimación puntual:2 o Método de los momentos;o Método de la máxima verosimilitud;o Método de los mínimos cuadrados;

Estimación por intervalos. Estimación bayesiana.

Estimador

Un estimador de un parámetro poblacional es una función de los datos muestrales, también llamado estadístico. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.3

Formalmente, si θ es un parámetro poblacional, se dice que es un estimador puntual de θ si , donde

son las variables aleatorias que integran una muestra aleatoria de tamaño n de la población en cuestión.

Por ejemplo, un estimador de la media poblacional, μ, puede ser la media muestral, , según la siguiente fórmula:

Page 122: Estela Probabilidad

donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra. -- xXx ---

El estimador es una variable aleatoria que asigna a cada posible valor de la muestra un valor numérico. Como tal, tiene sentido calcular su esperanza, su varianza y otras características propias de las variables aleatorias.

Estimador insesgado

Por supuesto, cualquier función de la muestra, con la definición anterior, podría ser un estimador, pero es deseable que las estimaciones que surjan a partir de un estimador "se parezcan", en cierto modo, al parámetro que se desea estimar.

Con este propósito, se dice que un estimador de un parámetro θ es insesgado si su esperanza es el propio θ.

Estimador eficiente

Un estimador de un parámetro θ es eficiente si su varianza es mínima. Esto hace que haya menos variabilidad entre las distintas estimaciones que podemos obtener (cada muestra dará una estimación diferente). De esta forma, la estimación será más fiable. Hay una cota mínima dentro de las varianzas que se puede obtener para cualquier estimador con un sesgo determinado. Esta cota se llama cota de Cramér-Rao. Si la varianza de un estimador es igual a esta cota, sabremos que su varianza es mínima, y por tanto, estaremos seguros de que es eficiente. Sin embargo, no siempre esta cota es alcanzable, por lo que no siempre podremos saber si el estimador que hemos utilizado es el más eficiente de todos.

Page 123: Estela Probabilidad

Para ello, cuando dudamos entre dos estimadores diferentes, y ninguno de ellos tiene una varianza igual a la cota de Cramér-Rao se utiliza el coeficiente de eficiencia relativa.

Estimación puntual

Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. Lo más importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima)

Estimación por intervalos

Consiste en la obtención de un intervalo dentro del cual estará el valor del parámetro estimado con una cierta probabilidad. En la estimación por intervalos se usan los siguientes conceptos:

Intervalo de confianza

El intervalo de confianza se le llama una expresión del tipo [θ1, θ2] ó θ1 ≤ θ ≤ θ2, donde θ es el parámetro a estimar. Este intervalo contiene al parámetro estimado con una determinada certeza o nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial.

Variabilidad del Parámetro

Si no se conoce, puede obtenerse una aproximación en los datos aportados por la literatura científica o en un estudio

Page 124: Estela Probabilidad

piloto. También hay métodos para calcular el tamaño de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviación típica poblacional y se denota σ.

Error de la estimación

Es una medida de su precisión que se corresponde con la amplitud del intervalo de confianza. Cuanta más precisión se desee en la estimación de un parámetro, más estrecho deberá ser el intervalo de confianza y, si se quiere mantener o disminuir el error, más ocurrencias deberán incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, más error se comete al aumentar la precisión. Se suele llamar E, según la fórmula E = θ2 - θ1.

Límite de Confianza

Es la probabilidad de que el verdadero valor del parámetro estimado en la población se sitúe en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-α), aunque habitualmente suele expresarse con un porcentaje ((1-α)·100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores α de 0,05 y 0,01 respectivamente.

Valor α

También llamado nivel de significación. Es la probabilidad (en tanto por uno) de fallar en nuestra estimación, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-α). Por ejemplo, en una estimación con un nivel de confianza del 95%, el valor α es (100-95)/100 = 0,05

Valor crítico

Page 125: Estela Probabilidad

Se representa por Zα/2. Es el valor de la abscisa en una determinada distribución que deja a su derecha un área igual a α/2, siendo 1-α el nivel de confianza. Normalmente los valores críticos están tabulados o pueden calcularse en función de la distribución de la población. Por ejemplo, para una distribución normal, de media 0 y desviación típica 1, el valor crítico para α = 0,1 se calcularía del siguiente modo: se busca en la tabla de la distribución ese valor (o el más aproximado), bajo la columna "Área"; se observa que se corresponde con -1,28. Entonces Zα/2 = 1,64. Si la media o desviación típica de la distribución normal no coinciden con las de la tabla, se puede realizar el cambio de variable t =(X-μ)/σ para su cálculo.

Con estas definiciones, si tras la extracción de una muestra se dice que "3 es una estimación de la media con un margen de error de 0,6 y un nivel de confianza del 99%", podemos interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el intervalo de confianza según las definiciones dadas.

Para un tamaño fijo de la muestra, los conceptos de error y nivel de confianza van relacionados. Si admitimos un error mayor, esto es, aumentamos el tamaño del intervalo de confianza, tenemos también una mayor probabilidad de éxito en nuestra estimación, es decir, un mayor nivel de confianza.

Page 126: Estela Probabilidad

4.2.- ESTIMACION DE LA MEDIA DE LA DIFERENCIA DE LA MEDIA DE LA PROPORCION Y DE LA DIFERENCIA DE LAS PROPORCIONES.

Intervalo de confianza para la media

Ya vimos que la distribución muestral de las medias corresponde a:

Queremos estimar la media poblacional μ a partir de la media muestral , obteniendo para ello un intervalo de forma que tengamos una probabilidad alta (1 − α).100% de que la media poblacional esté en dicho intervalo.

Tipificando la expresión anterior:

Si fijamos una probabilidad α, podemos obtener -z y z que limitan un área de valor 1 - α. Deshaciendo la tipificación obtenemos el intervalo de confianza para la media:

Page 127: Estela Probabilidad

En Resumen:

Intervalo de confianza para la media poblacional μ con un nivel de confianza de 1 − α es:

a) Varianza poblacional conocida:

b) Varianza poblacional desconocida y muestras grandes ():

Donde z, llamado valor crítico, es el valor que en la distribución N(0,1) deja a su derecha un área de

), s la desviación típica muestral y n el tamaño de la muestra.

Page 128: Estela Probabilidad

Cálculo del valor crítico

Será necesario la Tabla N(0,1)

En la tabla N(0,1) aparece directamente la para valores de z entre 0 y 4. Observa que para valores mayores que 4 la probabilidad ya es prácticamente 1.

4.3.-DETERMINACION DEL TAMAÑO DE LA MUESTRA.

La elección del tamaño de una muestra apropiada es una pregunta frecuente al diseñar un estudio estadístico ¿Cuántos objetos deben tomarse en la muestra? Si la muestra es demasiado grande, se desperdicia dinero al obtener los datos. Si la muestra es demasiado pequeña, la conclusión obtenida será insegura. El tamaño necesario de la muestra depende de tres factores:

1. El nivel de confianza deseado Los niveles de confianza más comúnmente usados son 95% y 99%, pero se puede usar cualquier nivel entre 0 y 100%. El de 95% corresponde al valor z = 1.96 y el 99% al valor z = 2.58. Entre mayor sea el nivel de confianza elegido, mayor será el tamaño de la muestra correspondiente (Otros valores para 90% z = 1.645 y 70% z = 1.036).

2. El margen de error que el investigador está dispuesto a tolerar Éste error corresponde a la mitad de la amplitud del intervalo de confianza. Si el error permitido es pequeño, se necesitará una muestra grande. Si el error permitido es grande, esto permitirá una muestra más pequeña.

Page 129: Estela Probabilidad

3. La variabilidad de la población que se estudia. Si la población está muy dispersa, se requerirá una muestra grande. Por otro lado, si la población está concentrada (es homogénea) el tamaño de muestra requerido será más pequeño. Será necesario usar una estimación de la desviación estándar poblacional.

4.4.-PRUEBA DE HIPOTESIS

Tenemos que empezar por definir que es una hipótesis y que es prueba de hipótesis.

Hipótesis es una aseveración de una población elaborado con el propósito de poner aprueba, para verificar si la afirmación es razonable se usan datos.

En el análisis estadístico se hace una aseveración, es decir, se plantea una hipótesis, después se hacen las pruebas para verificar la aseveración o para determinar que no es verdadera.

Por tanto, la prueba de hipótesis es un procedimiento basado en la evidencia muestral y la teoría de probabilidad; se emplea para determinar si la hipótesis es una afirmación razonable.

Prueba de una hipótesis: se realiza mediante un procedimiento sistemático de cinco paso:

Page 130: Estela Probabilidad

Siguiendo este procedimiento sistemático, al llegar al paso cinco se puede o no rechazar la hipótesis, pero debemos de tener cuidado con esta determinación ya que en la consideración de estadística no proporciona evidencia de que algo sea verdadero. Esta prueba aporta una clase de prueba más allá de una duda razonable. Analizaremos cada paso en detalle

Objetivo de la prueba de hipótesis.

El propósito de la prueba de hipótesis no es cuestionar el valor calculado del estadístico (muestral), sino hacer

un juicio con respecto a la diferencia entre estadístico de muestra y un valor planteado del parámetro.

3.- Procedimiento sistemático para una prueba de hipótesis de una muestra

.Paso 1: Plantear la hipótesis nula Ho y la hipótesis alternativa H1.

Cualquier investigación estadística implica la existencia de hipótesis o afirmaciones acerca de las poblaciones que se estudian.

La hipótesis nula (Ho) se refiere siempre a un valor especificado del parámetro de población, no a una estadística de muestra. La letra H significa hipótesis y el subíndice cero no hay diferencia. Por lo general hay un "no" en la hipótesis nula que indica que "no hay cambio" Podemos rechazar o aceptar Ho.

La hipótesis nula es una afirmación que no se rechaza a menos que los datos maestrales proporcionen evidencia convincente de que es falsa. El planteamiento de la hipótesis

Page 131: Estela Probabilidad

nula siempre contiene un signo de igualdad con respecto al valor especificado del parámetro.

La hipótesis alternativa (H1) es cualquier hipótesis que difiera de la hipótesis nula. Es una afirmación que se acepta si los datos maestrales proporcionan evidencia suficiente de que la hipótesis nula es falsa. Se le conoce también como la hipótesis de investigación. El planteamiento de la hipótesis alternativa nunca contiene un signo de igualdad con respecto al valor especificado del parámetro.

Paso 2: Seleccionar el nivel de significancia.

Nivel de significacia: Probabilidad de rechazar la hipótesis nula cuando es verdadera. Se le denota mediante la letra griega α, tambiιn es denominada como nivel de riesgo, este termino es mas adecuado ya que se corre el riesgo de rechazar la hipótesis nula, cuando en realidad es verdadera. Este nivel esta bajo el control de la persona que realiza la prueba.

Si suponemos que la hipótesis planteada es verdadera, entonces, el nivel de significación indicará la probabilidad de no aceptarla, es decir, estén fuera de área de aceptación. El nivel de confianza (1-α), indica la probabilidad de aceptar la hipótesis planteada, cuando es verdadera en la población.

Page 132: Estela Probabilidad

La distribución de muestreo de la estadística de prueba se divide en dos regiones, una región de rechazo (conocida como región crítica) y una región de no rechazo (aceptación). Si la estadística de prueba cae dentro de la región de aceptación, no se puede rechazar la hipótesis nula.

La región de rechazo puede considerarse como el conjunto de valores de la estadística de prueba que no tienen posibilidad de presentarse si la hipótesis nula es verdadera. Por otro lado, estos valores no son tan improbables de presentarse si la hipótesis nula es falsa. El valor crítico separa la región de no rechazo de la de rechazo.

Tipos de errores

Cualquiera sea la decisión tomada a partir de una prueba de hipótesis, ya sea de aceptación de la Ho o de la Ha, puede incurrirse en error:

Un error tipo I se presenta si la hipótesis nula Ho es rechazada cuando es verdadera y debía ser aceptada. La probabilidad de cometer un error tipo I se denomina con la letra alfa α

Un error tipo II, se denota con la letra griega β se presenta si la hipótesis nula es aceptada cuando de hecho es falsa y debía ser rechazada.

En cualquiera de los dos casos se comete un error al tomar una decisión equivocada.

En la siguiente tabla se muestran las decisiones que pueden tomar el investigador y las consecuencias posibles.

Page 133: Estela Probabilidad

Para que cualquier ensayo de hipótesis sea bueno, debe diseñarse de forma que minimice los errores de decisión. En la práctica un tipo de error puede tener más importancia que el otro, y así se tiene a conseguir poner una limitación al error de mayor importancia. La única forma de reducir ambos tipos de errores es incrementar el tamaño de la muestra, lo cual puede ser o no ser posible.

La probabilidad de cometer un error de tipo II denotada con la letra griega beta β, depende de la diferencia entre los valores supuesto y real del parámetro de la población. Como es más fácil encontrar diferencias grandes, si la diferencia entre la estadística de muestra y el correspondiente parámetro de población es grande, la probabilidad de cometer un error de tipo II, probablemente sea pequeña.

El estudio y las conclusiones que obtengamos para una población cualquiera, se habrán apoyado exclusivamente en el análisis de una parte de ésta. De la probabilidad con la que estemos dispuestos a asumir estos errores, dependerá, por ejemplo, el tamaño de la muestra requerida. Las contrastaciones se apoyan en que los datos de partida siguen una distribución normal

Page 134: Estela Probabilidad

Existe una relación inversa entre la magnitud de los errores α y β: conforme a aumenta, β disminuye. Esto obliga a establecer con cuidado el valor de a para las pruebas estadísticas. Lo ideal sería establecer α y β.En la práctica se establece el nivel α y para disminuir el Error β se incrementa el número de observaciones en la muestra, pues así se acortan los limites de confianza respecto a la hipótesis planteada .La meta de las pruebas estadísticas es rechazar la hipótesis planteada. En otras palabras, es deseable aumentar cuando ésta es verdadera, o sea, incrementar lo que se llama poder de la prueba (1- β) La aceptación de la hipótesis planteada debe interpretarse como que la información aleatoria de la muestra disponible no permite detectar la falsedad de esta hipótesis.

Paso 3: Cálculo del valor estadístico de prueba

Valor determinado a partir de la información muestral, que se utiliza para determinar si se rechaza la hipótesis nula., existen muchos estadísticos de prueba para nuestro caso utilizaremos los estadísticos z y t. La elección de uno de estos depende de la cantidad de muestras que se toman, si las muestras son de la prueba son iguales a 30 o mas se utiliza el estadístico z, en caso contrario se utiliza el estadístico t.

Tipos de prueba

a) Prueba bilateral o de dos extremos: la hipótesis planteada se formula con la igualdad

Ejemplo

H0 : µ = 200

H1 : µ ≠ 200

Page 135: Estela Probabilidad

b) Pruebas unilateral o de un extremo: la hipótesis planteada se formula con ≥ o ≤

H0 : µ ≥ 200 H0 : µ ≤ 200

H1 : µ < 200 H1 : µ > 200

 

En las pruebas de hipótesis para la media (μ), cuando se conoce la desviación estándar (σ) poblacional, o cuando el valor de la muestra es grande (30 o más), el valor estadístico de prueba es z y se determina a partir de:

El valor estadístico z, para muestra grande y desviación estándar poblacional desconocida se determina por la ecuación:

Page 136: Estela Probabilidad

En la prueba para una media poblacional con muestra pequeña y desviación estándar poblacional desconocida se utiliza el valor estadístico t.

Paso 4: Formular la regla de decisión

SE establece las condiciones específicas en la que se rechaza la hipótesis nula y las condiciones en que no se rechaza la hipótesis nula. La región de rechazo define la ubicación de todos los valores que son tan grandes o tan pequeños, que la probabilidad de que se presenten bajo la suposición de que la hipótesis nula es verdadera, es muy remota

Distribución muestral del valor estadístico z, con prueba de una cola a la derecha

Page 137: Estela Probabilidad

Valor critico: Es el punto de división entre la región en la que se rechaza la hipótesis nula y la región en la que no se rechaza la hipótesis nula.

Paso 5: Tomar una decisión.

En este último paso de la prueba de hipótesis, se calcula el estadístico de prueba, se compara con el valor crítico y se toma la decisión de rechazar o no la hipótesis nula. Tenga presente que en una prueba de hipótesis solo se puede tomar una de dos decisiones: aceptar o rechazar la hipótesis nula. Debe subrayarse que siempre existe la posibilidad de rechazar la hipótesis nula cuando no debería haberse rechazado (error tipo I). También existe la posibilidad de que la hipótesis nula se acepte cuando debería haberse rechazado (error de tipo II).

4.- Ejemplo en la cual se indica el procedimiento para la prueba de hipótesis

Ejemplo

El jefe de la Biblioteca Especializada de la Facultad de Ingeniería Eléctrica y Electrónica de la UNAC manifiesta que el número promedio de lectores por día es de 350. Para confirmar o no este supuesto se controla la cantidad de lectores que utilizaron la biblioteca durante 30 días. Se considera el nivel de significancia de 0.05

Datos:

Día Usuarios Día Usuarios Día Usuario

1 356 11 305 21 429

2 427 12 413 22 376

3 387 13 391 23 328

Page 138: Estela Probabilidad

4 510 14 380 24 411

5 288 15 382 25 397

6 290 16 389 26 365

7 320 17 405 27 405

8 350 18 293 28 369

9 403 19 276 29 429

10 329 20 417 30 364

Solución: Se trata de un problema con una media poblacional: muestra grande y desviación estándar poblacional desconocida.

Paso 01: Seleccionamos la hipótesis nula y la hipótesis alternativa

Ho: μ═350

Ha: μ≠ 350

Paso 02: Nivel de confianza o significancia 95%

α═0.05

Paso 03: Calculamos o determinamos el valor estadístico de prueba

De los datos determinamos: que el estadístico de prueba es t, debido a que el numero de muestras es igual a 30, conocemos la media de la población, pero la desviación estándar de la población es desconocida, en este caso determinamos la desviación estándar de la muestra y la utilizamos en la formula reemplazando a la desviación estándar de la población.

Page 139: Estela Probabilidad

4.4.1.- PRUEBAS UNILATERALES Y BILATERALES.

Pruebas bilaterales y pruebas unilaterales

 

Un contraste bilateral adopta en general la forma:

H0: θ = θ0 contra H1: θ ≠ θ0

En determinadas ocasiones el experimentador prefiere plantear directamente un contraste de la forma:

H0: θ = θ0 contra H1: θ > θ0

conocido como contraste unilateral derecho. Obviamente, otra posibilidad es el unilateral izquierdo:

H0: θ = θ0 contra H1: θ < θ0

En estos tres casos, el contraste de hipótesis es simple contra compuesta.

 

En la mayoría de situaciones aplicadas, se desean realmente resolver contrastes unilaterales que comportan hipótesis compuestas. El unilateral derecho es entonces:

Page 140: Estela Probabilidad

H0: θ ≤ θ0 contra H1: θ > θ0

y el izquierdo es:

H0: θ ≥ θ0 contra H1: θ < θ0

Aunque esta última formulación está relacionada con los contrastes unilaterales simple contra compuesta anteriores, las dos hipótesis no son técnicamente equivalentes Para simplificar la interpretación de los contrastes unilaterales, atendiendo a los casos de los que se ocupa Statmedia, se formulan los contrastes de esta última manera (compuesta contra compuesta) y se toma el nivel de significación como si fuera el del contraste simple contra compuesta.

En cualquier caso, es importante entender que sólo debe resolverse uno de los tres contrastes (bilateral o unilateral) con un conjunto de datos concreto.

Por ejemplo, es incorrecto desde el punto de vista metodológico empezar contrastando bilateralmente, y hacer luego un test unilateral. El contraste que se ha de emplear debe decidirse basándose en conocimientos previos del problema, o bien guiándose por la cuestión de interés aplicado a responder.

 

Ejemplos de pruebas unilaterales

 

Caso 1: cálculo del nivel de significación y de la potencia en función de diferentes alternativas.

Page 141: Estela Probabilidad

Caso 2: representación gráfica del contraste unilateral y de los conceptos asociados.

4.4.2.-PRUEBAS DE PROPORCION Y DIFERENCIA DE PROPORCIONES.

Prueba De Hipótesis Para Proporciones

El concepto de prueba de hipótesis se puede utilizar para probar hipótesis en relación con datos cualitativos. Por ejemplo, en el problema anterior el gerente de la fabrica de llantas quería determinar la proporción de llantas que se reventaban antes de 10,000 millas. Este es un ejemplo de una variable cualitativa, dado que se desea llegar a conclusiones en cuanto a la proporción de los valores que tienen una característica particular.

El gerente de la fábrica de llantas quiere que la calidad de llantas producidas, sea lo bastante alta para que muy pocas se revienten antes de las 10,000 millas. Si más de un 8% de las llantas se revientan antes de las 10,000 millas, se llegaría a concluir que el proceso no funciona correctamente. La hipótesis nula y alternativa se pueden expresar como sigue:

Ho: p .08 (funciona correctamente)

H1: p > .08 (no funciona correctamente)

La prueba estadística se puede expresar en términos de la proporción de éxitos como sigue:

En donde

p = proporción de éxitos de la hipótesis nula

Page 142: Estela Probabilidad

Ahora se determinará si el proceso funciona correctamente para las llantas producidas para el turno de día. Los resultados del turno de día índican que cinco llantas en una muestra de 100 se reventaron antes de 10,000 millas para este problema, si se selecciona un nivel de significancía de .05, las regiones de rechazo y no rechazo se establecerían como a continuación se muestra:

Y la regla de decisión sería:

Rechazar Ho si > + 1.645; de lo contrario no rechazar Ho.

Con los datos que se tienen,

= = .05

Y entonces,

= = = = −1.107

Z −1.107 < + 1.645; por tanto no rechazar Ho.

La hipótesis nula no se rechazaría por que la prueba estadística no ha caído en la región de rechazo. Se llegaría a la conclusión de que no hay pruebas de que más del 8% de las llantas producidas en el turno de día se revienten antes de 10,000 millas. El gerente no ha encontrado ninguna prueba de que ocurra un número excesivo de reventones en las llantas producidas en el turno de día.

Pruebas de hipótesis a partir de proporciones.

Las pruebas de hipótesis a partir de proporciones se realizan casi en la misma forma utilizada cuando nos referimos a las medias, cuando se cumplen las suposiciones necesarias para cada caso. Pueden utilizarse pruebas unilaterales o bilaterales dependiendo de la situación particular.

Page 143: Estela Probabilidad

La proporción de una población

Las hipótesis se enuncian de manera similar al caso de la media.

Ho: p = p0

H1: p ¹ p0

En caso de que la muestra sea grande n>30, el estadígrafo de prueba es:

se distribuye normal estándar.

Regla de decisión: se determina de acuerdo a la hipótesis alternativa (si es bilateral o unilateral ), lo cual puedes fácilmente hacerlo auxiliándote de la tabla 4.4.1.

En el caso de muestras pequeñas se utiliza la distribución Binomial. No lo abordaremos por ser complicado y poco frecuente su uso. Diferencia entre las proporciones de dos poblaciones

La situación más frecuente es suponer que existen diferencias entre las proporciones de dos poblaciones, para ello suelen enunciarse las hipótesis de forma similar al caso de las medias:

Ho: p1 = p2 Þ p1 - p2 = 0

H1: p1 ¹ p2

Puede la hipótesis alternativa enunciarse unilateralmente.

El estadígrafo de prueba para el caso de muestras independientes:

Page 144: Estela Probabilidad

Siendo a1 y a2, el número de sujetos con la característica objeto de estudio en las muestras 1 y 2 respectivamente, es decir, en vez de calcular la varianza para cada muestra, se calcula una p conjunta para ambas muestras bajo el supuesto que no hay diferencias entre ambas proporciones y así se obtiene la varianza conjunta. Recuerda que q = 1-p.

Está de más que te diga que este estadígrafo se distribuye normal estándar.

La regla de decisión se determina de manera similar a los casos ya vistos anteriormente.

El objetivo de la prueba es comparar estas dos proporciones, como estimadores

H1: p1 ¹ p2

Recuerda que la H1 también puede plantearse de forma unilateral.

4.5.-MUESTRAS PEQUEÑAS

El estadístico de prueba para el caso de una muestra está dado por:

Ejemplo:

La tasa actual para producir fusibles de 5 amp en Neary Electric Co. es 250 por hora. Se compró e instaló una

Page 145: Estela Probabilidad

máquina nueva que, según el proveedor, aumentará la tasa de producción. Una muestra de 10 horas seleccionadas al azar el mes pasado indica que la producción media por hora en la nueva máquina es 256, con desviación estándar muestral de 6 por hora. Con .05 de nivel de significancia, ¿puede Neary concluir que la nueva máquina es más rápida?Paso 1:

Paso 2: H0 se rechaza si t >1.833, gl = 9 Paso 3:

Paso 4: H0 se rechaza. La nueva máquina es más rápida. Gráfica que muestra la región de rechazo, el valor crítico y el estadístico de prueba calculado

UNIDAD 5.-ANALISIS DE REGRESION Y CORRELACION.

5.1.-REGRESION LINEAL, SIMPLE, CURVILINEA Y MULTIPLE.

La regresión lineal es una técnica estadística para modelar e investigar la relación entre dos o más variables. Tiene aplicación en la industria para investigar la relación entre el rendimiento de la producción y uno o más factores del (o de los) que depende, como la temperatura, la humedad ambiental, la presión, la cantidad de insumos, etc; con base en este análisis se puede pronosticar el comportamiento de

Page 146: Estela Probabilidad

una variable que se desea estimar. Si el ingeniero industrial logra determinar cómo se relacionan las variables conocidas de un proceso con el comportamiento futuro de otra variable de interés, podrá colaborar favorablemente y en gran medida al proceso de toma de decisiones.

Los análisis de regresión y correlación nos permiten determinar tanto la naturaleza como la fuerza de una relación entre dos variables; de esta forma, se puede pronosticar, con cierta precisión, el valor de una variable desconocida basándonos en observaciones anteriores de ésa y otras variables. Pero este aspecto, el de la predicción será motivo de estudio en la sección 1.4.

El modelo de regresión lineal simple es: Yi =β0 + β1X + Єi

Donde Yi es la i-ésima observación de la variable dependiente (la que queremos estimar), X es el correspondiente valor de la variable independiente o explicatorio, β0 y β1 son los parámetros (valores desconocidos que se suponen con valores fijos) del modelo y Єi es la variable aleatoria de error.

Otros aspectos que deben considerarse: historia de cómo surge la técnica de la regresión, Galton y los datos de estaturas de padres e hijos, lo que al principio se denominaba regresión hoy se conoce como correlación. El concepto de regresión ha quedado exclusivamente para el caso en que se consideran variables dependientes e independientes.

Cuando la variable dependiente está en función de dos o más regresores se tiene el modelo de regresión múltiple (RLM):

Yi =β0 + β1xi 1 + β2xi 2 + … + βqxi q + Єi .

Page 147: Estela Probabilidad

Usando álgebra de matrices puede estimarse el vector de parámetros β_ = β0 β1 β2 . . . βq t con β_ = (x´x)−1xty donde X es la matriz de datos.

5.2.- CORRELACION.

En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad.

La relación entre dos super variables cuantitativas queda representada mediante la línea de mejor ajuste, trazada a partir de la nube de puntos. Los principales componentes elementales de una línea de ajuste y, por lo tanto, de una correlación, son la fuerza, el sentido y la forma:

La fuerza extrema según el caso, mide el grado en que la línea representa a la nube de puntos: si la nube es estrecha y alargada, se representa por una línea recta, lo que indica que la relación es fuerte; si la nube de puntos tiene una tendencia elíptica o circular, la relación es débil.

El sentido mide la variación de los valores de B con respecto a A: si al crecer los valores de A lo hacen los de B, la relación lopositiva; si al crecer los valores de A disminuyen los de B, la relación es negativa.

Page 148: Estela Probabilidad

La forma establece el tipo de línea que define el mejor ajuste: la línea recta, la curva monotónica o la curva no monotónica.

Coeficientes de correlación

Existen diversos coeficientes que miden el grado de correlación, adaptados a la naturaleza de los datos. El más conocido es el coeficiente de correlación de Pearson (introducido en realidad por Francis Galton), que se obtiene dividiendo la covarianza de dos variables por el producto de sus desviaciones estándar. Otros coeficientes son:

Coeficiente de correlación de Spearman Correlación canónica Coeficiente de Correlación Intraclase

Interpretación geométrica

Dados los valores muestrales de dos variables aleatorias e , que pueden ser consideradas

como vectores en un espacio a n dimensiones, puden construirse los "vectores centrados" como:

e .

El coseno del ángulo alfa entre estos vectores es dada por la fórmula siguiente:

Page 149: Estela Probabilidad

Pues es el coeficiente de correlación muestral de Pearson. El coeficiente de correlación es el coseno entre ambos vectores centrados:

Si r = 1, el ángulo °, ambos vectores son colineales (paralelos).

Si r = 0, el ángulo °, ambos vectores son ortogonales.

Si r =-1, el ángulo °, ambos vectores son colineales de dirección opuesto.

Más generalmente: .

Por supuesto, del punto vista geométrica, no hablamos de correlación lineal: el coeficiente de correlación tiene siempre un sentido, cualquiera si que sea su valor entre -1 y 1. Nos informa de modo preciso, no tanto sobre el grado de dependencia entre las variables, que sobre su distancia angular en la hiperesfera a n dimensiones.

La Iconografía de las correlaciones es un método de análisis multidimensional que reposa en esta idea. La correlacion lineal se da cuando en una nube de puntos estos se encuentran o se distribuyen alrededor de una recta.

Distribución del coeficiente de correlación

El coeficiente de correlación muestral de una muestra es de hecho una varible aleatoria, eso significa que si repetimos un experimento o consideramos diferentes muestras se obtendrán valores diferentes y por tanto el coeficiente de correlación muestral calculado a partir de ellas tendrá valores ligeramente diferentes. Para muestras grandes la variación en dicho coeficiente será menor que para muestras pequeñas. R. A. Fisher fue el primero en determinar la distribución de probabilidad para el coeficiente de correlación.

Page 150: Estela Probabilidad

Si las dos variables aleatorias que trata de relacionarse proceden de una distribución gaussiana bivariante entonces el coeficiente de correlación r sigue una distribución de probabilidad dada por:1 2

donde:

es la distribución gamma

es la función gaussiana hipergeométrica.

Nótese que , por tanto r es estimador sesgado de .

Puede obtenerse un estimador aproximado no sesgado resolviendo la ecuación:

for

Aunque, la solucón:

es subóptima. Se puede obtener un estimador sesgado con mínima varianza para grandes valores de n, con sesgo de

orden buscando el máximo de la expresión:

, i.e.

Page 151: Estela Probabilidad

En el caso especial de que , la distribución original puede ser reescrita como:

donde es la función beta.

5.4.-CORRELACION POR RANGOS

Este coeficiente es una medida de asociación lineal que utiliza los rangos, números de orden, de cada grupo de sujetos y compara dichos rangos. Existen dos métodos para calcular el coeficiente de correlación de los rangos uno señalado por Spearman y otro por Kendall 8. El r de Spearman llamado también rho de Spearman es más fácil de calcular que el de Kendall. El coeficiente de correlación de Spearman es exactamente el mismo que el coeficiente de correlación de Pearson calculado sobre el rango de observaciones. En definitiva la correlación estimada entre X e Y se halla calculado el coeficiente de correlación de Pearson para el conjunto de rangos apareados. El coeficiente de correlación de Spearman es recomendable utilizarlo cuando los datos presentan valores externos ya que dichos valores afectan mucho el coeficiente de correlación de Pearson, o ante distribuciones no normales.

El cálculo del coeficiente viene dado por:

En donde di = rxi – ryi es la diferencia entre los rangos de X e Y. Los valores de los rangos se colocan según el orden numérico de los datos de la variable.

Page 152: Estela Probabilidad

5.5.- COEFICIENTE DE CORRELACION PARA DATOS NOMINALES.

Coeficiente de Correlación. El coeficiente de correlación más utilizado es el de Pearson, este es un índice estadístico que mide la relación lineal entre dos variables cuantitativas, es una forma de medir la intensidad de la relación lineal entre dos variables. El valor del coeficiente de correlación puede tomar valores desde menos uno hasta uno, −1 < r < 1, indicando que mientras más cercano a uno sea el valor del coeficiente de correlación, en cualquier dirección, más fuerte será la asociación lineal entre las dos variables. El coeficiente de correlación de cálculo “r” es un estimador muestral del coeficiente poblacional Rho, .

Mientras más cercano a cero sea el coeficiente de correlación, este indicará que más débil es la asociación entre ambas variables. Si es igual a cero se concluirá que no existe relación lineal alguna entre ambas variables. Hay varias maneras de equivalentes de calcular “r”, a continuación se muestran tres formas. Coeficiente Correlación Fórmula por Covarianzas y Desviaciones Típicas

Siendo: “SXY” la covarianza de (X,Y) y “SX, SY” las desviaciones típicas de las distribuciones de las variables independiente y dependiente respectivamente. Coeficiente Correlación Fórmula Clásica. Poco usada para cálculo.

Coeficiente Correlación, Fórmula por suma de cuadrados. Se usa cuando se dispone de calculadoras de mano que hacen sumatorias y no correlación.

Page 153: Estela Probabilidad

CONCLUSION

EN ESTA MATERIA DE PROBABILIDAD Y ESTADISTICA CONOCIMOS Y APRENDIMOS LO QUE ES UNA POBLACION, UN MUESTREO, FRECUENCIAS RELATIVAS, CONTINUAS ETC.,,

ADEMAS DE ADQUIRIR MUCHOS CONOCIMIENTOS ENPEZAMOS A PRACTICAR CON LOS DIFERENTES TIPOS DE EJERCICIOS QUE A LO LARGO DE LAS UNIDADES NOS EXPUSIERON.