45
CAPÍTULO II.- CONCEPTOS DE ESTADíSTICA Y TEORIA DE PROBABILIDADES. En este segundo capítulo, se propenderá a que los lectores revisen y apliquen los conocimientos de estadística y teoría de probabilidades que poseen, poniendo especial atención en las herramientas que se utilizarán más adelante. Una buena manera de presentar la estadística, es aquella que lo hace como una ciencia para la toma de decisiones, basada en datos observados, en presencia de incertidumbre. Sin embargo, la concepción popular de la estadística es que ella involucra grandes cantidades de datos y trata de porcentajes, promedios o la presentación de datos en tablas y cuadros. Hoy en día, estas concepciones representan sólo una pequeña parte del campo de aplicación y son de menor interés para los ingenieros que otros aspectos tales como el control de calidad, inspección de muestreos, análisis de decisiones, y diseño y análisis de experimentos. La mayoría de las investigaciones científicas dependen de observaciones. En la experimentación científica e industrial, estas observaciones se hacen para estudiar el efecto de la variación de ciertos factores, o de la relación entre ellos. Se puede decir que la materia prima de la estadística consiste en datos u observaciones. Generalmente estas observaciones son medidas físicas: longitud, temperatura, resistencia, etc., y pueden tomar cualquier valor en una escala continua. Pero estas mediciones continuas no son el único tipo de observaciones. En la inspección de productos fabricados, los artículos muchas veces se clasifican como “defectuosos” o “no defectuosos” y la observación para cada artículo no es un número sino simplemente la categoría en que se coloca. Esto no es problema porque los mismos métodos generales de análisis 1

CONCEPTOS_DE_ESTADISTICA_Y_TEORIA_DE_PROBABILIDADES_2014

Embed Size (px)

DESCRIPTION

estadistica

Citation preview

PAGE

23

CAPTULO II.- CONCEPTOS DE ESTADSTICA Y TEORIA DE PROBABILIDADES.

En este segundo captulo, se propender a que los lectores revisen y apliquen los conocimientos de estadstica y teora de probabilidades que poseen, poniendo especial atencin en las herramientas que se utilizarn ms adelante.

Una buena manera de presentar la estadstica, es aquella que lo hace como una ciencia para la toma de decisiones, basada en datos observados, en presencia de incertidumbre. Sin embargo, la concepcin popular de la estadstica es que ella involucra grandes cantidades de datos y trata de porcentajes, promedios o la presentacin de datos en tablas y cuadros. Hoy en da, estas concepciones representan slo una pequea parte del campo de aplicacin y son de menor inters para los ingenieros que otros aspectos tales como el control de calidad, inspeccin de muestreos, anlisis de decisiones, y diseo y anlisis de experimentos.

La mayora de las investigaciones cientficas dependen de observaciones. En la experimentacin cientfica e industrial, estas observaciones se hacen para estudiar el efecto de la variacin de ciertos factores, o de la relacin entre ellos.

Se puede decir que la materia prima de la estadstica consiste en datos u observaciones. Generalmente estas observaciones son medidas fsicas: longitud, temperatura, resistencia, etc., y pueden tomar cualquier valor en una escala continua. Pero estas mediciones continuas no son el nico tipo de observaciones. En la inspeccin de productos fabricados, los artculos muchas veces se clasifican como defectuosos o no defectuosos y la observacin para cada artculo no es un nmero sino simplemente la categora en que se coloca. Esto no es problema porque los mismos mtodos generales de anlisis estadstico son aplicables ya sea que las observaciones sean nmeros, letras, categoras o lo que fuera.

Otra cosa importante de considerar en este momento es el hecho que el advenimiento de los actuales microprocesadores de alta velocidad ha hecho posible que cantidades enormes de datos se puedan almacenar y estar disponibles para su tratamiento, dejando a la vista la necesidad de tcnicas tiles para la presentacin de datos.

En el caso particular de este curso, se ve que la aplicacin directa de la ciencia estadstica est en el anlisis y toma de decisiones de datos pertenecientes a muestras, las cuales son extradas de una poblacin de quien se desea conocer sus caractersticas.

A continuacin se presenta una serie de definiciones tiles para el desarrollo de la materia.

2.1. POBLACIONES y MUESTRAS.

a) Poblacin (Universo)

Se entiende por poblacin, a cualquier coleccin finita o infinita de individuos o elementos.

b) Muestra:

Parte de la poblacin, o subconjunto de unidades, obtenidas con el fin de investigar las propiedades de la poblacin o conjunto de procedencia.

c) Muestreo:

Procedimiento mediante el cual se obtiene una o ms Muestras desde una Poblacin

d) Muestra Aleatoria: Es una coleccin de valores seleccionados de una poblacin de tal manera que cada valor de la poblacin tiene la misma probabilidad de ser seleccionado. (Una muestra es una coleccin de valores ms que una coleccin de entes).

Para aleatorizar es necesario contar con un mtodo, como por ejemplo, el uso de una Tabla de Nmeros Aleatorios.

Para que una muestra sea representativa de la poblacin, sta debe contener datos sobre el rango de valores de las variables medidas. No se puede extrapolar conclusiones para otros rangos.

2.2 ESTADSTICA DESCRIPTIVA APLICADA.

Cuando se efecta una observacin es necesario organizar los datos que se van obteniendo, ya sea para su posterior tratamiento o para tener una cierta concepcin visual de la informacin que se est recogiendo. Los Mtodos de organizacin de datos ms utilizados son:

Las Tablas de datos

Los Grficos de datos

Los datos estadsticos se caracterizan por medio de una medida de tendencia central, acompaada por una medida de dispersin

a)Medidas de Tendencia Central:

Las medidas de tendencia central resumen la informacin de las observaciones en un solo valor central. La medida descriptiva ms comn es la media o promedio aritmtico. Para evitar confusin, se recuerda que se est considerando que se dispone de un determinado nmero de observaciones, es decir, de una muestra aleatoria de tamao n, lo que difiere de la media poblacional que se estudiar mas adelante. La media muestral es un estimador del valor de la media poblacional (()

a.1)Media Muestral: Es la suma de todos los valores de la muestra dividida por el nmero de valores.

_ ( xi

x = ---------

n

Otra medida comn de tendencia central es la mediana de los datos, que se define como:

a.2) Mediana: Es aquella observacin de la muestra que tiene el mismo nmero de observaciones sobre y bajo ella.

Si existe un nmero impar de observaciones, la mediana se define de manera nica. Si existe un nmero par, generalmente se toma el promedio de los nmeros cercanos.

Una tercera medida de tendencia central usada es la moda, que est definida como:

a.3) Moda: Es el valor que se presenta mas frecuentemente.

b)Medidas de Dispersin:

Las medidas de dispersin permiten medir cun dispersos estn los valores del valor central. As, se define varianza muestral de acuerdo a:

b.1) Varianza Muestral:

_

( ( xi - x )2 n (( xi2 ) - (( xi )2

(sx)2 = ----------------- = ---------------------------

( n - 1 ) n ( n - 1 )

b.2)Desviacin Estndar: Es la Raz Cuadrada de la varianza.

b.3)Desviacin Media: Est definida por la siguiente expresin:

_

(i ( xi - x (

md = --------------------

n

Cuando se trabaja con datos agrupados, es til usar otras medidas de dispersin, que se obtienen mediante subdivisores, en partes iguales. Estas subdivisiones se denominan cuantiles.

Los cuantiles ms utilizados son los cuartiles, los deciles y los percentiles, que se calculan anlogamente.

b.4) Percentiles: Los percentiles corresponden a valores que dividen los datos en 100 partes iguales. Se representan por P1, P2, ...P99. Por ejemplo, el percentil 35 esta representado por P35 y se obtiene para N datos como:

P35 = 35 N/100 y, representa a los datos que posee el mismo valor que el P35 menos.

2.3 .-MEDIA y VARIANZA POBLACIONALES.

a) Valor Esperado: Es la suma de todos los posibles valores de los resultados de un experimento aleatorio multiplicado cada uno por la probabilidad de obtener cada resultado.

Puede decirse que es un promedio ponderado.

E[ x ] = ( xi f( xi )Caso Discreto.

E[ x ] = ( x f( x ) dx Caso Continuo.

b) La media poblacional ( = E[ x ]

c) Varianza poblacional:

( (x )2 = E [ x - ( ]2

bien, ( (x )2 = E[ x2 ] - (E[ x ])2

2.4 ELEMENTOS DE PROBABILIDAD.

La teora de probabilidad provee los modelos estadsticos ms sencillos necesarios para describir la eleccin de muestras de una poblacin. Estos modelos probabilsticos son tiles para la descripcin de la presunta poblacin de una muestra aleatoria de datos.

En el anlisis de un experimento pueden existir dos actitudes respecto a la descripcin de un fenmeno bajo estudio:

a) Descripcin determinstica o causal:

Pretende, a partir del "estado inicial", predecir el "estado final" del experimento.

La proposicin lgica es de la forma: Si A (estado inicial), entonces B (estado final).

b) Descripcin no determinstica:

En este caso no se considera posible obtener el estado final a partir del estado inicial, simplemente se estudian posibles estados finales o resultados de un mismo experimento, tratando de "medir" la fiabilidad de los mismos.

Si A, entonces B C D .... , pero se tiene ms confianza de que ocurra B en vez de C, etc.

2.4.1. Definiciones Previas.

a) Fenmeno aleatorio: Si un cierto fenmeno es descrito en forma no determinstica se considera como fenmeno aleatorio.

El Clculo de Probabilidades es la teora matemtica que sirve de modelo para la descripcin y anlisis de los fenmenos aleatorios.

b) Experimento aleatorio: Conjunto de operaciones destinadas a describir, comprobar o demostrar un determinado fenmeno aleatorio.

c) Espacio muestral S: Un espacio muestral asociado a un experimento aleatorio, es el conjunto de todos los resultados posibles de dicho experimento.

Cada elemento de S representa al menos un resultado del experimento y a cualquier resultado del experimento le corresponde uno, y slo un, elemento de S.

d) Suceso: Es cualquier subconjunto del espacio muestral.

A los elementos del espacio muestral se les denomina sucesos elementales.

El Espacio Muestral asociado a un experimento no es nico, depende del estudio del fenmeno aleatorio, que se desee efectuar.

Ejemplo. " Arrojar simultneamente dos dados ".

a) Interesados en la cantidad de "unos" aparecidos.

S1 = { 0 unos, 1 uno, 2 unos }

b) Interesados en la suma de puntos al lanzar los dados.

S2 = { 2, 3, 4, 5, 6, 7 ,8, 9, 10, 11, 12 }

2.4.2. Definiciones de Probabilidad.

a)Definicin clsica de Probabilidad (Probabilidad a priori)

Supngase un suceso A que de un total de n casos posibles, todos igualmente factibles, puede presentarse en h de los casos. Entonces, la probabilidad de aparicin del suceso A viene dada por:

P( A ) = h/n

Ejemplo. Sea el experimento de arrojar un dado.

S = {1, 2, 3, 4, 5, 6 }

( Los dados se suponen bien construidos P(si ) = 1/6 )

A = { 1 5 } P( A ) = 2/6 = 1/3

b)Definicin de Probabilidad como Frecuencia Relativa (Probabilidad a posteriori):

Sean S: Espacio muestral y A : Evento Suceso

Supongamos que se han hecho N rplicas del experimento aleatorio y f de las veces se produjo el evento A. Entonces la razn f/N se denomina frecuencia relativa del evento A en las N experiencias.

A medida que N aumenta, la razn f/N tiende a estabilizarse en un valor lmite.

Asociamos al evento A, un nmero P( A ) que es igual, o aproximadamente igual, al nmero en el que la frecuencia relativa parece estabilizarse. De esta manera, el nmero P( A ) puede ser interpretado como el nmero al que, en futuras realizaciones del experimento, la frecuencia relativa del evento A, ser igual o aproximadamente igual.

[ P( A ) = Probabilidad del evento A ]

Ejemplo. Lanzamiento de una moneda, que suponemos bien equilibrada y simtrica, 100 veces.

Resultados

Frecuencia

Frecuencia Relativa

*

C

55

0.55

0.50

S

45

0.45

0.50

Total

100

1.0

1.0

* Frecuencia relativa esperada en una larga serie de pruebas con una moneda buena".

2.4.3 Distribuciones de Probabilidad

a)Variable Aleatoria X:

Es una funcin valuada numricamente, definida en un espacio muestral. Es una regla que asigna un valor numrico a cada suceso de un experimento.

Una variable aleatoria ( v.a. ) se dice discreta si toma slo un nmero finito o numerable de valores. Se le denomina continua si toma un continuo de valores.

Si s es un punto del espacio muestral S y X una variable aleatoria, X(s) es el valor de la variable aleatoria en s.

Nota : La probabilidad de los sucesos X toma el valor a y X toma valores en el intervalo [ a , b ] , est dada por:

P [X = a] = P [ { s ( S / X(s) = a } ]

P [a (X ( b ] = P[ { s ( S / a ( X(s) ( b } ]

Ejemplo. Se lanza una moneda dos veces y estamos interesados en el nmero de caras obtenidas.

S = { si ; i = 1, 2, 3, 4 } s1 = (c,c) ; s2 = (c,s) ; s3 = (s,c) ; s4 = (s,s)

Sea xi el nmero de caras en si

Ptos. de Ss1s2s3s4

X(s) 2 1 1 0

Si asignamos P(sj) = 1/4

P( X=0 ) = P[ { s ( S / X(s) = 0} ] = P( s4 ) = 1/4

P( X=1) = P[ {s ( S / X(s) = 1} ] = P( s2 ( s3 ) = 1/2

P( X=2 ) =P[ { s ( S / X(s) = 2} ] = P( s1 ) = 1/4

b)Funcin de Densidad.

Es la Funcin que da la probabilidad de que ocurra un valor determinado de X.

b.1)Caso discreto:

Definicin. Sea X una variable aleatoria discreta, unidimensional, de un espacio muestral S que toma nicamente los valores X1, X2, ........, Xn con probabilidades

f( X1 ), f( X2 ), ......, f( Xn ), respectivamente.

Esta funcin f( Xj ) = P( X=Xj ) se llama funcin de densidad de X y cumple con:

i = 1, 2, 3, ......, n

ii)

Dado A, subconjunto cualquiera de X(s), la probabilidad P( A ) del suceso A se define como:

Ejemplo. Lanzamiento de un par de dados.

b.2) Caso Continuo:

Definicin: Se dice que X es una variable aleatoria continua, unidimensional, si existe una funcin f, tal que:

i) f( X ) > 0 para todo X del intervalo -( < X < (

(

ii) ( f( X ) dx = 1 f( X ) : funcin de densidad de X

-(

Sea A cualquier suceso, entonces P( A ) = P( X ( A ) = ( f( X ) dX

A

Nota : A = { x / a < x < b }

b

P(A) = P( a < x < b ) = ( f(x) dx = ( f(x) dx

A a

P( a < x < b ) = P( a ( x < b ) = P( a < x ( b ) = P( a ( x ( b )

b

ya que ( f(x) dx toma el mismo valor ya se el intervalo abierto o cerrado.

a

c) Funcin de Distribucin de Probabilidad Acumulativa.

c.1)Definicin: Sea x una variable aleatoria con funcin de densidad f( x ). Llamaremos Funcin de Distribucin de Probabilidad Acumulativa a:

Puesto que toda probabilidad es un nmero no negativo, F( x ) ser una funcin no decreciente de la variable x.

c.2) Propiedades de la Funcin F( x )

c.2.1)0 ( F( x ) ( 1

c.2.2) F(-() = lim F( x ) = 0

x(-(

c.2.3)F(() = lim F( x ) = 1

x((

c.2.4)

c.2.5)Caso continuo

La funcin de densidad puede hallarse a partir de la funcin de probabilidad acumulativa, en los puntos donde sta tiene derivada.

c.2.5)

d)Esperanza Matemtica.

d.1) Caso Discreto:

Sea x variable aleatoria discreta, con funcin de densidad f( xi ). Se designar por E[ x ] la esperanza matemtica de dicha variable, la cual se definir como:

E[ x ] se llama generalmente valor medio de x , o simplemente media, y se designa por ( ( ( = E[ x )] ).

En general, si g( x ) es una funcin de la variable aleatoria discreta x, se define:

Nota : a) E[ a ] = a b) E[ bg(x) ] = b E[ g(x) ]

d.2) Caso Continuo:

Sea x v. a. continua con funcin de densidad f(x).

La esperanza matemtica de dicha variable designada por E(x), se define como:

En general, si h es una funcin continua se define:

Teorema: E[ a + bx ] = a + b E[ x ]

e) Varianza:

e.1) Caso discreto:

Sea x variable aleatoria discreta. Representaremos por V[ x ] a la varianza de dicha variable, la cual se define como:

En general se definir:

Teorema:

a) V[ a + bx ] = b2 V[ x ]

b) V[ x ] = E[ x2 ] (E[ x ])2

e.2) Caso continuo:

Sea x variable aleatoria continua con funcin de densidad f( x ). Se define como varianza de dicha v.a. a:

(

V[ x ] = E[ ( x - E(x) )2 ] = ( ( x - E[ x ] )2 f( x ) dx

-(

En general, si h es una funcin continua se define:

Teorema: a) a)

b)

2.4.4 Funcin Generatriz de Momentos de Una Variable Aleatoria X

Supongamos que existe un nmero positivo h tal que para -h < t < h, el valor esperado existe. Entonces :

Caso Continuo

Caso Discreto

M(t) se denomina Funcin Generatriz de Momentos de la variable aleatoria x.

[ Tambin se usa la notacin MX( t ) ].

No todas las distribuciones tienen funcin generatriz de momentos ( f. g. de m. ) . La importancia de sta radica en que cuando existe, es nica y determina completamente la distribucin de la variable aleatoria.

Si dos v. a. tienen la misma f. g. de m. , entonces tienen la misma distribucin.

Para t = 0 , la sumatoria y la integral son siempre convergentes y M(0) = 1.

La existencia de M( t ) para -h < t < h, implica que es indefinidamente derivable en un entorno del origen.

Expandiendo etx en serie de Mac Laurin

1+ t x + t2 x2 +.......+ tr xr +..............

2! r!

y se obtiene para el caso discreto:

= ( f(x) + t ( f(x) + t2 ( x 2 f(x) +........+ tr ( xr f(x) +........

2! r!

Entonces el coeficiente de tr , ((r), es el r-simo momento alrededor del origen de la distribucin de x.

Si se deriva la funcin generatriz de momento r veces respecto a t se obtiene:

Caso continuo

Caso Discreto

a) Caso de la Primera derivada:

M( t ) = dM(t) = ( x etx f( x ) dx Caso Discreto

dt

b) Caso de la Segunda derivada:

Caso Continuo

M( t ) = d2M(t) = ( x2 etx f( x ) dx Caso Discreto

dt2

c) Teoremas tiles:

Si a y b son constantes, entonces:

2.5 DISTRIBUCIONES DISCRETAS.

a) Bernoulli: Esta distribucin de probabilidades se puede usar cuando en un experimento se dan dos posibles casos:

i) XITO

ii) FRACASO

Donde ( : Es la probabilidad de XITO

( 1 - ( ) : Es la probabilidad de FRACASO

P( x ) = (x (1 - ( )1-x con x = 0, 1Media = (

Varianza = ((1- ()

b) Binomial: Esta distribucin describe la probabilidad de que ocurran x xitos en n experimentos independientes entre s.

n

P( x ) = (x ( 1 - ( )n-x con x = 0, 1, 2, 3, ......., n Media = n(

x Varianza = n((1-()

c) Multinomial:Esta distribucin de probabilidades se utiliza, cuando pueden ocurrir k eventos distintos, cada uno de los cuales mutuamente excluyente, en n experimentos.

Sean los eventos y1, y2, y3,....., yk ; y , (1, (2, (3, .........(k las respectivas probabilidades de ocurrencia de los eventos mencionados.

Sean x1, x2, x3, ......xk el nmero de veces que se dan los eventos y1, y2, y3,....., yk respectivamente.

Cada experimentacin debe ser independiente y la probabilidad de cada evento, debe ser la misma en cada experimentacin.

n!

P( x1, x2, x3, ......xk ) = ---------------------------- ( (1 x1 (2 x2 (3 x3 ....... (kxk )

( x1! x2! x3! ......xk ! )

k

Con n = ( xi Media de cada variable = n (i

i=1 Varianza de cada variable = n (i (1-(i)

d) Hipergeomtrica:Esta distribucin es anloga a la funcin de distribucin de probabilidad binomial que se aplica en situaciones de muestreo sin reemplazo. Para un nmero finito N de temes, los cuales pueden ser clasificados como buenos o defectuosos, xito o fracaso, si se sacan muestras de tamao n desde N, uno a la vez sin reemplazo, entonces la probabilidad de obtener exactamente x fallas en la muestra n es:

D N-D

x n-x

P( x )= ------------------ con x = 0, 1, 2,.......

N

n

D: N total de defectuosos

N: N total de temes

n: N de elementos de la muestra

Dn

Media = ------- Varianza =

N

e) Geomtrica: Esta distribucin describe la probabilidad de obtener un xito despus de x intentos.

( = Probabilidad de xito en cada intento, la cual se considera constante.

Media = Varianza =

Nota: El nombre de la distribucin se debe a que, para valores sucesivos de x la probabilidad constituye una progresin geomtrica.

f) Poisson: Esta distribucin se puede considerar como una aproximacin de la binomial, cuando n( es grande respecto de (. En general cuando n es muy grande:

con x = 0, 1, 2,....

2.6. FUNCIONES DE DISTRIBUCIN CONTINUAS.

1/(( - ()cuando ( < x < (

a) Uniforme: P( x ) =

Cero en otro caso

Media = Varianza =

b) Exponencial: 1

--- e (x/() cuando x > 0

(

P( x ) =

Cero ...................cuando x ( 0

Media = (Varianza = (2

c) Gamma:

0 ( x ( (

( ( - 1

( + 1 ( + 1

Media = ---------- Varianza = ----------

( (2

d) Beta:

Media =Varianza =

e) Weibull:

Media =

f) Normal:

- ( < x < (

Media = - ( < ( < (Varianza = (2 > 0

g) Log-Normal: 1 2 2

P( x ) = -------------- e - (ln x -( ) / 2 (

(2( (

Nota: ( = E( ln x )

(2 = Var( ln x )

Media =Varianza =

h) Chi-Cuadrado:

Con Media = Varianza =

i) t-student:

Nota: Media = 0 Var =

j) Distribucin F:

Nota:

Media =

Con :

Varianza =

k) Normal Multivariable:

Con:

Donde: V = Matriz de Covarianzas( = Vector de medias

Funcin Generatriz de Momentos:

2.7 DISTRIBUCIONES PARA EL CASO DE N VARIABLES ALEATORIAS.

Sean x1, x2,........, xn variables aleatorias de tipo continuo o discreto. Entonces

f( x1, x2,..........,xn) se denomina funcin de densidad conjunta si:

i)

ii) Caso Discreto

Caso Continuo

2.7.1 Distribuciones Marginales:

Sean las v.a. x1, x2, ..., xn con funcin de densidad conjunta f( x1, x2,........, xn ).

Entonces:

a < b y a, b ctes.

donde

f1 ( x1 ) = Funcin de Densidad Marginal de x1

Las Funciones de Densidad Marginal de x2, x3, ...... xn, denotadas por f2( x2 ), ...., fn( xn ), respectivamente, se definen en forma similar. En general, dada f( x1 , x2,........, xn ), puede hallarse la funcin de densidad marginal de cualquier subconjunto de las variables, integrando la funcin de densidad conjunta respecto a todas las dems variables, entre -( y +(.

2.7.2 Distribuciones Condicionales.

Sea f( x1 , x2,........, xn ), la f. de d. conjunta de las variables aleatorias x1 , x2,........, xn

La Funcin de Densidad Condicional Conjunta de x2, x3,..., xn dado x1 = x1* es:

con = Funcin de Densidad Marginal de x1

En general puede hallarse la funcin de densidad condicional conjunta para cualquier subconjunto de las variables aleatorias.

Ejs.: La funcin de densidad condicional conjunta de x1, x3, x5 para valores dados de x2, x4, x6, x7...., xn es:

donde es la funcin de densidad marginal

conjunta de x2, x4, x6,...., xn

2.7.3 Independencia de variables aleatorias.

Sean las variables aleatorias x1, x2, ...., xn con f. de d. conjunta f( x1 , x2 ...., xn ) y con funciones de densidad marginal f1( x1 ), f2( x2 ), ...., fn( xn ), respectivamente.

Entonces, las variables aleatorias x1 , x2 ...., xn se dicen mutuamente, estocsticamente, independientes, si y slo si:

y se cumple:

c)

2.8 TEORA DE MUESTREO.

La Teora de Muestreo estudia las relaciones existentes entre una poblacin y muestras extradas de la misma. Permite por ejemplo estimar cantidades desconocidas de la poblacin (tales como la media y la varianza poblacionales), llamados parmetros poblacionales, a partir del conocimiento de las correspondientes cantidades muestrales llamadas estadsticos o estimadores muestrales.

2.8.1 Definiciones:

Definicin de ESTADSTICO:

Es una funcin de una o ms variables aleatorias observables, que no contiene parmetros desconocidos.

Definicin de MUESTRA ALEATORIA:

Sean las variables aleatorias x1, x2 ,......, xn mutuamente independientes, todas con funcin de densidad f( x ) ( f( x ) es la funcin de densidad que describe la poblacin muestreada(.

En tal caso, se dice que x1, x2, ...., xn es una muestra aleatoria ( m.a. ) de extensin n procedente de f( x ) y la funcin de densidad conjunta de las variables aleatorias es:

Sea x1, x2......, xn m. a. de tamao n, de una distribucin dada, entonces:

( se denomina media muestral de la m.a.

se denomina varianza muestral de la m.a.

Tambin se usa :

Teorema:

Sea x1, x2, ...., xn muestra aleatoria de tamao n de una poblacin que tiene una funcin de densidad f( x ).

Sea ( la media poblacional. Entonces E[ x ] = (

Dem .

Teorema: Sea x1, x2 ...., xn m.a. de una poblacin con f. de d. f( x ) y

(

Si f( x ) tiene varianza finita entonces

2.8.2 Teorema del Lmite Central.

Enunciado 1:

Si una poblacin tiene una varianza finita (2 y una media (, entonces, a medida que n aumenta, la distribucin de la media de la muestra tiende a la distribucin normal con

varianza y media

(n corresponde al tamao de la muestra)

Enunciado 2:

Sean:

f( x ): funcin de densidad de una poblacin con media ( y varianza (2 finita.

x : media muestral, de la m.a. de tamao n de f( x ). Entonces, la variable aleatoria Y

2.9 DISTRIBUCIONES DE FUNCIONES DE VARIABLES ALEATORIAS.

2.9.1.-Teoremas:

Teor 1:Sean x1, x2....., xn variables aleatorias mutuamente independientes con distribucin N( (1 , (12 ), N( (2 , (22),........., N( (n, (n2 ) respectivamente.

Entonces, la variable aleatoria Y

Y = a1 x1 + a2 x2 +.........+ an xn con ai = constantes reales.

Se distribuye normal con media = a1 (1 + a2 (2 +......+ an (n ; y,

Varianza = a12 (12 + a2 (2 2 + ............+ an2 (n2

Teor 2:Sea x1, x2 ....., xn m.a. de tamao n procedente de una distribucin normal con media ( y varianza (2. Entonces (x se distribuye normal con media ( y varianza (2/n.

Teor 3:

Si

Entonces la variable aleatoria

Teor. 4 : Sean x1, x2....., xn variables aleatorias mutuamente independientes que se distribuyen (2( r1 ), (2( r2 ), (2( r3 ), ,........., (2( rn ), respectivamente.

Entonces, la variable aleatoria Y = x1 + x2 + x3 + ........... + xn tiene distribucin Chi-cuadrado con

( r1 + r2 + r3 + ........... + rn ) grados de libertad.

Teor. 5:

Teor. 6:

Teor. 7 :

Teor 8:Independencia de la media y varianza muestrales para poblaciones normales.

Sea Y1,Y2, ......, Yn m.a. de tamao n procedente de una distribucin normal con media 0 y varianza 1.

Entonces:

n ( Yi

i)( ( Yi (Y )2 ( ((2 ( n-1) con (Y = -------

i =1 n

ii) (

iii) ( son independientes.

NOTAS:

I .Sea x variable aleatoria con f. de d. f( x ) y f. g. de m. Mx( t ).

Sea c una constante, entonces:

II.Sea x1, x2 , ......, xn m. a. procedente de la distribucin f(x) con f.g. de m. Mx( t ).

de xi , entonces:

a) , donde

b) , donde

2.9.2.-Determinacin de distribuciones de funciones de variables aleatorias.

a) Tcnica de la funcin generatriz de momentos:

Teorema:

Si L = L( x1, x2, ....., xn ) es una funcin de las v.a. x1 x2 ...., xn ; cuya distribucin est dada por f( x1, x2 ...., xn), la funcin generatriz de momentos de L, si existe, es:

( (

ML ( t ) = E (eL t( = ( ........ ( eL( x1, x2, x3, .... xn )t f( x1 , x2,........, xn ) dx2 dx3 ......dxn

-( -(

De la funcin generatriz de momentos resultante se puede deducir la distribucin de L.

b)Tcnica de Transformacin de Variables.

b.1)Caso univariable:

Sean:-- x v.a. de tipo continuo, con f. de d. f( x ) .

-- A espacio unidimensional donde f( x ) > 0

-- y = (( x ) v. a. funcin de x . Esta funcin define una transformacin uno a uno del espacio A en uno B. (El espacio B se obtiene transformando cada punto de A, de acuerdo a y = (( x ) ).

-- x = (( y ) , inversa de y = (( x )

dx

-- ((y) = ------- , continua para todos los puntos de y en B

dy

Entonces, la funcin de densidad de y es:

g( y ) = f { ((y) } (J(, y ( B

g( y ) = 0 en otra parte.

Donde (J( = ((y) = ((/(y , es el Jacobiano de la transformacin.

b.2)Caso bivariable:(Slo para funciones que definen transformacin uno a uno).

Sean:-- x1, x2 v.a. de tipo continuo, con f. de d. conjunta f( x1, x2 ) .

-- A espacio bidimensional donde f( x1, x2 ) > 0

-- y1 = (1( x1, x2 ) , y2 = (2( x1, x2 ) funciones que transforman un espacio bidimensional A en el plano ( x1 x2 ) a un espacio bidimensional B en el plano ( y1 y2 ).

-- x1 = (1( y1, y2 ) , x2 = (2( y1, y2 ) las inversas de y1 e y2 , respectivamente.

Entonces, la funcin de densidad conjunta de y1 e y2 es:

g( y1, y2 ) = f { (1( y1, y2 ), (2( y1, y2 ) } (J(, ( y1, y2 ) ( B

g( y1, y2 ) = 0en otra parte.

Donde:( ((1/(y1 )( ((1/(y2 )

(J( =

( ((2/(y1 )( ((2/(y2 )

E[ etx ]

n

f( Xi ) = 1

i=1

P( A ) = ( f( X )

A

F( x1 ) < F( x2 ) , si x1 ( x2

P ( a ( x ( b ) = F( b ) - F( a )

n

E[ x ] = xi f( xi )

i=1

n

E(g( x )( = g( xi ) f( xi )

i=1

(

V (h(x)( = ( ( h(x) - E(h(x)( )2 f( x ) dx

-(

V[ a + bx ] = b2 V[ x ]

V (x) = E ( x2 ) (E (x)( 2

V[ x ] = E[ x2 ] - (E(x)(2

(

M( t ) = E[ etx ] = ( etx f( x ) dx

-(

M( t ) = E[ etx ] = ( etx f( x )

x

Mx( t ) = (1 + tx + t2 x2 + ............... + tr xr + ......... ( f(x)

2! r!

Mx( t ) = 1 + ( t + (2 t2 +............+ (r tr +...........

2! r!

dr Mx( t )

----------- = (r

dtr t=0

dr M( t ) (

M(r)( t ) = -------------- = ( xr etx f( x ) dx

dtr -(

dr M(t)

M(r)( t ) = ------------- = ( xr etx f( x ) dx

dtr

dM(t) (

M( t ) = ------------- = ( x etx f( x ) dx

dt -(

Para t = 0 M( 0 ) = E[ x ] = (

d2 M( t ) (

M( t ) = ----------- = ( x2 etx f( x ) dx

dt2 - (

Para t = 0 M( 0 ) = E[ x2 ]

Luego ( = M(0)

(2 = E[ x2 ] (E[ x ])2 = M( 0 ) - [M( 0 )(2

Mx+a ( t ) = E( e(x+a) t ( = eat Mx( t )

Mbx( t ) = E( ebxt ( = Mx( bt )

x

F( x ) = P( x ( x ) = ( f( y ) dy

-(

i)

M(x+a)/b (t) = E( e( ( x+a )/b )t ( = e(a /b)t Mx( t/b )

ND (N-n) (N-D)

---------------------

N2 (N-1)

P( x ) = ( (1 - ( ) x -1 con x = 1, 2, 3.....,

1

----------

(

1 - (

----------

(

(x e-(

P( x ) = -----------

x!

Media = Varianza = (

para el caso continuo.

para el caso discreto.

Caso continuo

( + (

2

1

------ (( - ()2

12

( ( + 1

P( x ) = -------------- e- (x x(

(( ( + 1 )

((( + ()

P (x) = ------------------- x ( -1 ( 1 - x )( -1

((() ((()

(

---------

( + (

( (

---------------------------

(( + () 2 (( + ( + 1)

(

P( x )= ((x(-1 e - (X

(1/( (( 1+1/ ()

V( x ) = (- 2/( ((( 2/( + 1) - (2 ( 1/( + 1)(

1 2 2

P( x ) = -------------- e - ( x -( ) / 2 (

(2( (

(

(2

0 ( x ( (

2

e ( + ( ( / 2 )

2 (2

e 2( + ( ( e - 1 )

1 ((/2) -1

P( x ) = --------------- [ x ] e - (x / 2)

2(/2 (((/2)

0 ( x ( (

(

2 (

([ (( + 1)/2 ] -((+1)/2

P( t ) = ----------------------------- ( 1+ ( t2/( ) (

((( (((/2)

- ( ( t ( (

U

t = ---------------

( (x2 / ()

U ( N( 0, 1)

X ( (2( ( )

(

---------

( - 2

( [ ( (1 + (2 )/2 ] (1/2 (2/2 ((1/2 1) -((1 + (2 )/2

P( Y ) = ------------------------ (1 (2 Y [ (2 + (1 Y ]

( ((1/2) ( ((2/2)

x1 / (1

Y = ------------ ( F( (1 , (2 )

x2 / (2

(2

---------

(2 - 2

x1 ( (2 ( (1 )

x2 ( (2 ( (2 )

2 (22 ((1 + (2 - 2)

-----------------------------

(1 ((2 - 2)2 ( (2 4 )

1 - Q

P( x ) = ---------------------- e

(2()n/2 ( V (

Q = ( x - ( )t V -1 (x - ( )

M y( t ) = ( Mx ( t/n ) (n

n

( xi

Y = (x = ---1---------

n

( ( + ( T V T )

Mx ( T ) = e

f ( x1, x2, .........., xn ) ( 0

x1 x2 ............xn f( x1, x2, ........, xn ) = 1

(xn ( ( ........ (x2 (x1 f(x1 , x2, ......, xn) dx1 dx2 .......dxn = 1

b

P( a ( x1 ( b ) = ( f1( x1 ) dx1

a

( (

f1( x1 ) = ( ........ ( f( x1 , x2,........, xn ) dx2 dx3 ......dxn

-( -(

n

Y = ( xi

i=1

M y( t ) = ( Mx (t) (n

f( x1, x2, ...., xn )

f ( x2, x3 , ......, xn / x1* ) = --------------------------

f1( x1 )

f1 ( x1 ) ( 0

f( x1, x2, .............., xn )

f( x1, x3, x5 / x2, x4, x6, x7, ........,xn ) = --------------------------------------------

f2467........n ( x2, x4, x6, x7, ......., xn )

f2467 ......n ( x2, x4, x6, x7, ......, xn ) ( 0

f( x1 , x2, ........., xn ) = f1(x1) f2 (x2) ....... fn (xn)

P( a1 ( x1 ( b 1 , a2 ( x2 ( b2 , ....., a n ( xn ( bn ( =

= P( a1 ( x1 ( b1 ( P( a2 ( x2 ( b2( ... P( an ( xn ( bn ( =

n

( P[ ai ( xi ( bi ]

i=1

( ai ( bi ; i = 1, ....,n

E( g1(x1) g2(x2) ...............gn (xn) ( = E( g1(x1) ( E( g2(x2) ( ............ E[ gn (xn) ( =

Mcx( t ) = Mx( ct )

n

= ( E( gi(xi) (

i=1

M( t1, t2, ......., tn ) = M( t1, t2, .., tn ) ( M( t1, t2, ...,tn ) ( .......... M( t1, t2, ..,tn ) (

t1= 0 t2 = 0 tn= 0

M(c + x) ( t ) = ect Mx( t )

n

M( t1, t2, ......., tn ) = ( M( t1, t2, ......, tn )(

i=1 ti = 0

f( x1, x2, ........,xn ) = f(x1) f(x2) ......f(xn)

n

f( x1, x2, ........,xn ) = ( f( xi )

i=1

1 n

x = ----- ( xi

n i=1

1 n

s2 = ------ ( xi -(x )2

n-1 i =1

n

E[(x ] = E((( xi / n)( = E ((1/n) (x1 + x2 + ........ + xn)( = (1/n) ( E[ xi ]

i=1

1 n 1

E[(x ] = ------ ( = --- n ( = (

n i=1 n

( 2

_ 1 n

x = ----- ( xi

n i=1

(2

sx 2 = -----

n

(2 / n

(

(x - (

Y = -------------- ( N( 0,1 )

( / ( n

Resumen :

n

xi ( N( (i , (i2 ) Y = ( ai xi

1

(

xi indep. i = 1, .., n Y ( N( ( ai ( i , ( ai2 (i2 )

Resumen:

n

x ( N( (, (2 ) ( ( xi (2

( x = --1------- ( N( ( , ---- )

x1, x2, ...., xn m.a. n n

X ( N( ( , (2 ) , (2 ( 0

x - (

Y = ( ----------- )2 ( (2 ( 1 )

(

Z ( N( 0,1) ( Y = Z2 ( (2 (1)

Resumen:

xi ( (2 ( ri ) n n

( Y = ( xi ( (2 ( ( ri )

xi indep. i = 1, ...,n 1 1

Resumen :

X ( N( (, (2 ) n xi - (

( Y = ( ( ----------)2 ( (2 ( n )

x1, x2, ....., xn m.a. 1 (

Resumen : _

x ( N ( (, (2 ) n xi - x

( Y = ( ( ---------- )2 ( (2 ( n -1 )

x1, x2, ....., xn m.a. 1 (

Resumen : (

x ( N ( (, (2 ) ( (xi x ) 2

( Y = ---------------- ( ([ (n-1)/2 , 2(2/n ]

x1, x2, ....., xn m.a. n

_

Y ( N( 0 , 1/n )

( n (

Y y ( ( Yi - Y )2

i =1

1 n

s2 = ----- ( xi -(x )2

n i=1

f( X i ) ( 0

F( x ) = P( x ( x ) = f( xj )

xj ( x

dF( x )

F ( x ) = ---------- = f( x )

dx

(

E[ x ] = ( x f( x ) dx

- (

(

E( h(x) ( = ( h(x) f( x ) dx

- (

n

V[ x ] = E( ( x - E(x) )2 ( = [ xi - E( xi ) ]2 f( xi )

i=1

n

V( g(x) ( = E( ( g(x) - E[g(x)] )2 ( = ( [ g(xi) E(g(xi)( ]2 f( xi )

i=1