Upload
others
View
21
Download
0
Embed Size (px)
Citation preview
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
1 CÁLCULO DE PROBABILIDADES
1.1 EXPERIENCIAS ALEATORIAS. SUCESOS
1.1.1 Definiciones
– Experiencia aleatoria: experiencia o experimento cuyo resultado depende del azar.
– Suceso aleatorio: acontecimiento que ocurrirá o no, dependiendo del azar.
– Espacio muestral (E): conjunto de todos los posibles resultados de una experiencia aleatoria.
– Suceso: cualquier subconjunto de E.
• Caso: suceso individual o elemental. Es un elemento de E.
• Suceso imposible (suceso vacío)
• Suceso seguro E
• Si E tiene un número finito de elementos (n), el número de sucesos de E es 2n.
1.1.2 Operaciones con sucesos
– Unión ( A∪B ): Se verifica cuando ocurre A, B, o ambos.
– Intersección ( A∩B ): Se verifica cuando ocurren simultáneamente A y B.
– Diferencia (A – B): Se verifica cuando lo hace A y no B.
– Complementario (A’ = E – A): Se verifica cuando no se verifica A.
– Sucesos incompatibles ( A∩B=∅ ): Son aquellos que no se pueden verificar a la vez.
Propiedades
– Distributiva: A∪B∩C =A∪B ∩ A∪C
A∩B∪C =A∩B ∪ A∩C
– De simplificación A∪B∩A =A
A∩B∪A =A
– Complementario (A’)’ = A
A−B=A∩B'
– Leyes de De Morgan A∪B '=A'∩B' A∩B '=A'∪B'
1
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
1.2 FRECUENCIA Y PROBABILIDAD
Frecuencia absoluta de un suceso S (f(S)): es el número de veces que ocurre S.
Frecuencia relativa de un suceso S (fr(S)): es la proporción de veces que ocurre S.
fr S =f S
N
1.2.1 Ley de los grandes números
fr S = limx∞
P [ S ] Al realizar un experimento un gran número de veces, lafrecuencia relativa de un cierto suceso se aproxima muchoun valor que es la probabilidad de S.
1.2.2 Propiedades de las probabilidades
La probabilidad de cada suceso es un número p tal que p∈ [0, 1 ] .
AXIOMAS
1) P [S ]≥0∀ S
2) Si A∩B=∅⇒P [A∪B]=P[A]+P [B ]
3) P[E] = 1
TEOREMAS
1) P[A’] = 1 – P[A]
2) P[ ∅ ] = 0
3) Si A⊂B⇒ P [ B ]=P [ A ]+P [ B−A ]
4) Si A⊂B⇒ P [A ]≤P [ B ]
5) Si A1, A2,…, Ak, son incompatibles dos a dos, entonces:
P [A1∪A2 .. .∪Ak ]=P [ A1]+P [ A2]+⋯+P [ Ak ]
6) P [A∪B ]=P [ A ]+P [B ]−P [ A∩B ]
7) Si el espacio muestral E es finito, y un suceso es S = {x1, x2,…, xk}, entonces:
P[S] = P[x1] + P[x2] + … + P[xk]
1.3 LEY DE LAPLACE
Si el espacio muestral consta de n sucesos elementales equiprobables:
p (S )=nº de sucesos favorables
nº total de sucesos
2
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
1.4 PROBABILIDAD CONDICIONADA.
Dados dos sucesos A y B, la probabilidad de A condicionada a B (P[A/B]) es la proporción de
veces que ocurre A de entre las que ocurre B.
P [ A/B ]=P [ A∩B ]
P [B ]es decir:
P [ A∩B ]=P [ B ]⋅P [ A/B ]
Dos sucesos A y B son independientes si el resultado de una no influye en la otra, es decir:
P[A/B] = P[A] y P[B/A] = P[B] Luego:
P [A∩B ]=P [A] · P [B ]
1.4.1 Tablas de contingencia
Al analizar varias experiencias aleatorias conjuntamente, es útil hacer una tabla donde las filas
representen los sucesos de un experimento simple y las columnas los sucesos del otro. Así, cada
celda de la tabla representa la probabilidad del suceso compuesto por el representado en la fila y
el representado en la columna que le corresponden.
1.5 PRUEBAS COMPUESTAS
Llamamos prueba compuesta a aquella en que podemos distinguir varias etapas. Para calcular las
probabilidades de los sucesos compuestos es útil calcular las probabilidades de sus componentes.
Ya hemos visto qué son los sucesos independientes, y cómo se calcula su probabilidad. Pero si el
resultado de la primera experiencia influye en las experiencias siguientes, las probabilidades de
sucesos compuestos se obtienen así:
P[S1 en la 1ª y S2 en la 2ª] = P[S1]·P[S2/S1]
P[S1 en la 1ª, S2 en la 2ª y S3 en la 3ª] = P[S1]·P[S2/S1]·P[S3/(S1 y S2)]
1.5.1 Probabilidad total
Sean A1, A2,…, An, sucesos incompatibles dos a dos, tales que A1∪A2 . ..∪An=E (sucesos
complementarios y disjuntos), entonces, para cualquier suceso S se cumple:
P[S] = P[A1]·P[S/A1] + P[A2]·P[S/A2] + ... + P[An]·P[S/An]
Es lo que se llama probabilidad total.
3
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
1.6 PROBABILIDADES A PROSTERIORI. FÓRMULA DE BAYES
Si un suceso S puede ocurrir después de varios sucesos (A, B,…n), llamamos probabilidad “a
posteriori” de un suceso A a la probabilidad de que haya ocurrido A, sabiendo que después
ha ocurrido un suceso S.
Fórmula de Bayes:
P [Ai / S ]=P [ Ai ]⋅P [S /Ai ]
P [A1 ]⋅P [S /A1 ]+⋯P [An ]⋅P [S / An ]=
P [ Ai ]⋅P [S /Ai ]P [S ]
2 INFERENCIA ESTADÍSTICA. ESTIMACIÓN DE LA MEDIA
2.1 MUESTRAS ESTADÍSTICAS
Muchas veces, para estudiar una población, no podemos analizar todos y cada uno de sus
miembros, sino que debemos extraer una muestra significativa y analizarla como si se tratara de
la población completa. La fase en que se extrae la muestra se llama muestreo, y debe ser
aleatorio, es decir, todos sus miembros deben haber sido elegidos al azar.
– Muestreo aleatorio simple: extracción aleatoria de n elementos de la población.
– Muestreo aleatorio sistemático: se numeran los individuos de la población y, a partir de uno
de ellos elegido al azar, se toman los demás mediante saltos numéricos iguales. Al salto
numérico, se le llama coeficiente de elevación.
– Muestreo aleatorio estratificado: Se divide la población en estratos y, dentro de cada estrato,
se hace un muestreo aleatorio.
2.2 DISTRIBUCIÓN NORMAL
2.2.1 Tabla de la Normal N(0, 1)
– Los valores de la probabilidad P[z < k] están tabulados para la distribución Normal (0, 1)
– P[z > k] = P[z < -k] = 1 – P[z < k]
– P[k1 < z < k2] = P[z < k1] – P[z < k2]
– P[-k1 < z < -k2] = P[z < k2] – P[z < k1]
4
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
2.2.2 Tipificación de una variable normal N( μ σ )
Si x es una variable distribuida según una Normal N( μ σ ), z=x− μ
σ es una variable
distribuida según una Normal N(0, 1).
2.3 INTERVALOS CARACTERÍSTICOS
Siendo la variable x una distribución de media μ un intervalo característico de probabilidad p
es un intervalo centrado en la media tal que la probabilidad de que x pertenezca a él es p:
P[ μ - k < x < μ + k] = p
2.3.1 Intervalos característicos en distribuciones N(0, 1)
En Normales N(0, 1), si P[-k < z < k] = p, decimos que k es el valor crítico correspondiente a p.
Normalmente se designa p como 1 - α , y el valor crítico correspondiente es Z α /2
Valores críticos más frecuentes:
1- /2 z/2
0,90 0,05 1,645
0,95 0,025 1,96
0,99 0,005 2,575
2.3.2 Intervalos característicos en distribuciones normales cualesquiera
En una distribución normal N( μ σ ) el intervalo característico correspondiente a una
probabilidad p = 1- α es: ( μ− z α/2⋅σ , μ+ z α/2⋅σ)
2.4 DISTRIBUCIÓN DE LAS MEDIAS MUESTRALES
2.4.1 Teorema central del límite
Dada una población de media μ y desviación típica σ , no necesariamente Normal, la
distribución de las medias de las muestras de tamaño n:
– Tiene la misma media μ que la población.
– Su desviación típica es σ
n (disminuye al aumentar n).
– Cuando n≥30 se puede considerar una Normal.
5
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
El teorema central del límite es válido para cualquier distribución, continua o discreta, normal o
no.
– Si la población de partida sigue una Normal, la distribución de medias muestrales también.
– Si la población de partida no sigue una Normal, la distribución de medias muestrales se
aproximará a una Normal para n > 30.
Aplicaciones del Teorema Central del Límite
1) Control de las medias muestrales: En una población de media μ y desviación típica σ ,
antes de extraer una muestra de tamaño n sabemos que la distribución de las medias de todas
las posibles muestras es N μ,σ
n así que podemos averiguar la probabilidad de que la
media esté en un cierto intervalo.
2) Control de la suma de los individuos de una muestra: Como ∑i=1
n
xi =n⋅x , sabemos que la
suma se distribuye según una Normal: N n , n
3) Podemos inferir la media de la población a partir de la muestra.
2.5 ESTADÍSTICA INFERENCIAL
La estadística inferencial consiste en inferir o estimar el valor de un parámetro de la población
a partir de una muestra.
2.5.1 Estimación puntual y estimación por intervalos
Estimación puntual
– La media muestral x sirve para estimar la media poblacional μ .
– La desviación típica muestral s sirve para estimar la desviación típica poblacional σ .
Estimación por intervalos
A partir de una muestra aleatoria de tamaño n podemos estimar el valor de un parámetro
– Dando un intervalo de confianza, es decir un intervalo dentro del cual confiamos que esté el
parámetro.
– Hallando en nivel de confianza, es decir la probabilidad de que ocurra lo anterior.
Cuanto mayor sea el tamaño de la muestra, más eficaz será la estimación, es decir, podemos
disminuir el tamaño del intervalo o aumentar el nivel de confianza.
6
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
2.6 INTERVALO DE CONFIANZA PARA LA MEDIA
Se quiere estimar la media μ , de una población cuya desviación típica, σ , se conoce, y para
ello se extrae una muestra de tamaño n con una media muestral x :
Si la población de partida es una Normal (ó n > 30), el intervalo de confianza de μ con
nivel de confianza (1 - α )·100% es: (x±z α/2⋅σ
√n )Si la desviación típica es desconocida se puede estimar a partir de la muestra:
– Valores de n pequeños: s n−1=∑ x i−x 2
n−1
– Valores de n relativamente grandes: s n=s=∑ xi−x 2
n
2.7 RELACIÓN ENTRE NIVEL DE CONFIANZA, ERROR ADMISIBLE Y
TAMAÑO DE LA MUESTRA
Error máximo admisible: E=zα /2⋅σ
√n
2.7.1 Tamaño de la muestra dados E y α :
Despejando n de la expresión anterior: n= z /2α ⋅σ
E 2
Debemos aumentar el tamaño de la muestra para aumentar el nivel de confianza o para ser más
precisos en la estimación (disminuir E).
2.7.2 Nivel de confianza conociendo E y n:
Despejando zα /2 z /2α =E⋅ n
σ
Obtenido zα /2 la tabla nos permite obtener α2 , y de aquí el nivel de confianza 1−α
7
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
3 INFERENCIA ESTADÍSTICA. ESTIMACIÓN DE UNA
PROPORCIÓN
3.1 DISTRIBUCIÓN BINOMIAL
Una experiencia dicotómica es aquella en que sólo nos interesa si ocurre un suceso (éxito) o no
(fracaso). Si es A el suceso que consideramos un éxito:
P(A) = p; P(A’) = 1 – p = q
Si repetimos n veces una experiencia dicotómica y queremos saber el número de éxitos (x), la
distribución de probabilidad de esta variable será la de una variable discreta. La llamamos
distribución Binomial B(n, p).
P(x=k )=(nk )⋅pk⋅qn−k
Es la probabilidad de que x ocurra k veces
μ=n⋅p σ=√n⋅p⋅q
3.1.1 Distribución Binomial aproximada a una Normal
– Una distribución binomial se aproxima a una normal tanto más cuanto mayor sea n·p (ó n·q
si q < p).
– Si n·p y n·q son ambos mayores que 3 la aproximación es bastante buena, y si son mayores
que 5, entonces es casi perfecta.
B (n , p )≈N (n⋅p ,√n⋅p⋅q )
Como la variable de la Binomial es discreta y la de la Normal continua, al aproximar una a la
otra tenemos que tener en cuenta:
P[x = k] = P[k – 0,5 < x < k + 0,5] (Recordemos que la probabilidad de unvalor puntual en una distribución continuaes 0)
3.2 DISTRIBUCIÓN DE LAS PROPORCIONES MUESTRALES
Si, en una población, la proporción de individuos con una característica C determinada es p, la
proporción pr de individuos con dicha característica en una muestra de tamaño n sigue una
distribución Normal N ( p , √ p⋅qn )
8
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
3.3 INTERVALO DE CONFIANZA PARA UNA PROPORCIÓN
Se quiere estimar la proporción p de individuos con una cierta característica en una población.
Para ello se recurre a una muestra de tamaño n, donde se obtiene una proporción muestral pr:
( pr−zα /2⋅√ pr⋅(1−pr )
n, pr+zα /2⋅√ pr⋅(1−pr )
n )
es el intervalo de confianza de p con un nivel de confianza (1 - )·100%
9
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
4 INFERENCIA ESTADÍSTICA. CONTRASTES DE HIPÓTESIS
4.1 HIPÓTESIS ESTADÍSTICAS
Un test estadístico es un procedimiento para extraer conclusiones que permitan aceptar o
rechazar una hipótesis sobre el valor del parámetro desconocido de una población a partir de una
muestra aleatoria y significativa.
4.1.1 Contraste de hipótesis
1) Enunciación: Se enuncia la hipótesis nula (H0), es decir, se le atribuye un valor a un
parámetro de cierta población (en nuestro caso, la media o la proporción).
2) Deducción de conclusiones: Si la hipótesis fuera cierta
– Se elige un nivel de significación (habitualmente α=0,1 ; α=0,05 ; α=0,01 .
– Se determina una zona de aceptación, fuera del cual sólo está el α ∙100% de los casos
más raros.
3) Verficación: Se extrae una muestra cuyo tamaño mínimo se ha decidido anteriormente, y de
ella se obtiene el parámetro estudiado.
4) Decisión: Si el valor del parámetro muestral está dentro de la zona de aceptación se acepta la
hipótesis con nivel de significación α , si no se rechaza.
4.1.2 Posibles errores en el contraste de hipótesis
– Error tipo I: Se rechaza una hipótesis verdadera debido al resultado del contraste.
· La probabilidad de cometer este error es α , y no depende del tamaño de la muestra.
– Error tipo II: Se acepta una hipótesis falsa debido al resultado del contraste.
· La probabilidad de cometer este error depende del verdadero valor del parámetro, y
disminuye al aumentar el tamaño de la muestra.
10
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
4.2 CONTRASTES DE HIPÓTESIS PARA LA MEDIA
4.2.1 Contraste bilateral ( = 0 )
1) Hipótesis H0: =0 ; H1: ≠0
Hipótesis nula: atribuirle un cierto valor a la media de la población.
2) Deducción de conclusiones. Obtención de la zona de aceptación
Si n≥30 o bien si la población es normal, las medias muestrales se distribuyen según
N μ0 ,σ 0
n .
La zona de aceptación para un nivel de significación es el intervalo característico
0±z/2⋅ 0
n 3) Verificación y decisión: Se calcula x en la muestra y se ve si está dentro o fuera de la zona
de aceptación.
4.2.2 Contraste unilateral ( 0 ó 0 )
1) Hipótesis H0 μ≤μ0 ó μ≥μ0
2) Zona de aceptación
HIPÓTESIS
NULA
ZONA DE
ACEPTACIÓN
HIPÓTESIS
ALTERNATIVA
0 −∞ ,0z/2⋅ 0
n 0
0 0−z/2⋅ 0
n,∞ 0
3) Verificación y decisión: Se calcula x en la muestra y se ve si está dentro o fuera de la zona
de aceptación.
11
MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II PROBABILIDAD Y ESTADÍSTICA
4.3 CONTRASTES DE HIPÓTESIS PARA LA PROPORCIÓN
4.3.1 Contraste bilateral (p = p0)
1) Hipótesis H0: p = p0 ; H1: p≠p0
(p puede ser una proporción o una probabilidad)
2) Zona de aceptación
Si p = p0 las proporciones muestrales se distribuyen según
N p0 , p0⋅q0
n .
La zona de aceptación para un nivel de significación es el intervalo característico
p0±z/2⋅ p0⋅q0
n 3) Verificación y decisión: Se calcula pr en la muestra y se ve si está dentro o fuera de la zona
de aceptación.
4.3.2 Contraste unilateral ( p p0 ó p p0 )
1) Hipótesis H0 p≤p0 ó p≥p0
2) Zona de aceptación
HIPÓTESIS
NULA
ZONA DE
ACEPTACIÓN
HIPÓTESIS
ALTERNATIVA
p p0 −∞ , p0z⋅ p0⋅q0
n p p0
p p0 p0−z ⋅ p0⋅q0
n,∞ p p0
3) Verificación y decisión: Se calcula p en la muestra y se ve si está dentro o fuera de la zona de
aceptación.
12