Upload
others
View
5
Download
0
Embed Size (px)
Citation preview
Calculo das Probabilidades I
Guilherme Ost
Instituto de MatematicaDepartamento de Metodos EstatısticosUniversidade Federal do Rio de Janeiro
Agosto 2019
Informacoes importantes
I Horario e Sala: SEG-QUA-SEX das 08h-10h na F2-34.I Monitoria: Alana TavaresI Bibliografia recomendada:
I DeGroot, M.H. e Schervish, M.J. Probability and Statistics.Pearson (4a.ed.), 2012.
I Ross, S. A First Course in Probability. Pearson (9a.ed.), 2015.I Blitzstein, J.K. e Hwang, J. Introduction to Probability. A
chapman & Hall book, 2015.I Bertsekas, D.P. e Tsitsikiklis, J.N. Introduction to Probability.
Athena Scientific (2a.ed.), 2008.
I Sala do professor: C114-DI Duvidas: [email protected] Pagina do curso:
www.im.ufrj.br/guilhermeost/Cal Prob I 2019 01
Do que vamos falar?
I Espacos amostrais e eventosI Analise combinatoriaI Probabilidade condicionalI IndependenciaI Variaveis aleatorias discretas e contınuasI Esperanca e variancia de variaveis aleatoriasI Variaveis aleatorias com distribuicao conjuntaI Funcao geradora de momentosI Teoremas Limites: Lei dos grandes numeros e teorema
central do limite
Espaco amostral e eventosUm espaco amostral Ω e o conjunto de todos os resultadospossıveis de um experimento.
Um evento A e um subconjunto do espaco amostral Ω.
Exemplo 1.
Lancamento de 10 moedas: se Cara ↔ 0 e Coroa ↔ 1, entao
Ω = w = (w1,w2, . . . ,w10) : wi ∈ 0, 1 para 1 ≤ i ≤ 10
= 0, 110
Eventos:
“o j-esimo lancamento foi coroa”: Aj = w ∈ 0, 110 : wj = 1
“pelo menos um lancamento foi coroa”: B = ∪10j=1Aj
“todos lancamentos foram cara”: C = Bc = (0, 0, . . . , 0)
Exemplo 2.
Selecione uma carta de um baralho de 52 cartas:
Ω = A♠, . . . ,K♠,A♥, . . . ,K♥,A♦, . . . ,K♦,A♣, . . . ,K♣
Eventos:
“A carta e As”: A = A♠,A♥,A♦,A♣
“A carta e de cor escura”: B = A♠, . . . ,K♠,A♣, . . . ,K♣
“ A carta e de copas”: C = A♥, . . . ,K♥
“ A carta e de outro”: D = A♦, . . . ,K♦
“ A carta e de cor branca”: E = Bc
Quantos eventos podemos construir para esse espaco amostral?
252 ≈ 4.5 × 1015 eventos!!
Operacoes em conjuntos
Figure 1: (Bertsekas, D.P. e Tsitsikikilis, J.N. Introduction to probability,p.5.) Exemplos de Diagramas de Venn. Em todos os diagramas Ω e oconjunto universo, conjunto de todos os objetos de interesse; e S,T e Usao subconjuntos de Ω. (a) A regiao sombreada e S ∩ T . (b) A regiaosombreada e S ∪ T . (c) A regiao sombreada e S ∩ T c . (d) Aqui T ⊂ S. Aregiao sombreada e Sc . (e) Os conjuntos T , S e U sao disjuntos. (f) Osconjuntos T , S e U formam uma particao de Ω
Algumas propriedades uteis
Para um subconjunto A ⊆ Ω:
Ac ∪ A = Ω,A ∩ Ac = ∅, (Ac)c = A , A ∪ Ω = Ω,A ∩ Ω = A .
Para subconjuntos A ,B ,C ⊆ Ω:
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
Leis de Morgan: se (An)n≥1 e sequencia de subconjuntos de Ω,
(∪∞n=1An)c = ∩∞n=1Acn e (∩∞n=1An)c = ∪∞n=1Ac
n
Definicao classica de Probabilidade
Seja A um evento de um espaco amostral Ω finito. A probabilidadedo evento A e definida por
P(A) =|A ||Ω|
=numero de resultados favoraveis a A
numero total de resultados em Ω
Notacao: |A | denota a cardinalidade do evento A.
Hipoteses:I Resultados equiprovaveis!I Espaco amostral Ω finito!
De volta ao Exemplo 1. Lancamento de 10 moedas honestas.
Lembre que Cara ↔ 0 e Coroa ↔ 1, de modo que
Ω = 0, 110 e |Ω| = 210.
Como |Aj | = |w ∈ 0, 110 : wj = 1| = 29 : P(Aj) = 29
210 = 1/2.
Como |C | = 1 : P(C) = (1/2)10
Como |B | = | ∪10j=1 Aj | = 210 − 1: P(B) = 1 − (1/2)10.
Note que B = Cc e P(B) = 1 − P(C). Em geral, se A e um evento:
Ac e um evento e P(Ac) = 1 − P(A).
Qual e a probabilidade do evento “sair 3 coroas consecutivas ”? Ea probabilidade de “ao menos uma ocorrencia Cara,Coroa, Cara ”?
Metodos de ContagemPrincıpio da Multiplicacao: Considere r experimentos E1, . . . ,Er
realizados consecutivamente. Se E1 tem n1 resultados possıveis,e para cada resultado de E1 ha n2 resultados possıveis para E2, e. . ., entao ha n1n2 . . . nr resultados possıveis para os rexperimentos.
Figure 2: (Blitzstein, J.K. e Hwang,J. Introduction to probability, p.9.)Diagrama de arvore ilustrando o princıpio da multiplicacao para r = 2,n1 = 3 e n2 = 4.
Exemplo 3. Quantos eventos existem para um espaco amostral Ωcom n elementos?
Solucao:
Pelo Princıpio da Multiplicacao existem 2n eventos !
Isso explica porque no Exemplo 2 podemos definir 252 eventos.
Exemplo 4. (Amostragem com reposicao) Quantas sequencias detamanho k podem ser construıdas a partir de n objetos?
Solucao:
Pelo Princıpio da Multiplicacao podemos construir nk sequencias!
Exemplo 5. (Amostragem sem reposicao) Quantas sequencias detamanho k com entradas todas distintas podem ser construıdos apartir de n objetos?
Solucao:
Pelo Princıpio da Multiplicacao podemos construir n!(n−k)!
eventos!
Exemplo 6. (Permutacoes e fatorias) Uma permutacao dasequencia (1, 2, . . . , n) e um arranjo desta sequencia em algumaordem. Por exemplo, para n = 6, temos que (2, 3, 4, 5, 1, 6) e umapermutacao da sequencia (1, 2, . . . , 6). De quantas maneriasdiferentes podemos permutar a sequencia 1, 2, . . . , n?
Solucao: Cada permutacao pode ser vista como um amostragemsem reposicao com k=n. Logo, pelo exmeplo 5, o numero total depermutacoes e n! = n(n − 1)(n − 2) . . . (2)(1).
Exemplo 7. Quantos anagramas da palavra PEPPER existem?
Solucao: Mesmo tendo a palavra PEPPER 6 letras, a respostanao e 6!, pois temos letras repetidas. Ao trocar a posicao dos tresP’s entre si nada e alterado, bem como ao trocar a posicao dosdois E’s.
Dessa forma, dos 6! arranjos totais, 3! × 2! sao redundantes entresi, pelo princıpio basico. Portanto, a resposta e 6!/(3! × 2!) = 60.
Caso geral: se tivermos n objetos dos quais n1 sao indistinguıveisentre si, outros n2 tambem o sao, etc., ate nr , entao a quantidadetotal de permutacoes distintas dos n objetos e
n!
n1! × · · · × nr !.
Exemplo 8. (O problema do aniversario) Existem k pessoas numasala. Supondo que o aniversario de cada pessoa e igualmenteprovavel e que nao ha gemeos na sala, qual a probabilidade deque duas ou mais pessoas celebrem o aniversario no mesmo dia?
Solucao:
Se A denota o evento “nenhuma das k pessoas fazem aniversariono mesmo dia”, entao queremos calcular P(Ac). Nesse exemplo,
Ω = 1, . . . , 365k .
Do exemplo 4 temos |Ω| = 365k e do exemplo 5 temos
|A | =365!
(365 − k)!= 365 · 364 · · · (365 − k + 1).
Logo,
P(Ac) = 1 − P(A) = 1 −|A ||Ω|
= 1 −365 · 364 · · · (365 − k + 1)
365k.
Figure 3: (Blitzstein, J.K. e Hwang,J. Introduction to probability, p.12.)Probabilidade de que num grupo de k pessoas duas ou mais celebremaniversario no mesmo dia. Essa probabilidade excede 1/2 para k = 23.
Exemplo 9. (Coeficiente Binomial) Quantas eventos de tamanho kexistem em um espaco amostral Ω de n elementos?
Solucao:
Seja A um evento de tamanho k . O evento A pode ser obtido dek ! maneiras distintas (Porque?).
Como ha n!/(n − k)! maneiras possıveis de construir sequenciasde tamanho k com entradas todas distintas, segue que existem
n!
(n − k)!k !=
(nk
)eventos de tamanho k em um espaco amostral de n elementos.
Exemplo 10. Quantos anagramas da palavra STATISTICSexistem?
Solucao: Podemos escolher onde colocar os S’s, e entao ondecolocar os T’s, e em seguida onde colocar os I’s, e entao ondecolocar o A (com esse estategia o C fica automaticamentedeterminado). Assim, o numero total de anamagras e(
103
)(73
)(42
)(21
)=
10!
3!3!2!
Teorema 1. (Coeficiente binomial) Seja n ≥ 1 um numero inteiro.Para quaisquer numereos reais x e y,
(x + y)n =n∑
k=0
(nk
)xk yn−k .
Prova: Escreva o produto (x + y)n como
(x + y)(x + y) . . . (x + y) (produto de n termos).
Para obter o termo xk yn−k devemos escolher necessariamente kvezes a variavel x entre os n termos possıveis. O numero total depossibilidade de se fazer isso e
(nk
).
Exemplo 11. (Full House em uma mao de Poker) Uma mao de 5cartas e extraıda de um baralho de 52 cartas. Se o baralho foiembaralhado de forma que cada carta tenha a mesma chance deaparecimento, qual e a probabilidade de se obter um Full House?
Solucao:
Uma mao e chamada Full House se ha 3 cartas do mesmo valor e2 outras cartas do mesmo valor.
Seja A o evento “a mao e um Full House”. Do Princıpio daMultiplicacao segue que
|A | = 13(43
)12
(42
)Logo,
P(A) =13
(43
)12
(42
)(525
) ≈ 0.00144.
Exemplo 12. Qual e o numero de solucoes para a equacao
x1 + x2 . . . + xn = k ,
onde x1, . . . , xn sao inteiros nao negativos?
Em outras palavras, de quantas maneiras diferentes podemosdistribuir k bolas nao numeradas em n urnas indistinguıveis?
Solucao:
Cada solucao pode ser vista como uma sequencia de |’s e •’s.Essa sequencia deve ter exatamente (n − 1) |’s e k •’s distribuıdasentre as duas |′s exteriores.
Assim existem n − 1 + k lacunas entre as paredes exteriores edevemos escolher onde colocar as k •’s. Logo o numero total desequencias com essas propriedades e(
n − 1 + kk
).
Identidades uteisExemplo 13. Para inteiros nao negativos n e k com k ≤ n, temos(
nk
)=
(n
n − k
)e n
(n − 1k − 1
)= k
(nk
).
Prova:
A primeira identidade e imediata. Para provar a segunda, penseem quantas formas possıveis podemos escolher um time de kpessoas, com 1 capitao, de uma populacao de n pessoas.
Exemplo 14. (Identidade de Vandermonde) Para inteiros naonegativos m, n e k , temos(
m + nk
)=
k∑j=0
(mj
)(n
k − j
).
Prova: Pense em como escolher k pessoas a partir de doisgrupos, um com m pessoas e o outro com n pessoas.
Exemplo 15. Para todo inteiro n ≥ 1,
2n!
2nn!= (2n − 1)(2n − 3) . . . (3)(1).
Prova: Pense em duas maneiras para contar o numero departidas diferentes que podemos formar com 2n times onde cadatime jogue extamente uma vez.
Exemplo 16: um conjunto de n itens distintos deve ser dividido emr grupos distintos de tamanhos n1, n2, . . . , nr , respectivamente,onde
∑ni=1 ni = n. Quantas divisoes diferentes sao possıveis?
Solucao: Pelo regra de multiplicacao, temos que a quantidade demaneiras que podemos dividir o grupo de n como desejado e:(nr1
)(n − n1
n2
)(n − n1 − n2
n3
). . .
(n − n1 − n2 − · · · − nr−1
nr
)=
n!
n1! n2! . . . nr !.
Coeficiente multinomial:(n
n1, n2, . . . , nr
)=
n!
n1! n2! . . . nr !.
Definicao axiomatica de probabilidade
Seja Ω um espaco amostral.
Probabilidade P: funcao que atribuı a eventos A ⊆ Ω um numeroP(A) ∈ [0, 1] e satisfaz os seguintes axiomas:
1. P(Ω) = 1 e P(∅) = 0
2. Para eventos (Ai)i≥1 disjuntos (isto e Ai ∩ Aj = ∅ se i , j):
P(∪∞i=1Ai) =∞∑
n=1
P(An).
Dos Axiomas 1 e 2 segue que para eventos A1, . . . ,An disjuntos:
P(∪ni=1Ai) =
n∑i=1
P(Ai)
De fato, considere An+1 = An+2 = . . . = ∅.
Como interpretar probabilidade dada pela definicao axiomatica?
Visao frequentista: probabilidade representa a frequencia relativade ocorrencias de um evento calculada a partir de grande numerode repeticoes de um mesmo experimento.
Visao Bayesiana: probabilidade representa um grau de crenca doevento em questao.
Importante: a Teoria das Probabilidades NAO dependende dainterpretacao dada a probabilidade.
Teorema 1. (Propriedades da Probabilidade) Para eventos A e Bde um espaco amostral Ω, temos:
1. P(Ac) = 1 − P(A)
2. P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
3. Se A ⊆ B, entao P(A) ≤ P(B).
Prova: 1. Basta observar que Ω = A ∪ Ac e usar Axioma 2.
3. Escreva B = A ∪ (Ac ∩ B) e aplique Axioma 2.
2. Escreva A ∪ B = A ∪ (B ∩ Ac), escreva B como na prova doitem 3 e use Axioma 2.
Item 2 e um caso particular do princıpio de Inclusao-Exclusao:
Teorema 2. (Inclusao-Exclusao) Para eventos A1, . . . ,An, temos:
P(∪ni=1Ai) =
∑i
P(Ai) −∑i<j
P(Ai ∩ Aj) +∑
i<j<k
P(Ai ∩ Aj ∩ Ak )
− · · ·+ (−1)n+1P(A1 ∩ A2 . . . ∩ An)
Princıpio de Inclusao-Exclusao para n = 3 :
P(A ∪ B ∪ C) = P(A) + P(B) + P(C)
− P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C).
Exemplo 17. (O problema de pareamento) A partir de uma urnacom n bolas numeradas de 1, 2, . . . , n, selecionamos ao acaso esem reposicao todas as bolas, uma de cada vez. Dizemos queocorre um pareamento na i-esima selecao, se nessa selecao forselecionada a bola de numero i. Qual e a probabilidade de queocorra pelo menos um pareamento?
Solucao: Para cada 1 ≤ i ≤ n, seja Ai o evento “ocorreu umpareamento na i-esima selecao”. Queremos calcular P(∪n
i=1Ai).
Para k bolas i1, . . . ik distintas vale que
P(Ai1 ∩ . . . ∩ Aik ) =(n − k)!
n!
Logo, pelo princıpio de Inclusao-Exclusao, temos
P(∪ni=1Ai) = n
1n−
(n2
)(n − 2)!
n!+
(n3
)(n − 3)!
n!− · · ·+ (−1)n+1 1
n!
≈ 1 − e−1, para n grande o suficiente.
Exemplo 18. Calcule a probabilidade de que, com 10 casaissentados de forma aleatoria em uma mesa redonda, nenhumamulher se sente ao lado de seu marido.
Solucao: Para cada 1 ≤ i ≤ 10, seja Ai o evento “o i-esimo casalse senta junto”. Queremos calcular 1 − P(∪10
i=1Ai).
Para 1 ≤ k ≤ 10 casais i1, . . . ik vale que
P(Ai1 ∩ . . . ∩ Aik ) =2k (19 − k)!
19!
Logo, pelo princıpio de Inclusao-Exclusao, temos
P(∪ni=1Ai) =
(101
)2
18!
19!−
(102
)22 17!
19!+
(103
)23 (16)!
19!− · · · − 210 9!
19!
≈ 0.6605,
de modo que 1 − P(∪10i=1Ai) ≈ 0.3395.
Teorema 3. (Cota da Uniao) Para eventos A1, . . . ,An de umespaco amostral Ω,
P(∪ni=1Ai) ≤
n∑i=1
P(Ai).
Prova: Considere B1 = A1, B2 = A2 ∩Ac1 , B3 = A3 ∩Ac
1 ∩Ac2 , . . . e
observe que (Bi)ni=1 sao disjuntos tais que Bi ⊆ Ai pra todo i.
Teorema 4. (Desigualdade de Bonferroni) Para eventos A1, . . . ,An
de um espaco amostral Ω,
P(∩ni=1Ai) ≥ 1 −
n∑i=1
P(Aci ).
Prova: Aplique a cota da uniao para B1 = Ac1 , . . . ,Bn = Ac
n e tomeo complementar.
Probabilidade Condicional
Como atualizar nossa crenca a luz da evidencia que observamos?
Exemplo 19. Ao lancar dois dados honestos, a probabilidade deque a soma dos dois dados seja igual a 8 e 5/36, pois os eventosfavoraveis sao os pares (2, 6), (3, 5), (4, 4), (5, 3) e (6, 2).
Se tivermos a informacao adicional que no primeiro dado foiobservado um 3, qual e a nova probabilidade de observamos asoma igual a 8?
Solucao. Sabendo que o primeiro dado e um 3, temos seisresultados possıveis: (3, 1), (3, 2), (3, 3), (3, 4), (3, 5) e (3, 6), dosquais somente o par (3, 5) soma 8. Portanto, a luz dessa novainformacao, a nova probabilidade aumenta para 1/6.
Considere uma probabilidade P definida em um espaco amostralΩ. Para eventos A e B com P(B) > 0, a probabilidade condicionalde A dado B e definida como
P(A |B) =P(A ∩ B)
P(B).
Figure 4: (Blitzstein, J.K. e Hwang,J. Introduction to probability, p.44.)Intuicao para P(A |B). Da esquerda para direita: a) Eventos A e B doespaco amostral. b) Como sabemos que B ocorreu, descartamos todosresultados em Bc . c) No espaco amostral restrito, renormalizamos demodo que a massa total seja 1.
Observacoes:I P(A) e chamada de probabilidade a priori do evento A .I P(A |B) e chamada de probabilidade a posteriori do evento A .I P(A |B) e a probabilidade de A dado a evidencia B, e nao a
probabilidade de alguma entidade chamada A |B.
Exemplo 20. Duas cartas sao retiradas aleatoriamente uma porvez e sem reposicao, de um baralho de cartas bem embaralhadoSeja A o evento “ a primeira carta e de copas” e B o evento “ asegunda carta e vermelha”. Determine P(A |B) e P(B |A).
Solucao: Note que P(A ∩ B) = (13)(25)/(51)(52), P(A) = 1/4 eP(B) = (26)(51)/(51)(52). Logo, temos P(A |B) = 25/102 eP(B |A) = 25/51.
Intuicao frequentista de P(A |B)
Repetimos um numero n grande de vezes um experimento.
Se nA , nB e nAB denotam o numero de occorencias dos eventosA , B e A ∩ B respectivamente, entao de acordo com a visaofrequentista de probabilidade:
P(A) ≈nA
n,P(B) ≈
nB
ne P(A ∩ B) ≈
nAB
n.
Alem disso,
P(A |B) ≈nAB
nB=
nAB/nnB/n
≈P(A ∩ B)
P(B).
Exemplo 21. Uma famılia tem dois filhos e sabe-se que ao menosum deles e uma menina. Qual e a probabilidade que ambos filhossejam meninas, dado essa informacao? E se a informacao dadafor o filho mais velho e uma menina? Assuma que cada filhopossa ser um menino ou uma menina com igual probabilidade,independenemente do outro.
Solucao: Ora,
P(ambos meninas|ao menos uma menina) =1/43/4
=13,
P(ambos meninas|o mais velho e uma menina) =1/41/2
=12.
Regra da Multiplicacao
Teorema 5. (Regra da multiplicacao) Se A e B sao eventos comprobabilidade positiva, entao
P(A ∩ B) = P(A)P(B |A) = P(B)P(A |B).
Mais geralmente, se A1, . . . ,An sao eventos tais que
k⋂i=1
Ai
tem
probabilidade positiva para todo 1 ≤ k ≤ (n − 1), entao
P
n⋂i=1
Ai
= P(A1)P(A2|A1)P(A3|A1 ∩ A2) . . . P(An |A1 ∩ . . . ∩ An−1).
Prova. Bast usar a definicao de probabilidade condicionalrepetidamente.
Exemplo 22. Tres cartas sao extraıdas, sem reposicao, de umbaralho com 52 cartas. Assumindo que em cada extracao, cadauma das cartas restantes tem a mesma chance de ser escolhida,determine a probabilidade de nenhuma das tres cartas seja decopas.
Solucao: Defina para cada i = 1, 2, 3, o evento
Ai = “a i-esima carta nao e de copas”
Note que P(A1) = 39/52, P(A2|A1) = 38/51 eP(A3|A1 ∩ A2) = 37/50. Logo, pela regra da multiplicacao,
P(A1 ∩ A2 ∩ A3) = P(A1)P(A2|A1)P(A3|A1 ∩ A2) =3952
3851
3750.
Particao de um espaco amostralOs eventos A1, . . .An formam uma particao do espaco amostral Ωse as seguintes condicoes sao satisfeitas:
1. Ω =n⋃
i=1
Ai
2. Ai ∩ Aj = ∅ para todos 1 ≤ i, j ≤ n com i , j.
Figure 5: (Blitzstein, J.K. e Hwang, J. Introduction to probability, p.50.)Particao A1, . . . ,A6 do espaco amostral.
Para qualquer evento B ⊆ Ω : B = ∪ni=1(B ∩ Ai).
Lei da Probabilidade Total
Teorema 6. (Lei da Probabilidade Total) Considere A1, . . . ,An
formam uma particao de Ω tal que P(Ai) > 0 para todo 1 ≤ i ≤ n.Para todo evento B, temos que
P(B) = P(A1)P(B |A1) + . . . + P(An)P(B |An).
Prova: Escreva B = ∪ni=1(B ∩ Ai), use o Axioma 2 da definicao de
uma probabilidade e por fim aplique o Teorema 5.
Exemplo 23. Joao decide participar de um torneio de xadrez, ondea metade dos jogadores e profissional (tipo 1), um quarto esemi-profissional (tipo 2) e um quarto e amador (tipo 3). Suponhaque as probabilidades do Joao vencer uma partida sejam 0.3, 0.4e 0.5, se o adversario for respectivamente do tipo 1, tipo 2 e tipo 3.Se um adversario e escolhido ao acaso, determine a probabilidadedo Joao sair vitorioso.
Solucao: Defina para cada i = 1, 2, 3, o evento
Ai = “o adversario escolhido e do tipo i”.
Temos que P(A1) = 0.5, P(A2) = 0.25 e P(A3) = 0.25. Defina B oevento “Joao saiu vitorioso”. Temos que P(B |A1) = 0.3,P(B |A2) = 0.4 e P(B |A3) = 0.5 Assim, pela lei da probabilidadetotal
P(B) = P(A1)P(B |A1) + P(A2)P(B |A2) + P(A3)P(B |A3) = 0.375
Teorema de Bayes
Teorema 7. (Teorema de Bayes) Se A e B sao eventos comprobabilidade positiva, entao
P(A |B) =P(A)P(B |A)
P(B).
Alem disso, se A1, . . . ,An formam uma particao de Ω talqueP(Ai) > 0 para todo 1 ≤ i ≤ n, entao
P(Ai |B) =P(Ai)P(B |Ai)
P(A1)P(B |A1) + . . . + P(An)P(B |An).
Prova: Basta usar a definicao de probabilidade condicional eentao aplicar a Lei de probabilidade Total.
Exemplo 24. Um paciente e testado para uma doenca que atinge1% da populacao. O resultado do teste e positivo. Seja D o evento“o paciente testado tem a doenca” e T o evento “o resultado doteste para esse paciente e positivo”. Suponha que a precisao doteste e 95%, i.e. P(T |D) = 0.95 = P(Tc |Dc). Calcule P(D |T).
Solucao: Pelo Teorema de Bayes e a Lei da Probabilidade total:
P(D |T) =P(D)P(T |D)
P(T)=
P(D)P(T |D)
P(D)P(T |D) + P(Dc)P(T |Dc)≈ 0.16
Exemplo 25. Considere duas moedas, sendo uma honesta e aoutra viesada cuja probabilidade de cara e 3/4. Escolhemos umadas moedas ao acaso e entao efetuamos tres lancamentos. Emtodos os lancamentos o resultado foi cara. Dado essa informacao,qual e a probabilidade de a moeda honesta ter sido escolhida?
Solucao: Sejam A o evento “ em todos os lancamentos oresultado foi cara” e F o evento “a moeda honesta foi escolhida”.Queremos calcular P(F |A). E imediato calcular P(A |F) e P(A |Fc):
P(A |F) = 1/8 = (1/2)3 e P(A |Fc) = (3/4)3.
Tambem temos que P(F) = P(Fc) = 1/2. Logo, pelo Teorema deBayes e a Lei da Probabilidade total:
P(F |A) =P(F)P(A |F)
P(F)P(A |F) + P(Fc)P(A |Fc)≈ 0,23.
Falacia do Procurador
Em 1999, Sally Clark foi condenada pelo assassinato dos seusdois filhos, ambos recem nascidos. A decisao foi tomada combase no depoimento de um especialista. Segundo ele, aprobabilidade de uma bebe recem nascido morrer da sındrome demorte subita infantil (SMSI) era de 1/8500, de forma que aprobabilidade de duas mortes devida a SMSI na mesma famıliaera (1/8500)2 ≈ 1/(73 × 106). Com base nisso, o especialistaconclui que a probabilidade da inocencia de Clark era de1/(73 × 106). Qual e o problema com a linha de raciocınio doespecialista?
1. Hipotese de independencia nao justificada
2. Usou incorretamente P(“evidencia”|“Inocencia”) ao inves deP(“Inocencia”|“evidencia”).
Mensagem: nao confunda P(A |B) com P(B |A)!
Probabilidades condicionais sao probabilidades
Sejam Ω um espaco amostral e B um evento.
A probabilidade condicional P(·|B) e uma probabilidade:
1. P(Ω|B) = 1 e P(|B) = 0.
2. Para eventos (Ai)i≥1 disjuntos:
P(∪∞i=1Ai |B) =∞∑
i=1
P(Ai |B).
Em particular, todos os resultados ja provados valem paraprobabilidades condicionais!
Lei da Probabilidade Total com extra condicionamento
Teorema 8. (Lei da Probabilidade Total condicional) Considere umevento B e suponha que A1, . . . ,An formam uma particao de Ω talque P(Ai ∩ B) > 0 para todo 1 ≤ i ≤ n. Para todo evento A , temosque
P(A |B) = P(A1|B)P(A |A1 ∩ B) + . . . + P(An |B)P(A |An ∩ B).
Prova: Imediata.
Teorema de Bayes com extra condicionamento
Teorema 9. (Teorema de Bayes condicional) Se A e B eventostais que P(B) > 0 e P(A ∩ B) > 0, entao para todo evento C,
P(A |B ∩ C) =P(A |B)P(C |A ∩ B)
P(C |B).
Prova: Basta usar a definicao de probabilidade condicionalaplicado a probabilidade P(·|B).
Exemplo 26. Considere as condicoes do exemplo 25 e suponhaque para a moeda escolhida observamos tres caras consecutivas.Ao lancar a modea uma quarta vez, qual e a probabilidade deobservar mais uma cara?
Solucao: Considere os eventosA o evento “observamos tres caras para moeda escolhida”
F o evento “escolhemos a moeda honesta”.
H o evento “cara no quarto lancamento para moeda escolhida”
Queremos calcular P(H|A). Pelo Teorema de Bayes codicional,
P(H|A) = P(F |A)P(H|F ,A) + P(Fc |A)P(H|Fc ,A)
=12
(0.23) +34
(1 − 0.23) ≈ 0.69.
Independencia
Seja P uma probabilidade definida em um espaco amostral Ω.
Dois eventos A e B sao independentes se
P(A ∩ B) = P(A)P(B).
Se P(A) > 0 e P(B) > 0, independencia e equivalente a
P(A |B) = P(A) e P(B |A) = P(B).
Independencia e o oposto de mutuamente exclusivos (disjuntos)!
Daqui em diante, vamos escrever P(A ,B) ao inves de P(A ∩ B).
Proposicao 1. Se os eventos A e B sao independentes, entaotambem sao os eventos Ac e B, A e Bc , e Ac e Bc .
Prova. Vamos provar somente que os eventos Ac e B saoindependentes, os demais casos sao similares. Para isso observeque
P(Ac ,B) = P(B) − P(A ,B) = P(B) − P(A)P(B) = P(Ac)P(B).
Os eventos A1, . . . ,An sao independentes dois a dois, se oseventos Ai e Aj sao independentes para todos i , j.
Os eventos A1, . . . ,An sao independentes se
P(∩i∈JAi) =∏i∈J
P(Ai)
para qualquer subconjunto J ⊆ 1, . . . , n.
Em particular, A1, A2 e A3 sao independentes se o seguintesistema de equacoes e satisfeito:
P(A1,A2) = P(A1)P(A2)
P(A1,A3) = P(A1)P(A3)
P(A2,A3) = P(A2)P(A3)
P(A1,A2,A3) = P(A1)P(A2)P(A3)
Exemplo 27. (Independencia Dois a Dois; independencia)No lancamento de 2 moedas honestas independentes, os eventosA =“primeira lancamento e cara”, B =“segundo lacamento e cara”e C =“os dois lancamentos sao iguais ” sao independentes dois adois mas nao sao independentes.
Solucao.
Sejam A , B e C eventos de um espaco amostral Ω. Os eventos Ae B sao condicionalmente independentes dado C se
P(A ,B |C) = P(A |C)P(B |C).
Independencia Condicional NAO implica Independencia
Exemplo 28. Dispomos de uma moeda honesta e uma moedaviesada tendo probabilidade 3/4 de cara. Suponha queescolhemos uniformemente uma das duas moedas e em seguidaefetuamos dois lancamentos consecutivos. Sejam F , A1 e A2 oseventos “a moeda honesta foi escolhida”, “o primeiro lancamentofoi cara” e “o segundo lancamento foi cara” respectivamente.
Os eventos A1 e A2 SAO condicionalmente independentes dado Fmas NAO sao independentes!
Independencia NAO implica Independencia Condicional
Exemplo 29: Suponha que duas moedas honestas sejamlancadas e defina os seguintes eventos
A = “observamos cara no primeiro lancamento”
B = “observamos cara no segundo lancamento”
C = “observamos ao menos uma coroa”
Os eventos A e B SAO independentes mas NAO saocondicionalmente independentes dado o evento C!
Exemplo 30. (Problema de Monty Hall) Considere um jogo em queo participante deve escolher uma entre tres portas: atras de umaporta ha um carro; atras das outras duas, cabras. Inicialmente, oparticipante escolhe uma porta, e o apresentador, que sabe o queesta por tras das portas, abre uma das portas nao escolhidas. Eleabre sempre a porta que tem uma cabra. Se ele tiver chance, eleescolhe uma das duas portas ao jogar uma moeda honesta. Emseguida, o apresentador oferece ao participante a chance demudar para a outra porta fechada. Sendo o objetivo doparticipante conseguir o carro, ele deve trocar de porta?
Figure 6: (Blitzstein, J.K. e Hwang,J. Introduction to probability, p.61.)
Solucao: Suponha S.P.G. que escolhemos porta 1. Podemosobter a solucao usando um diagrama de arvores:
Figure 7: (Blitzstein, J.K. e Hwang,J. Introduction to probability, p.62.)
O diagrama mostra que e a melhor estrategia e trocar de porta!
Exemplo 31. (Processo de Ramificacao) Uma unica ameba, Bobo,vive em um lago. Apos um minuto Bobo morrera, se dividira emduas amebas, ou permanecera a mesma, com igual probabilidadee nos minutos subsequentes todas as amebas vivas secomportarao da mesma maneira e independentemente. Qual e aprobabilidade de extincao dessa populacao de amebas?
Figure 8: (Blitzstein, J.K. e Hwang, J. Introduction to probability, p.63.)
Solucao: Seja D o evento “a populacao se extingue”. Queremoscalcular P(D). Para isso, defina Bi o evento ”Bobo se transformaem i amebas depois do primeiro minuto” com i = 0, 1, 2. Temos
P(D |B0) = 1
P(D |B1) = P(D)
P(D |B2) = P2(D)
P(B1) = P(B2) = P(B3) = 13 .
Alem disso:
P(D) = P(B0)P(D |B0) + P(B1)P(D |B1) + P(B2)P(D |B2)
=13
+13P(D) +
13P2(D).
Resolvendo essa essa equacao de 2o grau, temos P(D) = 1.
Exemplo 32. (Ruına do Jogador) Dois apostadores, A e B, fazemuma sequencia de apostas de 1 real. Suponha que, em cadaaposta, o apostador A tenha probabilidade p ∈ [0, 1] de vencer e oapostador B tenha probabilidade q = 1 − p de vencer. Alem disso,suponha que o apostador A inicie com i reais e o apostador Binicia com N − i reais. O jogo so acaba quando A ou B perde todoo seu dinheiro. Qual e a probabilidade de A ganhar o jogo?
Figure 9: (Blitzstein, J.K. e Hwang,J. Introduction to probability, p.64.)Esse jogo pode ser descrito atraves de um passeio aleatorio simples nosinteiros entre 0 and N, onde p e a probabilidade de saltar para a direita eq = 1 − p a probabilidade de saltar para a esquerda.
Solucao: Seja pi a probabilidade que A venca o jogo, dado que Ainiciou com i reais. Assim para todo 1 ≤ i ≤ N − 1, temos
pi = ppi+1 + qpi−1 (equacao de diferencas).
Alem disso, p0 = 0 e pN = 1.
Pode-se verificar que a solucao da equacao acima e dada por
pi =
1−(q/p)i
1−(q/p)N , se p , 1/2iN , se p = 1/2.
Seja qi a probabilidade que B venca o jogo, dado que B inicioucom N − i reais. Pode-se verificar que
pi =
1−(p/q)N−i
1−(p/q)N , se p , 1/2N−iN , se p = 1/2.
Logo o jogo sempre acaba: pi + qi = 1 para todo i e p.
Variavel aleatoriaSeja Ω um espaco amostral. Uma variavel aleatoria (v.a.) e umafuncao de Ω assumindo valores em R.
V.a.’s fornecem “resumos numericos” de um experimento aleatorio.
Variaveis aleatorias serao denotadas em geral por letrasmaiusculas:
X ,Y ,Z , . . .
Figure 10: (VARIAVEL aleatoria. In: Wikipedia: a enciclopedia livre.)Visualizacao de uma variavel aleatoria X . A v.a. X atribuı um valornumerico X(w) para cada resultado possıvel w ∈ Ω.
Exemplo 32. (Revisitando a ruına do jogador). Algumas v.a.s deinteresse seriam:I A fortuna Xk do jogador A apos k jogadas.I A fortuna Yk do jogador B apos k jogadas. Note que
Yk = N − Xk .I A diferenca Dk das forturnas do jogador A e jogador B apos k
rodadas. Note que Dk = 2Xk − N.I O numero de apostas T ate que um dos jogadores va a
falencia. Note que T = minn ≥ 1 : Xn = 0 ou Yn = 0.
Exemplo 33. (Revisitando o processo de ramificacao). Algumasv.a.s de interesse seriam:I O tamanho da populacao Xn apos n minutos.I O tempo de extincao Text da popualcao. Note que
Text = minn ≥ 1 : Xn = 0.
Eventos e variaveis aleatorias
Para todo x ∈ R, escrevemos X = x, X ≤ x e X ≥ x paradenotar respectivamente os eventos
w ∈ Ω : X(w) = x, w ∈ Ω : X(w) ≤ x e w ∈ Ω : X(w) ≥ x.
Se a v.a. X conta o numero de caras em 10 lancamentos de umamoeda honesta, entao usando Cara ↔ 0 e Cara ↔ 1:I X = x = w ∈ 0, 110 : w1 + . . . + w10 = x.I X ≤ x = w ∈ 0, 110 : w1 + . . . + w10 ≤ x.I X ≥ x = w ∈ 0, 110 : w1 + . . . + w10 ≥ x.
Quanto vale P(X = 0) e P(X = 5)?
Funcao massa de probabilidade de v.a.s discretas
Uma v.a. X e discreta se existe um conjunto enumeravel ΩX ⊂ R
tal queX ∈ ΩX .
A funcao massa de probabilidade (f.m.p.) de uma v.a. X discreta ea funcao pX dada por
pX (x) = P(X = x), x ∈ ΩX .
Note que a f.m.p. pX de uma v.a. X satisfaz
pX (x) ≥ 0 para todo x ∈ ΩX∑x∈ΩX
pX (x) = 1
Exemplo 34. Dois dados honestos sao lancados. Seja T = X + Ya soma total dos lancamentos, onde:I X e a face do primeiro lancamento.I Y e face do segundo lancamento.
Encontre a f.m.p de X ,Y e T .
Solucao. Temos que ΩX = ΩY = 1, . . . , 6 e ΩT = 2, . . . , 12.Pela definicao classica de probabilidade,
pX (x) =16
x ∈ ΩX , pY (y) =16
y ∈ ΩX
e
pT (2) = pT (12) = 136
pT (3) = pT (11) = 236
pT (4) = pT (10) = 336
pT (5) = pT (9) = 436
pT (6) = pT (8) = 536
pT (7) = 636
Note que X tem a mesma distribuicao de Y , mas X nao e igual Y .(Por que?). Na verdade, vale que
P(X = Y) =636.
Se Z = 7 − X , entao Z tem a mesma distibuicao de X (verifique),mas Z e sempre diferente de X !
Note tambem que
P(1 ≤ T ≤ 4) = P(T = 2) + P(T = 3) + P(T = 4) =636.
Em geral, se X e v.a. discreta e A ⊆ R tal que X ∈ A e um evento:
P(X ∈ A) =∑
x∈ΩX :x∈A
pX (x).
A distribuicao de uma v.a. X e a probabilidade
µX (A) = P(X ∈ A),
definida para subconjuntos A ⊆ R tais que X ∈ A e um evento.
Distribuicao BernoulliUma v.a. X tem distribuicao Bernoulli de parametro p, se:
1. X assumi valores 0 ou 1, isto e X ∈ ΩX = 0, 1.
2. Para cada x ∈ ΩX :
pX (x) = P(X = x) = px(1 − p)1−x .
Notacao: X ∼ Ber(p).
Observacoes:I Codificacao: 0↔ “fracasso” e 1↔ “sucesso”.I Para cada x ∈ ΩX = 0, 1 :
P(X = x) = P(w ∈ Ω : X(w) = x).
I Ensaio de Bernoulli: experimento aleatorio que resulta em“sucesso” ou “fracasso”, mas NAO ambos.
I Parametro p: probabilidade de sucesso.
Distribuicao Binomial
Uma v.a. X tem distribuicao Binomial de parametros n e p, se:
1. X assumi valores 0, 1, . . . , n, isto e X ∈ ΩX = 0, 1, . . . , n
2. Para cada x ∈ 0, 1, . . . , n :
pX (x) = P(X = x) =
(nx
)px(1 − p)n−x .
Notacao: X ∼ Bin(n, p).
Observacoes:I X e o numero de sucessos em n ensaios independentes de
Bernoulli com probabilidade p de sucesso⇒ X ∼ Bin(n, p).
Figure 11: (Blitzstein, J.K. e Hwang, J. Introduction to probability, p.102.)Grafico da f.m.p. para quatro variaveis aleatorias Binomiais.
A FMP de uma v.a. Binomial e de fato uma FMP valida:
n∑x=0
pX (x) =n∑
x=0
(nx
)px(1 − p)n−x = (p + (1 − p))n = 1.
Na terceira igualdade usamos o Teorema do Binomio de Newton.
Proposicao 1. Se X ∼ Bin(n, p) entao:
1. se q = 1 − p, entao n − X ∼ Bin(n, q).
2. se p = 1/2 e n e par, entao X e simetrica ao redor de n/2 nosentido que para todo x ∈ 0, . . . , n/2:
P(X = n/2 + x) = P(X = n/2 − x).
Prova: 1. Seja Y = n − X e observe que para todo y ∈ 0, . . . , n,
P(Y = y) = P(X = n − y) =
(n
n − y
)pn−yqy .
2. Sabemos que n − X ∼ Bin(n, 1/2) de forma que
P(X = k) = P(n − X = k) para todo k ∈ 0, . . . , n.
Tomando k = n/2 + x o resultado segue.
Exemplo 35. Considere uma urna com b bolas brancas e p bolaspretas. Seja X o numero de bolas brancas ao final de n extracoescom reposicao dessa urna. Qual a distribuicao da v.a. X?
Defina para cada i = 1, . . . , n, a v.a. indicadora Ii do evento“observamos uma bola branca na i-esima extracao”, isto e,
Ii =
1, se observamos uma bola branca na i-esima extracao
0, caso contrario.
Qual a distribuicao da v.a. Ii para cada i = 1, . . . , n?
Solucao. Temos que X ∼ Bin(n, b/(b + p)), enquanto queIi ∼ Ber(b/(b + p)). Note que as v.a.s indicadores Ii tem a mesmadistribuicao, mas nao sao iguais!
E se as extracoes sao feitas sem reposicao?
Distribuicao HipergeometricaUma v.a. X tem distribuicao Hipergeometrica de parametros b , p en, se:
1. X assumi valores 0, 1, . . . , b, isto e ΩX = 0, 1, . . . , b
2. Para cada x ∈ 0, 1, . . . , b :
pX (x) = P(X = x) =
(b
x)( pn−x)
(b+pn )
, se 0 ≤ n − x ≤ p
0, caso contrario
Notacao: X ∼ HGeo(b , p, n).
Observacao:I X e o numero de bolas brancas em n extracoes sem
reposicao de uma urna com b bolas brancas e p bolas pretas
⇒ X ∼ HGeo(b , p, n).
A f.m.p de uma v.a. Hipergeometrica e de fato ma f.m.p. valida:
b∑x=0
pX (x) =b∑
x=0
(bx
)(p
n−x
)(b+p
n
) = 1.
Na segunda igualdade usamos a Identidade de Vandermonde.
Exemplo 36. Uma floresta tem N alces. Hoje, m alces saocaputrados, etiquetados e soltos de volta na floresta. Em uma dataposterior, n alces sao recaputrados aleatoriamente. Denote por Xo numero de alces recapturados que foram etiquetadosanteriormente. Assumindo que cada alce tem igual chance de serrecapturado, qual e a distribuicao de X?
Solucao. Temos que X ∼ Hgeo(m,N −m, n).
Exemplo 37. Em uma mao de 5 cartas extraıdas ao acaso de umbaralho de 52 “bem embaralhado”, o numero de ases na mao temdistribuicao HGeo(4, 48, 5). Assim, a probabilidade de que a maocontenha exatamente 3 ases e(
43
)(482
)(525
) = 0.0017%.
Distribuicao Binomial vs Hipergeometrica
Ambas distribuicoes sao discretas, assumindo valores em0, . . . , n para algum inteiro nao negativo n.
Ambas podem ser interpretadas como o numero de sucesso em nensaios de Bernoulli.
Entretanto:I na distribuicao Binomial os ensaios sao indepedentes.I na distribuicao Hipergeometrica os ensaios sao dependentes.
Distribuicao Poisson
Uma v.a. X tem distribuicao Poisson de parametro λ > 0, se:
1. X assumi valores 0, 1, 2, . . ., isto e ΩX = N
2. Para cada x ∈ N :
pX (x) = e−λλx
x!
Notacao: X ∼ Poi(λ).
Observacoes:I Usualmente usada para contar o numero de “sucessos” em
um grande numero de tentativas, cada uma tendo umapequena probabilidade de sucesso. Exemplos incluem:
I numero de emails recebidos em uma hora.I numero de terremotos em um ano em uma dada regiao.
I Parametro λ: taxa de ocorrencia desses eventos raros.I pX e uma FMP valida: e−λ
∑∞x=0
λx
x! = e−λeλ = 1.
Figure 12: Grafico da f.m.p. da distribuicao Poisson para diferentesparametros λ.
Teorema 10. (Relacao Binomial e Poisson) Seja X ∼ Bin(n, p),com probabilidade de sucesso da forma p = λ/n para algumλ > 0. No limite n → ∞, a f.m.p. pX da v.a. X converge para af.m.p. de uma v.a. com distribuicao Poi(λ).
Prova. Para 0 ≤ x ≤ n, note que
pX (x) =λx
x!
n(n − 1) . . . (n − x + 1)
nx
(1 −
λ
n
)n (1 −
λ
n
)−x
Tomando n → ∞, o resultado segue.
Exemplo 38. O proprietario de um certo website esta estudando adistribuicao do numero de visitantes do site. Em Cada dia, ummilhao de pessoas independentemente decide se visita o site,com probabilidade p = 2 × 10−6 de visitar. Forneca uma boaaproximacao para a probabilidade de obter pelo menos tresvisitantes em um dia particular.
Solucao. Seja X o numero de visitantes. Temos X ∼ Bin(n, p)com n = 106 e p = 2 × 10−6. Assim, a distribuicao de X pode seraproximada por uma v.a. com distribuicao Poi(2). Logo,
P(X ≥ 3) = 1 − P(X < 3)
≈ 1 − e−2 − 2e−2 − e−2 22
2!= 1 − 5e−2 ≈ 0.3233.
Distribuicao Uniforme Discreta
Uma v.a. X tem distribuicao Uniforme Discreta de parametroC = x1, . . . , xn se:
1. X assumi valores x1, . . . , xn, isto e ΩX = C .
2. Para cada x ∈ ΩX :
pX (x) =1n.
Notacao: X ∼ UnifD(C).
Observacoes:I X e um elemento de C escolhido uniformemente acaso
⇒ X ∼ UnifD(C).
Funcao de distribuicao acumulada (FDA)
Seja X uma v.a. e defina para cada x ∈ R,
FX (x) = P(X ≤ x) = P(w ∈ Ω : X(w) ≤ x).
A funcao FX e chamada funcao de distribuicao acumulada.
Se X e uma v.a. discreta com FMP pX , entao para x ∈ R,
FX (x) =∑
y∈SX :y≤x
pX (y).
Alem disso, pX (x) = FX (x) − FX (x−) (“saltos de F”), onde
FX (x−) = limy→x,y<x
FX (y).
Logo, para X v.a. discreta a FMP determina a FDA e vice-versa.
Figure 13: (Blitzstein, J.K. e Hwang,J. Introduction to probability, p.109.)FMP (esquerda) e FDA(direita) de uma v.a. com distribuicao Bin(4, 1/2).
Teorema 11. Seja X uma v.a. com FDA FX .
1. FX e nao decrescente: x ≤ y ⇒ FX (x) ≤ FX (y).
2. FX e contınua a direita: FX (x) = limy→x,y>x FX (y).
3. limx→∞ FX (x) = 1 e limx→−∞ FX (x) = 0.
Prova: 1. Basta observar que X ≤ x ⊆ Y ≤ y se x ≤ y. Os itens2 e 3 seguem da continuidade da probabilidade.
A recıproca do Teorema 11 e verdade: Se F e um funcaosatisfazendo 1-3, entao existe uma v.a. X tal que F = FX !
Distribuicao Geometrica
Uma v.a. X tem distribuicao Geometrica de parametro p, se:
1. X assumi valores 1, 2, 3, . . ., isto e ΩX = N \ 0
2. Para cada x ∈ N \ 0 :
pX (x) = (1 − p)x−1p
Notacao: X ∼ Geom(p).
Observacoes:I X e o numero de tentativas ate o primeiro sucesso em
ensaios de Bernoulli independentes com probabilidade p desucesso
⇒ X ∼ Geom(p).
I pX e uma FMP valida:∑∞
x=0 p(1 − p)x = p1−(1−p)
= 1.
Exemplo 39: (FDA de uma Geometrica) Se X ∼ Geom(p), entao aFDA e para x ∈ R dada por
F(x) =
0, se x < 1
1 − (1 − p)bxc, se x ≥ 1.
Aqui bxc denota o maior inteiro menor que x ∈ R. Note que FX euma funcao escada crescente com saltos nos pontos 1, 2, . . ..
Podemos verificar que:I P(X > x) = (1 − p)
bxcpara todo x ≥ 1.
I Para x ∈ 1, 2, . . .: pX (x) = FX (x) − FX (x−) = p(1 − p)x−1
Exemplo 40. Uma urna contem N bolas brancas e M bolas pretas.Retira-se bolas, com reposicao, ate obtermos uma bola preta.
a) Qual a probabilidade de precisamos de exatamente kretiradas?
b) E de precisamos de pelo menos k retiradas?
Solucao. Seja X o numero de bolas retiradas ate obtermos umabola preta. Entao X tem distribuicao geometrica com parametrop = M/(M + N). Temos entao que:
a) P(X = k) = p(1 − p)k−1 = MM+N
(N
M+N
)k−1.
b) Alem disso,
P(X ≥ k) =
(N
M + N
)k−1
,
Funcoes de uma variavel aleatoria
Exemplo 41: (Passeio Aleatorio) Uma partıcula com posicao inicial0 decide, em cada passo, saltar para a direita ou a esquerda comigual probabilidade. Seja Y a posicao da partıcula apos n passos.Ache a FMP de Y, assumindo que os passos sao independentes.
Solucao: Seja X o numero de saltos que a partıcula executa paraa direita. Temos X ∼ Bin(n, 1/2) e Y = 2X − n. Desse modoΩY = −n, 2 − n, 4 − n . . . , n e
pY (y) = P(Y = y) = P(X = (y + n)/2) =
(n
(y+n)2
) (12
)n
,
para todo y ∈ ΩY .
Note que Y = g(X) com g(x) = 2x − n injetora.
De maneira geral, se g : R→ R e uma funcao e X uma v.a.,definimos outra v.a.
Y = g(X).
Dada uma v.a. X discreta, como encontrar a FMP de Y = g(X)?
Se g e injetora, entao ΩY = g(ΩX ) = g(x) : x ∈ ΩX e
pY (y) = pX (x) se y = g(x).
Figure 14: (Blitzstein, J.K. e Hwang,J. Introduction to probability, p.111.)FMP de X (esquerda) e FMP de Y=g(X) (direita) para g injetora.
E se g : R→ R e nao injetora?
Teorema 12. (FMP de g(X)) A FMP da v.a. Y = g(X) para umav.a. discreta X e dada por
pY (y) =∑
x∈ΩX :g(x)=y
pX (x),
para y ∈ ΩY = g(ΩX ) = g(x) : x ∈ ΩX .
Prova: Imediata da definicao de Y .
Exemplo 42: (P.A. revisitado) Seja D a distancia da partıcula aorigem apos n passos. Suponha n par e determine a FMP de D.
Solucao: Note que D = |Y |. Como D = 0 = Y = 0 temos
pD(0) = pY (0) =
(nn2
)(1/2)n.
Agora, para todo d ∈ 2, 4, . . . , n,
D = d = Y = d ∪ Y = −d,
de forma que
pD(D = d) = pY (d) + pY (−d) = 2(
n(d+n)
2
) (12
)n
,
onde na segunda igualdade usamos a simetria do P.A.
Funcoes de vetores aleatorios
Sejam X1, . . . ,Xn v.a.s definidas no mesmo espaco amostral Ω.
O vetor X = (X1, . . . ,Xn) e chamado vetor aleatorio.
Dada funcao g : Rn → R, definimos uma nova v.a. Z = g(X).
Exemplo 43. g(x) = x1 + . . . + xn ⇒ Sn = X1 + . . . + Xn.
Exemplo 44. g(x) = maxx1, . . . , xn ⇒ X(n) = maxX1, . . . ,Xn.
Exemplo 45. g(x) = minx1, . . . , xn ⇒ X(1) = minX1, . . . ,Xn.
Exemplo 46. Lancamos dois dados honestos. Sejam X o numeroda face do primeiro dado e Y o numero da face do segundo dado.Defina M = maxX ,Y , o maximo entre os valores de X e Y , eencontre a sua funcao massa de probabilidade.
Solucao. Ora, ΩM = 1, 2, 3, 4, 5, 6 e
pM(1) = 136 ,
pM(2) = 336 ,
pM(3) = 536 ,
pM(1) = 736 ,
pM(1) = 936 ,
pM(6) = 1136 .
Mais adiante no curso estudaremos em detalhe vetores aleatoriose funcoes de vetores aleatorios. Ate la vamos nos restringir asoma de variaveis aleatorias (exemplo 43).
Independencia de variaveis aleatorias
As v.a.s X e Y sao independentes, se
P(X ∈ A ,Y ∈ B) = P(X ∈ A)P(Y ∈ B),
para todos A ,B ⊆ R tais que X ∈ A e Y ∈ B sao eventos.
Proposicao 2. Sejam X e Y v.a.s discretas assumindo valores emΩX e ΩY respectivamente. Entao X e Y sao independentes se esomente se (sse) para todo x ∈ ΩX e ΩY ,
pX ,Y (x, y) = P(X = x,Y = y) = P(X = x)P(Y = y).
A funcao pX ,Y (x, y) e chamada FMP conjunta de X e Y .
Prova: Exercıcio.
Exemplo 46: Em um lancamento de dois dados honestos, se X e aface do primeiro dado e Y a face do segundo, entao X + Y eX − Y nao sao independentes.
Solucao. Ora, basta verificar que
0 = P(X + Y = 12,X − Y = −1) ,136
536
= P(X + Y = 12)P(X − Y = 1).
Teorema 13. Funcoes de v.a.s independentes sao independentes.
Prova. Omitida.
Exemplo 47. Se X e Y sao v.a.s independentes, entao Xp e Yq
para todo p, q ∈ N. Tambem sao independentes eaX e ebY paratodo a, b ∈ R.
As v.a.s X1, . . .Xn sao independentes, se
P(X1 ∈ A1, . . . ,Xn ∈ An) = P(X1 ∈ A1) . . . P(Xn ∈ An),
para ∀ A1, . . . ,An ⊆ R t.q. X1 ∈ A1, . . . , Y ∈ B sao eventos.
As v.a.s X1, . . . ,Xn sao ditas i.i.d. se elas sao independentes eidenticamente distribuıdas (tem a mesma lei).
Exemplo 51. (Dependentes e identicamente distribuıdas) Denotepor X o numero de caras em n lacamentos independentes de umamoeda honesta, e seja Y o numero de coroas nesses mesmos nlancamentos. Entao X ∼ Bin(n, 1/2) e Y ∼ Bin(n, 1/2), mas X e Ysao claramente dependentes.
Exemplo 49. Sejam X1, . . . ,Xn i.i.d. Bernoulli de parametro p.Entao X =
∑ni=1 Xi ∼ Bin(n, p).
Exemplo 50. Prove que se X ∼ Bin(n, p) e X ∼ Bin(m, p), entao
X + Y ∼ Bin(n + m, p).
Prova: De fato, X + Y e a soma de m + n i.i.d. Bernoulli deparametro p.
Valor esperado (media, esperanca) para v.a.s discretasO valor esperado de uma v.a. X discreta e definido por
E(X) =∑
x∈ΩX
xP(X = x) =∑
x∈ΩX
xpX (x).
Exemplo 51. Se X ∼ Ber(p) entao E(X) = p. Em particular, se Ae um evento e X e a v.a. dada por
X(w) = 1A (w) =
1, se w ∈ A
0, caso contrario, (funcao indicadora)
entao E(X) = P(A).
Exemplo 52. Se X ∼ UnifD(C) com C = x1, . . . , xn, entao
E(X) =1n
n∑i=1
xi (media aritmetica).
Exemplo 53. Se X ∼ Bin(n, p) entao
E(X) =n∑
x=1
x(nx
)px(1 − p)n−x
= npn∑
x=1
(n − 1x − 1
)px−1(1 − p)n−x
= npn−1∑i=0
(n − 1
i
)p i(1 − p)n−1−i = np,
onde quarta igualdade usamos o Binomio de Newton.
Exemplo 54. Se X ∼ Poi(λ), entao
E(X) =n∑
x=1
xe−λλx
x!
= λ
n∑x=1
e−λλx−1
(x − 1)!= λ.
Teorema 14. (Linearidade da esperanca) Se X e Y sao v.a.s,entao para todos numeros reais a e b,
E(aX + bY) = aE(X) + bE(Y).
Antes de provar a linearidade vejamos alguns exemplos.
Exemplo 55. Se X ∼ Bin(n, p) entao X =∑n
i=1 Xi onde X1, . . . ,Xn
sao i.i.d. Bernoulli de parametro p. Pela linearidade da esperanca,
E(X) =n∑
i=1
E(Xi) = np.
Exemplo 56. Prove que X ∼ HGeo(b , v , n)⇒ E(X) = nb/(b + v).Prova: Seja Ii o indicador de que na i-esima extracao a bola ebranca para 1 ≤ i ≤ n, e note que X =
∑ni=1 Ii . Da linearidade da
esperanca e usando que Ii ∼ Ber(b/(b + v)) para todo i, temos
E(X) =n∑
i=1
E(Ii) = nb/(b + v).
Teorema 15. Sejam X e Y v.a.s discretas com a mesmadistribuicao. Entao E(X) = E(Y).
Prova. Para calcular a esperanca precisamos saber apenas daf.m.p que e igual para ambas v.a.s X e Y .
Exemplo 57. A recıproca do Teorema 15 e falsa. De fato, seja X(resp. Y) o numero de bolas brancas ao final de n extracoes comreposicao (resp. sem reposicao) de uma urna com b bolasbrancas e p bolas pretas. Entao X ∼ Bin(n, b/(b + v)),Y ∼ HGeo(b , v , n) e dos exemplos 55 e 56,
E(X) = n(
bb + v
)= E(Y).
Exemplo 58. Prove que X ∼ Geom(p)⇒ E(X) = 1/p.
Prova: Por um lado temos
E(X) =∞∑
x=1
xp(1 − p)x−1.
Por outro lado,∑∞
x=1(1 − p)x−1 = 1/p de forma que
ddp
∞∑x=0
(1 − p)x
= −∞∑
x=1
x(1 − p)x−1 = −1/p2.
Da equacao acima segue E(X) = 1/p.
Exemplo 59. (Colecionador de cupons) Um colecionador desejacompletar um album com n cupons distintos. Assuma que cadacupom que ele compra tem igual chance de ser um dos n cupons.Qual e o numero esperado de compras para completar o album?
Solucao: Seja N o numero de compras necessarias paracompletar o album. Queremos calcular E(N). Seja Ni o menornumero de compras ate se obter i cupons distintos e observe que
N = Nn = N1 + (N2 − N1) + (N3 − N3) + . . . + (Nn − Nn−1).
Por definicao, N1 = 1 e para 2 ≤ i ≤ n,
Ni − Ni−1 ∼ Geom((n − i + 1)/n).
Logo, pela linearidade da esperanca temos
E(N) = nn∑
i=1
1i≈ n log(n) se n e grande.
Exemplo 60. (Revisitando o problema de pareamento) A partir deuma urna com n bolas numeradas de 1, 2, . . . , n, selecionamos aoacaso e sem reposicao todas as bolas, uma de cada vez. Dizemosque ocorre um pareamento na i-esima selecao, se nessa selecaofor selecionada a bola de numero i. Qual e o numero medio depareamentos?
Solucao. Seja X o numero de pareamentos. Queremos calcularE(X). Note que X nao tem distribuicao Binomial e nem distribuicaoHipergeometrica (por que?) Note tambem que X = I1 + . . . In onde
Ij =
1, se ocorre um pareamento na j-esima selecao
0, caso contrario.
Como E(Ij) = P(Ij) = 1/n, segue da lineariade da esperanca queE(X) = n(1/n) = 1.
Exemplo 62. Qual e o numero esperado de maximos locais deuma permutacao aleatoria de 1, . . . , n, sendo todas aspermutacoes equiprovaveis?
Uma permutacao a1, a2, . . . , an de 1, . . . , n tem um maximo localna coordenada j, se
a1 > a2, para j = 1
aj > maxaj−1, aj+1, para 2 ≤ j ≤ n − 1
an−1 < an, para j = n.
Solucao: Seja Ij o indicador de que a coordenada j e uma maximolocal. Queremos calcular E(
∑j=1 Ij). Pela linearidade e “simetria”:
E(∑j=1
Ij) =n∑
j=1
E(Ij) =(n − 2)
3+
22
=n + 1
3.
Teorema 16. (Esperanca via funcao de sobrevivencia) Seja Xuma v.a. assumindo valores inteiros nao negativos. SeGX (x) = P(X > x) entao
E(X) =∞∑
n=0
G(n).
A funcao G e chamada funcao de sobrevivencia de X . Note se FX
e a FDA de X , entao GX (x) = 1 − FX (x).
Prova. Faremos a prova assumindo que X e limitada, i.e, quandoexiste um inteiro nao negativo b tal que X ≤ b . Nesse caso, noteque X = I1 + . . . + Ib onde In = IX≥n para 1 ≤ n ≤ b . Dalinearidade da esperanca,
E(X) =b∑
n=1
E(In) =b∑
n=1
P(X ≥ n) =b−1∑n=0
G(n).
Prova da linearidade da esperanca (caso discreto)
Queremos provar E(X + Y) = E(X) + E(Y) para v.a.s discretas.Note que
E(X) =∑
x∈ΩX
xP(X = x) =∑w∈Ω
X(w)P(w),
e de forma similar
E(Y) =∑
x∈ΩY
yP(X = y) =∑w∈Ω
Y(w)P(w).
Portanto,
E(X + Y) =∑w∈Ω
(X(w) + Y(w))P(w)
= E(X) + E(Y).
A prova que E(aX) = aE(X) e imediata, se a e uma constante.
Exemplo 63. (Paradoxo de Sao Petersburgo) Suponha que umamoeda honesta e jogada repetidamente ate que a primeira caraapareca. O jogo paga 2n reais se a primeira cara aparecer nan-esima jogada. Qual o lucro medio ao jogar esse jogo? Qual opreco que um indivıduo pagaria para entrar neste jogo?
Solucao: Seja X o lucro obtido ao jogar esse jogo. Entao X = 2N ,
onde N e o numero total de vezes que a moeda honesta e jogada.Note que N ∼ Geom(1/2) de forma que
E(X) =∞∑
i=1
2i 12i
= ∞.
Observe que E(X) = E(2N) = ∞ , 4 = 2E(N)!
Mensagem: Em geral E(g(X)) , g(E(X)) para g nao-linear!
Como calcular E(g(X)) quando X e uma v.a. discreta?
Teorema 17: Se g : R→ R e X e v.a. discreta, entao
E(g(X)) =∑
x∈ΩX
g(x)P(X = x).
Prova: De similar ao que fizemos na prova da linearidade daesperanca, temos
E(g(X)) =∑w∈Ω
g(X(w))P(w)
=∑
x∈ΩX
g(x)∑
w∈Ω:X(w)=x
P(w) =∑
x∈ΩX
g(x)P(X = x).
Variancia e Desvio Padrao
Seja X uma v.a. A Variancia de X e definida como
Var(X) = E((X − E(X))2
).
A variancia e uma medida de dispersao da v.a. X . Note que
Var(X) = E(X2) − (E(X))2 .
Em particular, se E(X) < ∞, entao E(X2) ≥ (E(X))2.
O Desvio padrao de X e definido por
DP(X) =√
Var(X).
O desvio padrao e uma medida de dispersao com a mesmaunidade que v.a. X (ao contrario da variancia cuja unidade e oquadrado da unidade da v.a. X ).
Exemplo 64. (Variancia da Binomial) Se X ∼ Bin(n, p), entao
Var(X) = np(1 − p).
Solucao: Como X =∑n
i=1 Xi com X1, . . . ,Xn i.i.d. Bernoulli deparametro p, temos X2
i = Xi para todo i e assim
E(X2) = E
n∑i=1
Xi +n∑
i,j=1:i,j
XiXj
.Da linearidade da esperanca segue que
E(X2) = nE(X1) + n(n − 1)E(X1X2) = np + n(n − 1)E(X1X2).
Usando a independencia de X1 e X2, temos
E(X1X2) = P(X1 = 1,X2 = 1) = P(X1 = 1)P(X2 = 1) = p2,
de forma que
Var(X) = E(X2) − (E(X))2 = np − np2 = np(1 − p).
Exemplo 65. (Variancia da Poisson) Se X ∼ Poi(λ), entao
Var(X) = λ.
Solucao: Precisamos calcular E(X2), pois ja vimos que E(X) = λ.
Para isso, derive duas vezes a expansao de Taylor de eλ paraobter
∞∑x=1
xλx
x!= λeλ e
∞∑x=1
x2λx
x!= (λ + 1)λeλ.
Disso segue que,
E(X2) = e−λ∞∑
x=1
x2λx
x!= λ2 + λ,
e daı temos
Var(X) = E(X2) − (E(X))2 = λ2 + λ − λ2 = λ.
Metodo probabilıstico
O metodo probabilısitico e uma tecnica para provar a existencia deobjetos com determinadas propriedades de interesse.
Se basea em duas ideas chaves:I Princıpio da possibilidade: Seja A o evento que um objeto
escolhido aleatoriamente da colecao tem uma certapropriedade. Se P(A) > 0, entao existe um objeto com apropriedade.
I Princıpio do bom escore: Seja X o escore de um objetoescolhido aleatoriamente. Se E(X) ≥ c, entao existe umobjeto com escore de pelo menos c.
O metodo probabilıstico nao nos diz como encontrar um objetocom a propriedade desejada. Ele garante apenas existencia deum tal objeto.
Exemplo 66. Um grupo de 100 pessoas sao delegadas para 15comites de tamanho 20, de modo que cada pessoa sirva em 3comites. Mostre que existem 2 comites que tenham pelo menos 3pesssoas em comum.
Solucao. Escolha dois comites uniformemente ao acaso, e denoteX o numero de pessoas em ambos comites. Note que podemosescrever X = I1 + . . . + I100 onde
Ij =
1, se a j-esima pessoa esta em ambos comites
0, caso contrario
Por simetria, todos os indicadores tem o mesmo valor esperado eassim E(X) = 100E(I1) = P(I1 = 1). Como
P(I1) =
(32
)(120
)(152
) = 1/35 (por que?) temos que E(X) = 100/35.
Do princıpio do bom escore existem ao menos dois comites compelo menos 100/35 ≈ 2.8 pessoas em comum.
Como o numero de pessoas em comum em dois comites deve serum inteiro nao negativo, podemos concluir que existem ao menosdois comites com pelo menos 3 pessoas em comum.
Algumas propriedades da variancia
Proposicao 1. Seja X uma v.a. Entao para constantes a, b ∈ R:
1. Var(aX) = a2Var(X)
2. Var(X + b) = Var(X).
3. Var(X) = 0 sse P(X = a) = 1 para algum a ∈ R.
Prova: Definicao da variancia + linearidade da esperanca.