Upload
internet
View
108
Download
7
Embed Size (px)
Citation preview
Redes Bayesianas
Conhecimento com Incerteza
Tópicos
Introdução
Noções de Probabilidade
Redes Bayesianas
Aplicações
Conclusões
Bibliografia
Sistema de Diagnóstico Odontológico
Regra de diagnóstico d sintoma (d,dor de dente) doença (d,cárie) ... a doença (causa do sintoma) pode ser outra...
Regra causal d doença (d,cárie) sintoma (d,dor de dente) ...nem sempre a doença provoca o sintoma...
A conexão entre antecedente e conseqüente não é uma implicação lógica em nenhuma direção
Conhecimento com Incerteza
Agentes baseados em Lógica de Primeira Ordem enfrentam dificuldades em situações onde: o agente não tem acesso a todo o
ambiente ambiente inacessível
o agente tem uma compreensão incompleta ou incorreta do ambiente
Conhecimento com Incerteza
A LPO falha no domínio de diagnóstico médico devido a: “preguiça”
existem causas ou conseqüências demais a considerar
ignorância teórica e prática não existe uma teoria completa para o domínio,
nem podemos fazer todos os testes necessários para o diagnóstico perfeito
Nesses casos, o conhecimento do agente pode apenas prover um grau de crença nas sentenças relevantes P(Cárie/Dor de Dente) = 0.6
Teoria da Probabilidade
Associa às sentenças um grau de crença numérico entre 0 e 1 P(Cárie/Dor de Dente) = 0,6 O agente acredita que o paciente tem cárie
(dado que ele tem dor) com 60% de certeza
Contudo, cada sentença ou é verdadeira ou é falsa Engajamento epistemológico
Ou o paciente tem cárie ou não tem Isso não é fuzzy!
Grau de crença (probabilidade)
A priori (incondicional): calculada antes de o agente receber
percepções Ex. P(cárie= true) = P(cárie) = 0.5
Condicional: calculada de acordo com as evidências
disponíveis evidências:
percepções que o agente recebeu até agora Exemplo:
P(cárie|dor de dente)= 0.8 P(cárie|~dor de dente)= 0.3
Probabilidade Condicional
Probabilidade condicional (a posteriori) de A dado que B ocorreu é definida por: P(A|B) = P(A B) , quando P(B) > 0
P(B)
Probabilidade condicional: possibilita inferência sobre uma proposição
desconhecida A dada a evidência B
P(A/B) = P(B/A)P(A)
P(B)
P(A/B,E) = P(B/A,E)P(A/E)
P(B/E)
Regra de Bayes
Equação para o Teorema de Bayes :
Pode-se estender esta expressão para o caso em que a dependência condicional está associada a mais de uma evidência previa:
Aplicação da Regra de Bayes: Diagnóstico Médico
• Seja
M=doença meningite
S= rigidez no pescoço
• Um Doutor sabe:
P(S/M)=0.5
P(M)=1/50000
P(S)=1/20
P(M/S)=P(S/M)P(M)
P(S)
=0,5*(1/50000)=0,002
1/20
•A probabilidade de uma pessoa ter meningite dado que ela está com rigidez no pescoço é 0,02% ou ainda 1 em 5000.
Probabilidade Condicional e Independência
Independência: P(A|B) = P(A) Exemplo: A = dor de dente e B=úlcera
Úlcera não causa dor de dente
Eventos mutuamente excludentes: P(A B) = 0 Experimento: Lançamento de um dado
A = a face do dado é ímpar e B = a face do dado é par
Independência condicional Sejam X e Y independentes dado Z => P(X|Y,Z) = P(X|Z) Independência condicional é crucial para o
funcionamento eficaz de sistemas probabilísticos
Independência Condicional
P(X|Y,Z) = P(X|Z) Isso quer dizer que, se o objetivo é saber a
probabilidade de X, então tanto faz o valor de Y se você já sabe o valor de Z
Exemplo: Trovão é condicionalmente independente de Chuva, dado Relâmpago P(Trovão/ Chuva, Relâmpago) = P(Trovão/
Relâmpago)
Distribuição de Probabilidade Conjunta
Sejam Y1, Y2,...Yn um conjunto de variáveis
Evento atômico: uma especificação completa dos estados do
domínio Y1= y1, Y2 = y2,...., Yn= yn
A distribuição de probabilidade conjunta P(Y1,Y2,...,Yn) atribui probabilidades a todos os possíveis eventos atômicos
Exemplo: Probabilidade Conjunta
cárie
cárie
dor de dente dor de dente
0.04
0.01
0.06
0.89
P(cárie ^ dor de dente)=?
P(cárie)=?
P(dor de dente)=?
P(cárie/dor de dente)=?
Teorema da Multiplicação de Probabilidades
Esse resultado permite calcular a probabilidade de ocorrência simultânea de vários eventos a partir das probabilidades condicionais.
P(y1^...yn) = P(yn / y1^...yn-1) ... P(y2 / y1) P(y1)
P(y1^...yn) = P(yn / y1^...yn-1) ... P(y1^...yn-
1)
Redes Bayesianas
Representação do Conhecimento com Incerteza
Redes Bayesianas
Representa 3 tipos de conhecimento do domínio: Relações de independência entre variáveis
aleatórias Probabilidades a priori de algumas
variáveis Probabilidades condicionais entre variáveis
dependentes
Permite calcular eficientemente: Probabilidades a posteriori de qualquer
variável aleatória (inferência)
Redes Bayesianas
Conhecimento representado: Pode ser aprendido a partir de
exemplos Reutilizando parte dos mecanismos
de raciocínio
Semântica da Rede Bayesiana
Representação da distribuição de Probabilidade Conjunta das variáveis de interesse: P(y1^...yn)
Redes Bayesianas levam em consideração a independência condicional entre subconjuntos de variáveis
Estrutura das Redes Bayesianas
Uma Rede Bayesiana é um grafo acíclico e dirigido onde: Cada nó da rede representa uma variável
aleatória Um conjunto de ligações ou arcos dirigidos
conectam pares de nós cada nó recebe arcos dos nós que tem influência
direta sobre ele (nós pais). Cada nó possui uma tabela de probabilidade
condicional associada que quantifica os efeitos que os pais têm sobre ele
Redes Bayesianas
Tempestade Ônibus de Turismo
Fogo no Acampamento
Trovão Fogo na floresta
Raio
T,O T,O T, O T, O
FA 0.4 0.1 0.8 0.2
FA 0.6 0.9 0.2 0.8
Fogo no Acampamento
Distribuição de Probabilidade:P(FA/T,O)
Redes Bayesianas
Representa a distribuição de probabilidade conjunta entre todas as variáveis: P(y1^...^yn)
Exemplo: P(Tempestade, , Fogo na Floresta)? Exemplo: P(Classe=C1 ^ Atrib1=10 ^ Atrib2=Yes)?
Cálculo da probabilidade conjunta:
Onde Predecessores(Yi) significa predecessores imediatos de Yi no grafo
n
1iiin1 ))Y(sedecessorePr/y(P)y,,y(P
Redes Bayesianas: Cálculo da Probabilidade
Conjunta Lembrem-se do teorema da multiplicação de
probabilidades
P(y1^...yn) = P(yn / y1^...yn-1) ... P(y2 / y1) P(y1)
P(yn / Predecessores(Yn)) P(y2 / Predecessores(Y2)
n
1iiin1 ))Y(sedecessorePr/y(P)y,,y(P
Exemplo Alarme (AIMA)
Roubo Terremoto
Alarme
JohnCalls MaryCalls
P(T)
0,002
P(R)
0,001
R T P(A)
T T 0,95 T F 0,94 F T 0,29 F F 0,001
A P(J )
T 0,90 F 0,05
A P(M)
T 0,70 F 0,01
Calcular a probabilidade do evento que o alarme toca mas não houve assalto nem terremoto e que João e Maria telefonaram.
P(J M A ~R ~T)
= P(J|A) P(M|A) P(A|~R ~T )P(~R)P(~T)
= 0.9 x 0.7 x 0.001 x 0.999 x 0.998
= 0.00062 ou 0.062 %
Exemplo Alarme (AIMA)
Engenharia do conhecimentopara Redes Bayesianas
1. Escolher um conjunto de variáveis relevantes que descrevam o domínio
2. Ordem de inclusão dos nós na rede (a). causas como “raízes” da rede (b). variáveis que elas influenciam (c). folhas, que não influenciam diretamente nenhuma outra variável.
3. Enquanto houver variáveis a representar:
(a). escolher uma variável Xi e adicionar um nó para ela na rede
(b). estabelecer Pais(Xi) dentre os nós que já estão na rede, satisfazendo a propriedade de dependência condicional
(c). definir a tabela de probabilidade condicional para Xi
Exemplo Alarme (AIMA)
Roubo Terremoto
Alarme
JohnCalls MaryCalls
P(T)
0,002P(R)
0,001
R T P(A)
T T 0,95 T F 0,94 F T 0,29 F F 0,001
A P(J )
T 0,90 F 0,05
A P(M)
T 0,70 F 0,01
Ordem: R T A J M
Exemplo de Rede Bayesiana Não Puramente Causal
Vamos usar o exemplo do alarme com a seguinte ordem de inserção dos nós:
MaryCalls, JohnCalls, Alarme, Roubo e Terremoto.
Roubo
Terremoto
Alarme
JohnCalls
MaryCalls
Problemas: A figura possui duas conexões a mais julgamento não natural e difícil das probabilidades
Tendo uma rede puramente causal, teríamos um número menor de conexões
Exemplo de Rede Bayesiana Não Puramente Causal
Exercício
Construa uma rede para o problema abaixo. Eu quero prever se minha esposa está em casa
antes de eu abrir a porta. Eu sei que minha esposa liga a luz quando chega em casa, mas as vezes ela também liga ao sair se ela for retornar com alguma visita. Quando não tem ninguém em casa, ela solta o cachorro no quintal, mas às vezes ela solta o cachorro quando ele está molhado. Quando o cachorro está solto, consigo ouvir o seu latido da rua mas as vezes o confundo com o cachorro da vizinha.
Tipos de Inferência em Redes Bayesianas
Causal (da causa para o efeito)P(JohnCalls/Roubo) = 0,86
Roubo Alarme JohnCalls
Evidência Query
Diagnóstico (do efeito para a causa) P(Roubo/JohnCalls) = 0,016
JohnCalls Alarme Roubo
Evidência Query
Intercausal (entre causas com um efeito comum)P(Roubo/Alarme) = 0,376P(Roubo/Alarme Terremoto) = 0,373
Mista (combinando duas ou mais das de cima) P(Alarme/JohnCalls Terremoto) = 0,03 Este é um uso simultâneo de inferência causal e
diagnóstico.
Roubo Alarme Terremoto
Query Evidência
JohnCalls Alarme Terremoto
Evidência EvidênciaQuery
Tipos de Inferência em Redes Bayesianas
Evidência
Aplicações de Redes Bayesianas
PATHFINDER: diagnóstico de doenças que atacam os nodos linfáticos. (Russel&Norvig 1995) PAINULIM: diagnóstico de doenças neuro-musculares: http://snowhite.cis.uoguelph.ca/faculty_info/yxiang/research.htmlTutores inteligentes: www.pitt.edu/~vanlehn/andes.html
Aplicações de Redes Bayesianas
Mais aplicações: http://excalibur.brc.uconn.edu/~baynet/researchApps.htm Análise de proteínas Modelagem de Agentes Inteligentes Detecção de fraudes na indústria Robótica
Conclusões
Possibilidade de trabalhar com domínios onde não há informação suficiente Raciocínio probabilístico trata o grau de incerteza associado à maioria dos domínios Combina conhecimento a priori com dados observados O impacto do conhecimento a priori (quando correto) é a redução da amostra de dados necessários
Conclusões
Redes Bayesianas são usadas em muitas aplicações do mundo real
Área de pesquisa ativa Engenharia de conhecimento Complexidade dos algoritmos para
inferência Aprendizado
Bibliografia
Russel, S, & Norvig, P. (1995). Artificial Intelligence: a Modern Approach (AIMA) Prentice-Hall. Pages 436-458, 588-593
Mitchell, T. & (1997): Machine Learning, McGraw-Hill. Cap.6
Fayyad et al. (1996): Advances in knowledge discovery and data mining, AAAI Press/MIT Press. Cap.11
Pearl, J. (1988) Probabilistic Reasoning in Inteligent Systems
Software
http://www.ai.mit.edu/~murphyk/Bayes/bnsoft.html