of 232 /232
ANALISI DEI DATI 2012-13 c L. Finesso (2012) Lezione 1 (Luned` ı, 4 marzo 2013, ore 10:30-12:15) 1.1 La probabilit` a per l’Ingegneria dell’Informazione Iniziamo con la discussione qualitativa di qualche problema pratico che richiede il ricorso a metodi probabilistici. Alcuni di questi esempi verranno ripresi mano a mano che si disporr` a degli strumenti tecnici per un’analisi pi` u approfondita. (a.) Compressione dati senza errore (zip/unzip sul PC) Si tratta di mappare (codificare), in modo invertibile, una sequenza di dati (ad esempio un file di testo o un file eseguibile) in una sequenza di bit di lunghezza minima. La parola chiave qui ` e invertibile : ad esempio la compressione di file audio/video in formato .mp3 o .mp4 non ` e invertibile. L’algoritmo impiegato da ZIP produce invece una codifica inver- tibile. Apparentemente il problema ` e completamente deterministico, ma il limite teorico di compressibilit` a di una data sequenza di dati dipende da una quantit` a probabilistica, l’entropia della sorgente dei dati. (b.) Analisi di affidabilit` a Componenti di affidabilit` a nota vengono assemblati per produrre sistemi. Qual ` e l’af- fidabilit` a complessiva del sistema? Dove conviene introdurre sistemi di backup per garan- tire una fissata soglia di affidabilit` a? Oppure, di maggior interesse per l’Informatica, si consideri la piccola rete di calcolatori rappresentata dal grafo qui sotto. C D B E A F l 5 0.9 l 4 0.8 l 6 0.7 l 7 0.3 l 1 0.9 l 3 0.95 l 2 0.75 I vertici sono i calcolatori, gli archi le connessioni fisiche tra calcolatori. Ogni arco ha due etichette: il nome e la percentuale di uptime della connessione fisica: potete pensare che questo dato sia stato ricavato osservando la rete nelle ultime 24 ore o nell’ultimo mese ecc. Si vuole calcolare la percentuale di uptime della connessione tra A e B. Supponete poi di riuscire a migliorare la connessione tra D ed E. Di quanto migliorer` a la connessione tra A e B? A queste domande, e ad altre simili, sapremo presto dare una risposta utilizzando semplici strumenti probabilistici. (c.) Complessit` a degli algoritmi - worst case analysis ed analisi in media Con la worst case analysis si valuta un parametro di performance dell’algoritmo, ad esempio il tempo di esecuzione, nel caso pi` u sfavorevole. Consideriamo ad esempio un algoritmo di ordinamento. Supponete di dover ordinare alfabeticamente pacchetti di 1000 nomi. I possibili ordini di arrivo dei dati sono 1000! e tipicamente solo uno di questi ` e il worst case per l’algoritmo di ordinamento che state impiegando. ` E molto pessimistico 1

Calcolo delle Probabilità

Embed Size (px)

DESCRIPTION

Teoria di calcolo delle probabilità

Text of Calcolo delle Probabilità

  • ANALISIDEIDATI2012-13

    c L.Finesso

    (2012)

    Lezione 1 (Luned`, 4 marzo 2013, ore 10:30-12:15)

    1.1 La probabilita` per lIngegneria dellInformazione

    Iniziamo con la discussione qualitativa di qualche problema pratico che richiede il ricorsoa metodi probabilistici. Alcuni di questi esempi verranno ripresi mano a mano che sidisporra` degli strumenti tecnici per unanalisi piu` approfondita.

    (a.) Compressione dati senza errore (zip/unzip sul PC)

    Si tratta di mappare (codificare), in modo invertibile, una sequenza di dati (ad esempioun file di testo o un file eseguibile) in una sequenza di bit di lunghezza minima. La parolachiave qui e` invertibile: ad esempio la compressione di file audio/video in formato .mp3 o.mp4 non e` invertibile. Lalgoritmo impiegato da ZIP produce invece una codifica inver-tibile. Apparentemente il problema e` completamente deterministico, ma il limite teoricodi compressibilita` di una data sequenza di dati dipende da una quantita` probabilistica,lentropia della sorgente dei dati.

    (b.) Analisi di affidabilita`

    Componenti di affidabilita` nota vengono assemblati per produrre sistemi. Qual e` laf-fidabilita` complessiva del sistema? Dove conviene introdurre sistemi di backup per garan-tire una fissata soglia di affidabilita`? Oppure, di maggior interesse per lInformatica, siconsideri la piccola rete di calcolatori rappresentata dal grafo qui sotto.

    C

    D B

    EA

    F

    l5

    0.9

    l4

    0.8

    l6

    0.7

    l7

    0.3l1

    0.9

    l3

    0.95

    l2

    0.75

    I vertici sono i calcolatori, gli archi le connessioni fisiche tra calcolatori. Ogni arco ha dueetichette: il nome e la percentuale di uptime della connessione fisica: potete pensare chequesto dato sia stato ricavato osservando la rete nelle ultime 24 ore o nellultimo mese ecc.Si vuole calcolare la percentuale di uptime della connessione tra A e B. Supponete poi diriuscire a migliorare la connessione tra D ed E. Di quanto migliorera` la connessione traA e B? A queste domande, e ad altre simili, sapremo presto dare una risposta utilizzandosemplici strumenti probabilistici.

    (c.) Complessita` degli algoritmi - worst case analysis ed analisi in media

    Con la worst case analysis si valuta un parametro di performance dellalgoritmo, adesempio il tempo di esecuzione, nel caso piu` sfavorevole. Consideriamo ad esempio unalgoritmo di ordinamento. Supponete di dover ordinare alfabeticamente pacchetti di 1000nomi. I possibili ordini di arrivo dei dati sono 1000! e tipicamente solo uno di questi e`il worst case per lalgoritmo di ordinamento che state impiegando. E` molto pessimistico

    1

  • basare la valutazione dellalgoritmo sullanalisi della sua performance nel worst case. Seutilizzate lalgoritmo centinaia di volte al giorno, su pacchetti di 1000 dati sempre diversi,vi interessa di piu` il suo tempo di esecuzione medio. Lo studio del comportamento medioe` un tipico argomento di teoria della probabilita`.

    (d.) Integrazione numerica con il metodo di Monte Carlo

    Si supponga di dover calcolare numericamente

    I :=

    10f(x) dx

    per una complicata funzione f(x), continua nellintervallo [0, 1], la cui antiderivata none` nota. Il metodo classico e` lapprossimazione di Riemann che consiste nel suddividerelintervallo [0, 1] in n sottointervalli di identica lunghezza := 1n , allora 1

    0f(x) dx

    nk=1

    f(k) .

    Lapprossimazione e` tanto migliore quanto piu` grande e` n, come garantito dalla teoriadellintegrale di Riemann. Un metodo alternativo (metodo di Monte Carlo) consiste nelloscegliere n punti a caso nellintervallo [0, 1], diciamoli x1, x2, . . . xn, e quindi calcolare 1

    0f(x) dx 1

    n

    nk=1

    f(xk).

    Nella figura qui sotto i due metodi sono messi a confronto.

    6

    -

    f(x)

    2 3 1

    x

    6

    -

    f(x)

    x 1x3 x1 x2x

    f(x)

    Il razionale per il metodo di Monte Carlo e` il teorema della media integrale. Se f(x)e` una funzione continua sullintervallo [0, 1] allora esiste x [0, 1] tale che 10 f(x) dx =f(x). Scegliendo i punti x1, x2, . . . xn a caso alcuni f(xk) saranno minori di f(x), altrimaggiori; se n e` grande, calcolando la media aritmetica degli f(xk) ci aspettiamo quindidi ottenere un valore vicino ad f(x). Un celebre teorema della teoria della probabilita`,la legge dei grandi numeri, giustifica in modo rigoroso questo ragionamento intuitivo. Macome si sceglie un punto a caso, diciamo x1, nellintervallo [0, 1]? Lanciamo ripetutamenteuna moneta. Scriviamo il punto decimale e poi accodiamo un 1 ogni volta che esce Testa,ed uno 0 ogni volta che esce Croce. I lanci successivi produrranno in questo modo unasequenza binaria che interpreteremo come rappresentazione, in base 2, del numero realex1 [0, 1]. Ad esempio la sequenza CCTTCT . . . produce il punto

    x1 = .001101 . . .

    2

  • Allaumentare del numero di lanci aumenta la precisione di x1. Con n lanci si ottiene x1con precisione 12n .

    Con il metodo di Monte Carlo si calcola un integrale, problema squisitamente de-terministico, facendo ricorso al fenomeno casuale per eccellenza: i lanci ripetuti di unamoneta.

    1.2 La teoria assiomatica della probabilita`

    La teoria della probabilita` e` uno dei possibili strumenti matematici per modellare esper-imenti il cui esito e` incerto. E` in realta` lo strumento che ha avuto, e continua ad avere,maggior successo nelle applicazioni. Lo sviluppo matematico della teoria della probabilita`procede per via assiomatica. Una volta definite le nozioni di base si derivano Lemmi,Proposizioni, e Teoremi, si introducono nuove definizioni e cos` via, senza bisogno di fareriferimento a monete, giochi di carte, esperimenti dallesito incerto ecc. Poiche questo e`un corso di base pero`, per motivare lo studio e per sviluppare lintuizione, cercheremodi presentare le idee astratte e dare contemporaneamente la loro interpretazione in varicontesti applicativi. Lo svantaggio di questo approccio e` che il livello matematico sara`troppo basso per chi cerca una trattazione completa, rigorosa e concisa e troppo alto perchi invece vorrebbe solo imparare a risolvere semplici problemi applicativi.

    Il piu` importante oggetto matematico in teoria della probabilita` e` lo spazio di proba-bilita`. Molto allingrosso, vedremo successivamente i dettagli, uno spazio di probabilita` Se` una terna

    S = (,F , P ),dove e` un insieme (lo spazio campionario) , F una famiglia di sottoinsiemi di (la -algebra degli eventi misurabili) e P una mappa P : F [0, 1], (la misura di probabilita`).In questa lezione ci concentriamo sul primo elemento della terna, lo spazio campionario.

    1.3 Lo spazio campionario

    Nella teoria astratta e` un insieme, detto spazio campionario, senza altre specificazioni.Quando la teoria della probabilita` viene applicata a problemi concreti gli elementi di rappresentano i possibili risultati dinteresse di un esperimento aleatorio. La natura di puo` quindi essere estremamente varia a seconda dello specifico esperimento. Vediamoalcuni esempi.

    (1.) Esperimento: lancio una moneta. Osservazione: faccia uscita

    := {C, T }

    molto spesso si preferisce identificare C = 0, T = 1.

    (2.) Esperimento: lancio una moneta 3 volte. Osservazione: numero di Teste uscite

    := { 0, 1, 2, 3 }

    (2b.) Esperimento: lancio una moneta 3 volte. Osservazione: sequenza delle facce uscite

    := {TTT, TTC, TCT, TCC,CTT,CTC,CCT,CCC }

    (3.) Esperimento: lancio una moneta ripetutamente. Osservazione: numero del lancioin cui si verifica la prima Testa

    = N := { 1, 2, 3, . . . }

    3

  • (4.) Esperimento: misurazione della durata di un hard disk. Osservazione: intervallo ditempo

    = R+ := [0,)Nota. Introducendo unapprossimazione si potrebbe misurare la durata in numero interodi ore. Il motivo per cui non conviene farlo e` che il tempo, come la lunghezza e la massaper nominarne tre, e` una grandezza fisica che, almeno a livello macroscopico, si modellapiu` semplicemente usando un numero reale. La legge di Newton F = ma e` unequazionedifferenziale, non unequazione alle differenze!

    (5.) Esperimento: registrazione della temperatura al suolo a Porta Portello. Osser-vazione: il tracciato termografico nellarco di 24 ore.

    := {f : [0, 24] R; f e` continua }

    In questo esempio gli elementi di sono funzioni continue. Ogni funzione continuarappresenta un possibile tracciato osservato.

    (6.) Esperimento: registrazione di temperatura e pressione al suolo a Porta Portello.Osservazione: il tracciato termografico e barometrico nellarco di 24 ore.

    := {f : [0, 24] R2; f e` continua }

    In questo caso ogni osservazione e` una funzione a valori vettoriali, in R2.(7.) Esperimento: studio socio-sanitario. Osservazione: sesso, eta`, peso, degli individuipartecipanti

    := {F,M} N R+In questo caso gli elementi sono vettori a tre componenti disomogenee, la prima a valoriin un insieme a due valori, la seconda a valori in N, la terza a valori reali positivi.

    Questo e` solo un modesto campionario di casi molto semplici. Una differenza fondamen-tale tra i diversi spazi campionari e` la cardinalita`. In alcuni esempi, (1.), (2.), (2b.), lacardinalita` e` finita, in altri, (3.), infinita numerabile cioe` pari alla cardinalita` di N, inaltri, (4.), (7.), infinita non numerabile cioe` pari alla cardinalita` di R, in altri, (5.), (6.),superiore alla cardinalita` di R.

    Nella prima parte del corso ci concentreremo su spazi campionari finiti ed infiniti numer-abili. Nella seconda parte tratteremo gli spazi campionari con la cardinalita` di R. Nontratteremo esempi del tipo (5.), (6.).

    E` interessante confrontare gli esempi (2.) e (2b.). Si noti che sullo spazio campionario di(2b.) si possono rappresentare i risultati dinteresse dellesempio (2.). Se so che e` uscitala sequenza TTC posso dire che il numero di Teste e` 2. Quindi lo spazio campionario cherappresenta i possibili risultati di un esperimento e` inerentemente non unico. E` importanteprendere sempre uno spazio campionario sufficientemente ricco da contenere tutti i risultatidinteresse. Se poi contiene piu` elementi di quanti strettamente necessari si puo` gestirela situazione, mentre il caso opposto porta a problemi. Non si possono rappresentare irisultati dinteresse del caso (2b.) usando lo spazio campionario di (2.)

    1.4 Terminologia relativa allo spazio campionario

    La terminologia probabilistica e` ormai consolidata. Linsieme e` detto spazio campionario(sample space). Gli elementi sono detti esiti (outcomes) o eventi elementari, isottoinsiemi di sono detti eventi (events).1 Nelle applicazioni gli elementi dello spaziocampionario rappresentano i possibili esiti di un esperimento i cui risultati sono incerti.

    1In realta`, come vedremo, sono detti eventi solo i sottoinsiemi di che appartengono a F .

    4

  • Se lesecuzione dellesperimento produce il risultato , si dice che si e` verificato e,per ogni E tale che E, si dice che si e` verificato E.Esempio 1. Con lusuale convenzione, 0=croce, 1=testa, sia

    := { 000, 001, 010, 011, 100, 101, 110, 111 }

    lo spazio campionario che rappresenta i possibili risultati di tre lanci di una moneta.Esempi di eventi di sono i sottoinsiemi di esiti

    Ek := escono k teste su 3 lanci, k = 0, 1, 2, 3.

    Ad esempio E0 = {000}, mentre E1 = {001, 010, 100} ecc. Se si esegue lesperimentoe, lanciando 3 volte la moneta, escono le facce 001 diremo che = 001 si e` verificato.Analogamente diremo che si e` verificato E1, mentre non si e` verificato E2.

    1.5 Operazioni elementari sugli eventi

    Quando si disponga di certi eventi E, F , G ecc. e` naturale utilizzzare gli eventi dati performare nuovi eventi dinteresse applicando le usuali operazioni insiemistiche sugli eventidati. Qui per usuali operazioni, di cui si considerano note la definizioni, si intendonolunione, lintersezione, e la complementazione2 . Utilizzando la terminologia probabilisticaappena introdotta, se E ed F sono eventi,

    Ec = si verifica se e solo se non si verifica E

    E F = si verifica se e solo se si verificano E o FE F = si verifica se e solo se si verificano E e F

    Esempio 2. Riprendendo lEsempio 1, si considerino i seguenti eventi che sono descrittisia verbalmente che utilizzando operazioni insiemistiche sugli eventi Ek.

    E := si verifica almeno 1 testa = Ec0

    F := si verifica al piu` 1 testa = E0 E1G := si verifica almeno 1 testa e almeno 1 croce = E1 E2

    Due eventi speciali, banali e onnipresenti, sono e detti, per ovvie ragioni, eventocerto ed impossibile rispettivamente. Tornando allEsempio 2,

    si verificano almeno 2 teste e 2 croci = ,

    mentresi verifica almeno 1 testa o una croce = .

    2Ha senso parlare di complemento di un evento poiche tutti gli eventi sono sottoinsiemi di .

    5

  • Le proprieta` di complementazione, unione ed intersezione si suppongono note. A titolodi promemoria, non necessariamente esaustivo, per ogni E, F , G ecc. eventi,

    E F = F EE F = F GE E = E E = EE = , E = EE = E, E =

    E (F G) = (E F ) GE (F G) = (E F ) GE (F G) = (E F ) (E G)E (F G) = (E F ) (E G)

    (E F )c = Ec F c(E F )c = Ec F c

    6

  • Attenzione. Si tenga ben presente che la scrittura E F G e` priva di senso, poichemancando le parentesi non e` chiaro in che ordine si debbano effettuare le operazioni e, ingenerale (E F )G e E (F G) sono diversi [Micro-esercizio. Costruire esempi dellul-tima affermazione.] Morale: ogni volta che si scrive una espressione che contiene unioni,intersezioni e complementazioni si deve specificare univocamente lordine di esecuzionedelle operazioni con abbondante uso di parentesi.

    1.6 Decomposizioni di eventi in unioni di eventi mutuamente esclusivi

    (a.) Partizione di

    Una partizione di e` una famiglia {En}n1 di eventi mutuamente esclusivi, la cui unionee` , ovvero tale che

    Ei Ej = , i 6= j =

    i

    Ei

    Esempi.

    (i.) Dato un evento E, una semplice partizione di e` {E,Ec}. In effetti E Ec = eE Ec = .(ii.) Si consideri come nellEsempio 1. E` evidente che gli eventi Ek, per k = 0, 1, 2, 3,formano una partizione di . In questo caso

    E0 = {000}, E1 = {001, 010, 100}, E2 = {011, 101, 110}, E3 = {111}

    ed = 3k=0Ek.(iii.) Lancio due dadi e osservo le facce uscite, = {(1, 1), (1, 2), . . . (6, 6)} contiene 36coppie ordinate. Una partizione e` fornita dagli eventi

    Ek := la somma delle facce e` k, k = 2, 3, . . . 12.

    (b.) Decomposizione rispetto ad una partizione.

    Nel caso elementare si considera la partizione (E,Ec) dove E . Poiche per ogni F e` F = F = F (E Ec) = (F E) (F Ec) otteniamo la rappresentazione

    F = (F E) (F Ec).

    I due eventi dellunione sono incompatibili: questo, vedremo, e` particolarmente conve-niente in TdP. Per un dato F la rappresentazione vale qualunque sia E: nella pratica sara`importante scegliere E in modo che la rappresentazione semplifichi i conti probabilistici.In generale se (En) e` una partizione di allora vale la rappresentazione

    F =i

    (F Ei)

    e gli eventi dellunione sono mutuamente esclusivi. Anche qui, in pratica, sara` fondamen-tale scegliere opportunamente la partizione.

    (c.) Decomposizione dellunione

    In TdP la decomposizione di eventi complessi in unione di eventi incompatibili (cioe` digiun-ti) e` uno dei trucchi standard per semplificare i calcoli. La seguente decomposizione, validaqualunque siano gli eventi E ed F , si dimostrera` spesso utile

    E F = (E F c) (E F ) (Ec F )

    7

  • (d.) Decomposizione alternativa dellunione e generalizzazione

    Le decomposizioni in unioni di eventi incompatibili si possono normalmente effettuare inmolti modi. Quale sia la decomposizione piu` conveniente lo si stabilira`, caso per caso,nellapplicazione al calcolo delle probabilita`. Ad esempio per lunione di due eventi valeanche la decomposizione

    E F = E (F \ E)Questa decomposizione si generalizza immediatamente al caso di tre eventi

    E F G = E (F \ E) (G \ (E F ))

    e piu` in generale, per n eventi

    nk=1

    Ek = E1 n

    k=2

    Ek \ k1j=1

    Ej

    1.7 Altre operazioni tra eventi

    Operazioni del tipo E F c intervengono abbastanza spesso da meritare un nome.

    Differenza di eventi. E \ F := E F c.Differenza simmetrica di eventi. E 4 F := (E F c) (Ec F ).

    Usando le nuove definizioni la decomposizione dellunione si puo` riscrivere come

    E F = (E \ F ) (E F ) (F \ E) = (E 4 F ) (E F ).

    1.8 Osservazione sulle operazioni tra eventi

    Nota bene. Qualunque espressione che consista di complementazioni, intersezioni, unioni,differenze, e differenze simmetriche di eventi dati si puo` sempre esprimere, a partire daglieventi dati, utilizzando esclusivamente le operazioni di complementazione ed intersezione(oppure unione). A titolo desempio, usando le leggi di De Morgan si puo` esprimere ladifferenza simmetrica facendo ricorso solo a complementazioni e unioni, oppure solo acomplementazioni e intersezioni

    E 4 F = (E F c) (Ec F )= (Ec F )c (E F c)c

    =[(E F c)c (Ec F )c

    ]cQuesto risultato e` interessante negli sviluppi teorici, ma le espressioni contenenti, ad

    esempio, solo complementazioni e unioni diventano rapidamente molto complesse e didifficile leggibilita`.

    8

  • Lezione 2 (Marted`, 5 marzo 2013, ore 16:25-18:10)

    2.1 La -algebra degli eventi F(a.) Motivazione

    Nelle applicazioni lo spazio di probabilita` S = (,F , P ) modella un esperimento il cuiesito e` incerto. Gli elementi di sono i possibili risultati dellesperimento, mentre F e` unafamiglia di sottoinsiemi di per i quali e` definita la misura di probabilita` P . Idealmente sivorrebbe definire la probabilita` per tutti gli eventi dinteresse dellesperimento. In linea diprincipio si potrebbe pensare di definire P per tutti i sottoinsiemi di , di fatto assumendoche la famiglia F coincida con la famiglia di tutti i sottoinsiemi di , nota come potenzadi e denotata P(). La scelta F = P() e` sempre possibile, e la adotteremo, se || |N|(qui e altrove |E| denota la cardinalita` dellinsieme E). Quando invece || = |R| non e`possibile scegliere F = P() e definire in modo consistente la misura di probabilita` P . Inogni caso e` necessario che F abbia la struttura, specificata qui sotto, di -algebra affinchela teoria risulti ben posta.

    (b.) Definizione

    Sia un insieme assegnato. Una famiglia F di sottoinsiemi di e` detta -algebra sesoddisfa agli assiomi:

    (i) F non e` vuota(ii) F e` chiusa rispetto alla complementazione (significa che se E F , allora Ec F).(iii) F e` chiusa rispetto allunione numerabile (significa che se Ei F per ogni i 1,allora iEi F .Gli elementi di F sono detti eventi misurabili o semplicemente eventi.(c.) Conseguenze elementari degli assiomi (dimostrate a lezione)

    (i.) e appartengono ad F . (dagli assiomi)(ii.) F e` chiusa rispetto alle intersezioni numerabili. (assiomi+De Morgan)(iii.) F e` chiusa rispetto a qualunque sequenza numerabile di complementazioni, inter-sezioni, unioni, differenze, differenze simmetriche di eventi di F . (assiomi+osservazione 1.8).(d.) Esercizio.

    F e` chiusa rispetto alle unioni finite ed alle intersezioni finite.

    2.2 La misura di probabilita` P

    (a.) Definizione

    P : F R+ e` una mappa E 7 P (E) che ad ogni evento misurabile E F associa ilnumero reale P (E), detto la misura di probabilita` di E o semplicemente la probabilita` diE, e che soddisfa i seguenti assiomi

    (0) (positivita`) P (E) 0 per ogni E F ,(i) (normalizzazione) P () = 1,

    (ii) (-addittivita`) Se {Ei} e` una famiglia numerabile di eventi mutuamente esclusivi

    P (iEi) =i

    P (Ei).

    (b.) Conseguenze elementari degli assiomi (dimostrate in classe)

    (1.) P (Ec) = 1 P (E).

    9

  • (2.) P () = 0, (corollario di (1.)).(3.) E F implica P (E) P (F ), (monotonia della misura P ).(4.) P (E) [0, 1] per ogni E F , (corollario di (3.)).(5.) P (E F ) = P (E) + P (F ) P (E F ), (formula di inclusione/esclusione).(6.) P (E F ) P (E) + P (F ), (subaddittivita` di P ).(7.) P (iEi)

    i P (Ei), (subaddittivita` numerabile).

    (8.) P (E F G) = P (E) + P (F \ E) + P (G \ (E F )), (decomposizione disgiunta).

    (9.) P (E F G) = P (E) + P (F ) + P (G) P (E F ) P (E G) P (F G)+ P (E F G).

    (alternativa alla (7.) questa e` la formula di inclusione /esclusione, dimostrata scrivendoP (E F G) = P ((E F ) G) ed usando la (4.)).

    (10.) P (E F G H) = P (E) + P (F ) + P (G) + P (H) P (E F ) P (E G) P (E H) P (F G) P (F H) P (G H)+ P (E F G) + P (E F H) + P (E G H) + P (F G H) P (E F G H),

    (formula di inclusione /esclusione per piu` di tre eventi - senza dimostrazione).

    (11.) P (E4F ) = P (E) + P (F ) 2P (E F ), (esercizio).

    (c.) Non unicita` di P

    Losservazione chiave e` che gli assiomi non determinano P univocamente. Abbiamo vistolesempio della moneta, con = {C, T}, F = P(). La misura di probabilita` P non e`univocamente determinata: ce ne sono infinite compatibili con gli assiomi, ognuna di essee` completamente specificata dal numero p [0, 1] dove P ({T}) = p. Ben lungi dallessereuna limitazione, la liberta` di scelta di p consente, nellesempio concreto, di modellarequalunque moneta.

    10

  • Lezione 3 (Mercoled`, 6 marzo 2013, ore 16:25-18:10)

    3.1 Possibili scelte di P Misura empirica

    Quando si costruisce uno spazio di probabilita` S = (,F , P ) per modellare un esperimen-to, la scelta di e di F di solito non pone problemi, ma come visto nellesempio dellamoneta, gli assiomi non specificano P univocamente. La Statistica si occupa della sceltaottimale di P allo scopo di modellare un dato esperimento. Tempo permettendo daremoqualche cenno di Statistica verso la fine del corso. Qui diamo alcuni esempi di possibiliscelte di P , iniziando dalla cosiddetta misura empirica.

    Si supponga che lesperimento che si vuole modellare sia ripetibile piu` volte in condizionianaloghe. La misura empirica si costruisce come segue. Si effettua lesperimento n volte,registrando la sequenza 1, 2, . . . n degli esiti osservati. Per ogni evento E F sia nE ,la frequenza di E, il numero di volte che si verifica E nelle n prove, ovvero il numero diesiti i tali che i E per i = 1, 2, . . . n.Definizione (misura empirica).

    Pn(E) :=nEn, per ogni E F

    Pn(E) e` la frequenza relativa di E, ovvero la percentuale di volte in cui E si verifica.

    Lemma. Pn e` una misura di probabilita`.

    Dimostrazione. Lassioma (0) e` soddisfatto banalmente. Lassioma (i) e` soddisfatto poichen = n. Lassioma (ii) richiede che se E F = allora Pn(E F ) = Pn(E) + Pn(F ),ma per eventi E ed F disgiunti, nEF = nE + nF , da cui discende laddittivita` di Pn.Allo stesso modo, per famiglie numerabili {Ei} di eventi disgiunti, niEi =

    i nEi , da cui

    discende la -addittivita` di Pn.

    Esempio 1. Lancio di una moneta. = {C, T}, F = P(). La misura di probabilita`e` completamente specificata assegnando p = P ({T}). Per costruire la misura empiricalanciamo la moneta ad esempio n = 12 volte e siano T, T, C,C,C, T, T, T, T, T, T, T gliesiti. Allora p := P12({T}) = 912 = 0.75. Peraltro limitandosi alle prime 10 prove P10(T ) =710 = 0.7. Intuitivamente, se la moneta e` equilibrata, limn Pn({T}) = 0.5.Esempio 2. Lancio di un dado. = {1, 2, 3, 4, 5, 6}, F = P(). Si lancia il dado n = 15volte e gli esiti osservati sono 1, 3, 2, 3, 5, 4, 3, 4, 3, 5, 3, 2, 1, 5, 2. In questo caso P15({3}) =515 . Si determinino P15(esce faccia pari) e P15({6}).Esempio 3. Scelta casuale di un punto in [0, 1]. Per costruire la misura empirica si puo`pensare che il tenente Colombo si rechi al poligono di tiro e spari n volte al bersaglio, linter-vallo [0, 1], ogni volta chiudendo gli occhi. Se E [0, 1] la misura empirica e` Pn(E) := nEn ,dove nE e` il numero di volte che Colombo colpisce un punto in E. Intuitivamente, seColombo spara a caso, limn Pn([a, b]) = b a per ogni [a, b] [0, 1].Esercizio. I dati di unindagine di mercato sono: al 70% dei ragazzi piace la Coca, al 50%piace la Pepsi, al 20% non piacciono ne Coca ne Pepsi. Calcolare la percentuale di ragazzia cui piace almeno una delle due bevande e quella dei ragazzi a cui piacciono entrambe.

    Soluzione. Interpretando le percentuali come probabilita` empiriche i dati sono P (Coca) =0.7, P (Pepsi) = 0.5, P (Cocac Pepsic) = 0.2. Le probabilita` richieste sono

    P (Coca Pepsi) = P ((Cocac Pepsic)c) = 1 0.2 = 0.8P (Coca Pepsi) = P (Coca) + P (Pepsi) P (Coca Pepsi) = 0.7 + 0.5 0.8 = 0.4

    11

  • Interpretazione frequentista della probabilita`.

    Linterpretazione delle probabilita` di eventi come frequenze relative, o percentuali, e` moltocomune negli studi osservazionali di tipo economico, epidemiologico, sociale, biologico,ecc. La misura empirica Pn presenta pero` evidenti difetti. In particolare, per un fissatoevento E, la probabilita` empirica Pn(E) dipende da n e dalla specifica sequenza di esitiosservati, 1, 2, . . . n. La dipendenza di Pn dai risultati delle prove ripetute e` giusto checi sia visto che Pn deve modellare lesperimento, ma la dipendenza da n e` molto scomoda.Nellesempio 1, la dipendenza da n comporta che non si riesca ad associare un unico valorea p, la probabilita` di Testa della moneta. Per ovviare a questo inconveniente i frequentisti siarrampicano sugli specchi nel tentativo di sostituire Pn(E) con limn Pn(E), ma si trattadi discorsi piuttosto vaghi, solo apparentemente supportati da un teorema fondamentaledel calcolo della probabilita`, la legge dei grandi numeri, che vedremo piu` avanti.

    3.2 Possibili scelte di P Caso di discreto

    Consideriamo ora il caso di spazi di probabilita` S = (,F , P ) dove || |N|. (ricordoche |E| denota la cardinalita` di E). Questo e` il cosiddetto caso discreto a cui ci atterremonela prima parte del corso. Si possono presentare due casi: = {1, 2, . . . N} ovverodi cardinalita` || = N finita, oppure = {1, 2 . . . } con || = |N|. In entrambi questicasi, senza perdita di generalita`, prenderemo sempre F := P(). Negli spazi di probabilita`discreti la misura P e` completamente specificata dai valori sui singleton: conoscere P ({i})per ogni i permette di calcolare P (E) per ogni E F . Infatti la -addittivita`comporta che

    P (E) =iE

    P ({i}) (1)

    Osservazione 1. La numerabilita` di e` fondamentale per la validita` dellequazione 1.

    Osservazione 2. Diciamo pi := P ({i}). Allora, se || = N basta assegnare N 1 deivalori p1, . . . pN (perche?).

    Osservazione 3. Se || = |N|, il vincolo i=1 pi = 1 impone la convergenza della serie.Quindi, ad esempio, e` impossibile per = N avere misure di probabilita` del tipo P ({i}) =ci mentre e` possibile avere P ({i}) = ci2 . Quanto deve valere in questo caso? (E` necessarioconoscere la teoria della convergenza della serie di Fourier per rispondere).

    3.3 Possibili scelte di P Caso di finito con esiti equiprobabili

    Se = {1, 2, . . . N} ha cardinalita` finita N , allora e` possibile scegliere la misura P cheassegna la stessa probabilita` a tutti gli esiti elementari, ovvero P ({i}) = 1|| = 1N perogni i = 1, 2, . . . N (caso equiprobabile). Se P e` equiprobabile allora, per ogni E F ,

    P (E) =iE

    P ({i}) = |E||| ,

    formula che nei testi elementari e` spesso scritta come

    P (E) =numero dei casi favorevoli

    numero dei casi totali.

    Benche sia tecnicamente sempre possibile prendere P equiprobabile quando ha car-dinalita` finita, non e` detto che si tratti di una buona scelta per modellare un datoesperimento.

    Controesempio. Sia = {0, 1, 2, 3} dove gli esiti elementari rappresentano il numero diTeste in tre lanci consecutivi di una moneta. In questo caso la misura equiprobabile urta

    12

  • contro la nostra intuizione. Su tre lanci di una moneta e` piu` facile osservare una Testapiuttosto che tre Teste o nessuna Testa. Se si vuole usare P come modello dellesperimentoche consiste in tre lanci consecutivi di una normale moneta lassegnazione equiprobabileP ({i}) = 14 per i = 0, 1, 2, 3 non ha molto senso.Esempio. Sia = {TTT, TTC, TCT,CTT, TCC,CTC,CCT,CCC} dove gli esiti elemen-tari rappresentano le possibili sequenze di risultati di tre lanci di una moneta. In questocaso e` ragionevole prendere la P equiprobabile: P (i) =

    18 per ogni i = 1, . . . 8 (sono 8 gli

    esiti elementari). Se Ek = escono k teste in 3 lanci per k = 0, 1, 2, 3 abbiamo calcolatoP (E0) = P (E3) =

    18 e P (E1) = P (E2) =

    38 . Lo stesso si puo` fare se si considera lo spazio

    relativo a diciamo 50 lanci di una moneta. Sia E34 levento escono 34 teste su 50 lancidella moneta. Quanto vale P (E34)? In teoria e` facile

    P (E34) =|E34||| ,

    ma il calcolo delle cardinalita` di insiemi finiti non e` sempre agevole. Questo motiva labreve digressione sulla combinatoria elementare.

    3.4 Combinatoria elementare I

    Principio fondamentale del conteggio.

    Motivazione. Ricordate lesempio fatto in classe dellarmadio con dentro 4 camicie, 3pantaloni e 2 paia di scarpe. In quanti modi diversi posso vestirmi? Se gli abbinamenti divestiario non hanno rilevanza (maschi) 4 3 2 = 24 modi. Se gli abbinamenti di vestiariolimitano le scelte (femmine) allora il principio fondamentale non si applica. Piu` in generalesi conta come segue.

    Il principio. Si effettuano r esperimenti. Il primo ha n1 risultati possibili. Qualunque sialesito del primo esperimento il secondo esperimento ha sempre lo stesso numero n2 dipossibili risultati, e cos` via fino alla condizione che, qualunque sia il risultato dell(r 1)-esimo esperimento, lr-esimo esperimento ha sempre nr esiti possibili. Si supponga ancheche esiti diversi degli r esperimenti producano sequenze distinguibili. Sotto queste ipotesiil numero di possibili esiti degli r esperimenti condotti in sequenza e`

    n1 n2 . . . nr

    Esempi elementari di conteggio. In classe abbiamo visto alcuni esempi: targhe automobilis-tiche, schedine del totocalcio, corsa campestre.

    Problemi di conteggio I

    Discussione dei due paradigmi: del campionamento e dellallocazione. Tutta la terminolo-gia ed i possibili problemi di conteggio che ho elencato a lezione li potete rivedere concalma nellappendice a queste note.

    Esempio 1. Numero delle schedine del totocalcio. Si tratta di contare le disposizioni conripetizione di n = 3 oggetti (i simboli 1, X, 2), presi k = 13 alla volta (le 13 partite).Il numero di schedine e` nk = 313, applicando il principio fondamentale del conteggio.Abbiamo visto le due interpretazioni, come problema di campionamento e come problemadi allocazione.

    Esempio 2. Numero di possibili terne di vincitori di medaglia ad una corsa campestre cuipartecipano 10 corridori. Si tratta di contare le disposizioni senza ripetizione di n = 10oggetti (i corridori) presi k = 3 alla volta (oro, argento, bronzo). Usando il principiofondamentale del conteggio, il numero di possibili podii e` n (n 1) (n 2) (n k + 1) = 10 9 8. Abbiamo visto le due interpretazioni, come problema dicampionamento e di allocazione.

    13

  • Appendice alla Lezione 3Problemi di campionamento e di allocazione

    A3.1 Introduzione

    I problemi di conteggio sono difficilmente categorizzabili in tipologie standard ed ognunodi essi va trattato nella sua peculiarita`. Esistono tuttavia alcuni punti di vista generaliche possono aiutare nellimpostazione delle soluzioni. In questa sezione presentiamo dueelementari paradigmi del conteggio, campionamento ed allocazione.

    Un problema di campionamento si modella con unurna contenente n palline, distin-guibili (ad esempio numerate da 1 a n) o distinguibili a gruppi (ad esempio n palline dim < n colori diversi). Vengono effettuate k estrazioni, ed annotato il risultato di ogniestrazione. Le estrazioni possono essere con o senza reinserimento nellurna della pallinaappena estratta, prima di passare allestrazione successiva. Interessa contare quante sonole possibili sequenze di estrazioni. Si puo` contare in due modi. Se si tiene in consider-azione lordine di estrazione si dice che si stanno contando le disposizioni : 1, 2 e 2, 1 sonodue disposizioni diverse. Se non si tiene in considerazione lordine si dice che si stannocontando le combinazioni : 1, 2 e 2, 1 sono la stessa combinazione.

    Nei problemi di allocazione il modello consiste in un insieme di scatole (celle) distinteed in un certo numero di gettoni, che possono essere distinguibili o identici tra loro.I gettoni vanno inseriti (allocati) nelle scatole. Il riempimento delle scatole puo` esserelibero, o soggetto a vincoli. Nel caso libero ogni scatola puo` contenere qualunque numerodi gettoni, 0 compreso. Vincoli tipici sono: al piu` 1 gettone (cioe` 0 o 1) per scatola, oppureun numero preassegnato di gettoni in ogni scatola. Interessa contare il numero di possibiliallocazioni di gettoni nelle scatole.

    La nota e` organizzata in modo da mettere in evidenza, attraverso un numero romano,la corrispondenza tra problemi di campionamento e di allocazione. Per mostrare comepassare da un paradigma allaltro nellimpostazione di un problema di conteggio illustr-eremo i due punti di vista con lo stesso esempio. Nei problemi di conteggio concreti,solitamente piu` complessi, e` pero` spesso naturale impostare il conteggio usando sfecifica-mente uno dei due paradigmi, quindi e` utile conoscerli entrambi. In realta` il paradigmadellallocazione permette di trattare, in modo abbastanza semplice, anche complicati vin-coli di riempimento delle scatole che si tradurrebbero in problemi di campionamento moltoartificiali.

    La nota e` in buona parte basata sul capitolo 3 dellottimo libro di K.L. Chung,Elementary probability theory with stochastic processes, Springer 1974.

    A3.2 Problemi di campionamento

    Elenchiamo di seguito i quattro tipici problemi di campionamento, ed alcune varianti.

    Campionamento I

    n palline distinte nellurna (ad esempio numerate da 1 a n) k estrazioni con reinserimento (n e k liberi) Problema: contare le disposizioni Soluzione. nk

    14

  • Spiegazione. Alla prima estrazione posso estrarre una qualunque delle n palline, annotoil risultato e reinserisco la pallina nellurna. Alla seconda estrazione ho ancora n possibilirisultati dellestrazione e cos` via fino alla k-esima estrazione. Per il principio del conteggioil numero di disposizioni e` nk.

    Terminologia. Questo problema viene anche presentato come conteggio delle disposizionicon ripetizione di n oggetti distinti presi k alla volta.

    Esempio. Totocalcio 3: contare il numero di schedine giocabili. Una giocata si modellacon unurna contenente n = 3 palline 1, X, 2, dalla quale si estrae k = 13 volte, con rein-serimento. Ad ogni disposizione delle palline estratte corrisponde una schedina giocabile.Soluzione: nk = 313.

    Campionamento II

    n palline distinte nellurna (ad esempio numerate da 1 a n) k estrazioni senza reinserimento (quindi k n) Problema: contare le disposizioni Soluzione. D(n, k) := n (n 1) (n k + 1)

    Spiegazione. Alla prima estrazione posso estrarre una qualunque delle n palline, annotoil risultato e butto la pallina. Rimangono n 1 palline nellurna, vi sono quindi n 1risultati possibili per la seconda estrazione, cos` via fino alla k-esima estrazione per laquale sono possibili n k+ 1 (attenzione al +1) risultati. Per il principio del conteggio ilnumero di disposizioni e` n(n 1) . . . (n k + 1), per comodita` denotato D(n, k).Terminologia. Questo problema viene anche presentato come conteggio delle disposizionisenza ripetizione di n oggetti distinti presi k alla volta.

    Esempio. Corsa campestre, partecipano 10 atleti. In quanti modi diversi possono essereassegnate le 3 medaglie doro, dargento e di bronzo? Lurna contiene n = 10 pallinedistinguibili (gli atleti), e si effettuano k = 3 estrazioni senza reinserimento. Contare lerisultanti disposizioni significa contare i possibili ordini di arrivo dei primi 3. Soluzione:n (n 1) (n k + 1) = 10 9 8.

    Campionamento IIa

    E` il caso II con k = n. Le disposizioni con k = n si dicono permutazioni. Soluzione. n! := D(n, n) = n (n 1) 2 1

    Spiegazione. Come per il caso II, procedendo fino ad k = n. Si noti che n! = D(n, n).

    Esempio. Anagrammi della parola MILANO. Lurna contiene n = 6 palline distinguibili (lelettere A, I, L, M, N, O) che vengono estratte, senza reinserimento, fino a vuotare lur-na. Ad ogni disposizione delle palline corrisponde uno dei possibili anagrammi. Soluzione:n! = 6!. Questo conteggio degli anagrammi e` corretto solo se la parola da anagrammarecontiene lettere distinte, vedi il caso IIIa.

    3Il Totocalcio e` un gioco a scommessa legalizzato in cui si devono pronosticare i risultati di un certonumero di partite di calcio, classicamente 13. Le 13 partite sono stampate su una schedina e il giocatoreindica il suo pronostico, per ognuna delle partite, usando tre simboli 1, X, 2. Ad esempio, per la partitaMilan-Inter, il simbolo 1 pronostica la vittoria del Milan, X il pareggio, 2 la vittoria dellInter.

    15

  • Campionamento III

    n palline distinte nellurna (ad esempio numerate da 1 a n) k estrazioni senza reinserimento (quindi k n) Problema: contare le combinazioni

    Soluzione.(n

    k

    ):=

    D(n, k)

    k!=n (n 1) (n k + 1)

    k!

    Spiegazione. Analogo al caso II, ma si devono contare le combinazioni. Per contare ilnumero di combinazioni, diciamolo C(n, k), basta osservare che le k! permutazioni di ognifissata disposizione producono tutte la stessa combinazione, quindi C(n, k) D(k, k) =D(n, k). Si ricava C(n, k) = D(n, k)/D(k, k). Il numero C(n, k) si dice coefficientebinomiale n su k, piu` spesso denotato

    (nk

    ).

    Terminologia. Questo problema viene anche presentato come conteggio delle combi-nazioni senza ripetizione di n oggetti distinti presi k alla volta.

    Esempio. Gioco del lotto. Ogni settimana a Venezia vengono estratte k = 5 palline, unacinquina, da unurna contenente n = 90 palline distinguibili, numerate da 1 a 90. Nelgioco del lotto si scommette sulla combinazione estratta. Contare quante sono le possibilicinquine. Soluzione:

    (nk

    )=(

    905

    )= 908988878654321 .

    Campionamento IIIa

    n palline nellurna, di m colori diversi, k1 di colore 1, . . . , km di colore m, conk1 + k2 + + km = n. Le palline dello stesso colore sono identiche. k = n estrazioni senza reinserimento (si estraggono tutte le palline) Problema: contare le disposizioni distinguibili

    Soluzione.(

    n

    k1, k2, . . . , km

    ):=

    n!

    k1! k2! km!

    Spiegazione E` una miscela dei casi IIa e III. Per capire la soluzione si pensi, inizialmente,di numerare da 1 a ki le palline di colore i-esimo, 1 i m. Le palline sono ora tuttedistinguibili, grazie a colore e numero, quindi, caso IIa, le disposizioni sono (k1+ +km)! =n!. Poiche` nella formulazione del problema le palline dello stesso colore sono indistinguibili,per ogni colore i le ki! permutazioni delle palline di quel colore danno luogo alla stessadisposizione. Per il principio di conteggio, il numero totale di permutazioni che danno luogoalla stessa disposizione, una volta cancellati i numeri dalle palline, e` k1! k2! . . . km!.Il numero di disposizioni distinguibili si ottiene dividendo n! per k1! k2! . . . km!. Ilnumero n!k1!k2!km! si dice coefficiente multinomiale n su k1, . . . km, denotato

    (n

    k1,k2,...,km

    ).

    Verificare che il caso m = 2 si riduce, notazione a parte, allusuale coefficiente binomiale.

    Esempio. Anagrammi della parola MISSISSIPPI. Lurna contiene n = 11 palline dim = 4 colori, M,I,S,P, con kM = 1, kI = 4, kS = 4, kP = 2. Il numero degli anagramminon e` 11!, come per il caso II, poiche` la presenza di lettere ripetute rende alcune paroleindistinguibili tra loro. Per quanto visto il numero degli anagrammi e`:

    (n

    kM ,kI ,kS ,kP

    )=(

    111,4,4,2

    )= 11!1!4!4!2! .

    16

  • Campionamento IV

    n palline distinte nellurna (ad esempio numerate da 1 a n) k estrazioni con reinserimento (n e k liberi) Problema: contare le combinazioni

    Soluzione.(n+ k 1

    k

    )

    Spiegazione. Si potrebbe (s)ragionare come segue. La situazione e` analoga a quella delcaso I, ma invece che alle disposizioni siamo ora interessati alle combinazioni. Applicandoil trucco gia` usato nel caso III per passare dalle disposizioni alle combinazioni, la soluzionee` nk/k!. Questo ragionamento e` sbagliato. Per n = 3, k = 2 fornisce 32/2! = 4.5, che e`imbarazzante come numero di combinazioni! Quando non si viene a capo di un problemadi conteggio puo` essere utile analizzare esaustivamente un caso con n ed k piccoli e poigeneralizzare. Proviamo dunque con n = 3, k = 4. Nellurna ci sono 3 palline numerate1, 2, 3. Elenchiamo tutti i possibili risultati di k = 4 estrazioni, eliminando manualmentetutte le disposizioni che danno luogo alla stessa combinazione. Le 15 combinazioni possibilisono riportate, in ordine lessicografico, nella prima colonna della seguente tabella.

    1 2 31111 XXXX XXXX||1112 XXX X XXX|X|1113 XXX X XXX||X1122 XX XX XX|XX|1123 XX X X XX|X|X1133 XX XX XX||XX1222 X XXX X|XXX|1223 X XX X X|XX|X1233 X X XX X|X|XX1333 X XXX X||XXX2222 XXXX |XXXX|2223 XXX X |XXX|X2233 XX XX |XX|XX2333 X XXX |X|XXX3333 XXXX ||XXXX

    Le tre colonne successive contengono segni di spunta che forniscono la stessa infor-mazione della prima colonna, indicando il numero di palline 1, 2 e 3 presenti in ognipossibile combinazione. La quinta colonna contiene, in forma simbolica, le stesse infor-mazioni delle tre colonne precedenti. Le barre verticali servono ad individuare a qualepallina si riferiscono i segni di spunta. Poiche` ci sono 3 palline, sono necessarie 2 barreverticali. I segni di spunta a sinistra della prima barra verticale dicono il numero di palline1 nella combinazione. I segni di spunta tra le due barre verticali dicono il numero di palline2 e quelli a destra della seconda barra indicano il numero di palline 3. Ad esempio il sim-bolo X|XX|Xcorrisponde alla combinazione 1223, il simbolo |XX|XXalla 2233, mentreX||XXXcorrisponde alla 1333. Il caso IV si puo` allora ridurre al caso IIIa, ovvero abbi-amo una nuova urna contenente 4 + 2 palline, di cui 4 sono marcate X e 2 sono marcate|. Il numero di possibili permutazioni distinguibili vale allora 6!3!2! . Nel caso generale din palline ed r estrazioni saranno necessari r segni di spunta ed n 1 barre verticali perrappresentare simbolicamente tutte le possibili combinazioni, e la soluzione sara` (n1+r)!r!(n1)! .E` banale verificare che questo numero coincide con quello dato nellenunciato.

    17

  • Terminologia. Questo problema viene anche presentato come conteggio delle combi-nazioni con ripetizione di n oggetti distinti presi k alla volta.

    Esempio. Lancio 3 dadi identici. Quante sono le possibili combinazioni osservabili?In questo caso modelliamo con unurna contenente n = 6 palline (numerate da 1 a 6)e contiamo le possibili combinazioni di k = 3 estrazioni con reinserimento, poiche` ognidado puo` mostrare una qualunque faccia, indipendente dal risultato degli altri due. Lecombinazioni osservabili sono

    (n+k1

    k

    )=(

    83

    ).

    A3.3 Problemi di allocazione

    Elenchiamo di seguito i quattro tipici problemi di allocazione, ed alcune varianti. Gliesempi sono gli stessi del paragrafo precedente per mettere in evidenza la corrispondenzacon lanalogo modello di campionamento.

    In ognuno dei problemi di allocazione si dispone di un certo numero di scatole distinte e divoler contare il numero di allocazioni dei gettoni nelle scatole, secondo le specifiche fornitecaso per caso.

    Allocazione I

    n scatole distinte e k gettoni distinguibili da allocare nessun vincolo di riempimento (ogni scatola puo` contenere da 0 a k gettoni) Soluzione. nk

    Spiegazione. Il primo gettone si puo` inserire in una qualunque delle n scatole. Lo stessovale per il secondo e per tutti gli altri gettoni poiche` non vi sono vincoli di riempimento.Applicando il principio di moltiplicazione si ottiene il risultato.

    Esempio. Totocalcio, come per Campionamento I. Si modella con n = 3 scatole (con-trassegnate 1, X, 2), e k = 13 gettoni distinguibili, numerati da 1 a 13, le partite di cuisi deve pronosticare il risultato. Ogni allocazione dei gettoni nelle scatole corrisponde aduna giocata possibile.

    Allocazione II

    n scatole distinte ed k gettoni distinguibili da allocare ogni scatola puo` contenere 0 o 1 gettoni Soluzione. n (n 1) (n k + 1) := P (n, k)

    Spiegazione. Il primo gettone si puo` collocare in una qualunque delle n scatole, il secondoin una delle rimanenti n 1 ecc. fino al k-esimo gettone che puo` essere collocato in unaqualunque delle rimanenti n k + 1 scatole. Per il principio di moltiplicazione il numerototale di allocazioni e` n(n 1) . . . (n k + 1).Esempio. Corsa campestre, come per Campionamento II. Questo caso si modella conn = 10 scatole, contrassegnate con i nomi dei 10 atleti, e k = 3 gettoni (contrassegnati1, 2, 3). Ogni allocazione dei gettoni nelle scatole rappresenta una possibile terna ordinatadi vincitori.

    18

  • Allocazione IIa

    E` il caso precedente per n = k. In questo caso, terminata lallocazione, ogni scatolaconterra` esattamente 1 gettone.

    Soluzione. n!

    Spiegazione. Come per il caso precedente.

    Esempio. Anagrammi della parola MILANO, come per campionamento IIa. Le scatole sonon = 6, contrassegnate 1, 2, 3, 4, 5, 6, e rappresentano le posizioni delle lettere nella parolache si andra` a comporre. I gettoni sono k = n = 6, contrassegnati A, I, L, M, N, O erappresentano le lettere a disposizione.

    Allocazione III

    n scatole disitinte e k gettoni identici da allocare ogni scatola puo` contenere 0 o 1 gettoni

    Soluzione. n (n 1) (n k + 1)k!

    =

    (n

    k

    )Spiegazione. Analogo al caso II appena visto. Poiche` i gettoni sono indistinguibili sidevono contare le combinazioni, ovvero dividere P (n, k) per P (k, k) come si era fatto peril corrispondente caso del campionamento.

    Esempio. Gioco del Lotto, come per campionamento III. Il modello di allocazione consistedi n = 90 scatole (contrassegnate da 1 a 90) e di k = 5 gettoni identici, con vincolo diallocazione 0 or 1 gettoni in ogni scatola. Chiaramente questo e` un caso per il quale ilmodello del campionamento e` molto piu` naturale.

    Allocazione IIIa

    m scatole distinte ed n gettoni distinguibili da allocare la scatola i deve contenere esattamente ki gettoni, con

    mi=1 ki = n.

    Soluzione. n!k1!k2! . . . km!

    =:

    (n

    k1, k2, . . . km

    )Spiegazione. Si tratta di una miscela dei casi IIa e III appena visti. Per riempire la primascatola si devono scegliere k1 gettoni da n, cosa che si puo` fare in

    (nk1

    )modi (perche`?), per

    riempire la seonda scatola si devono scegliere k2 gettoni dai rimanenti n k1 gettoni, cosache si puo` fare in

    (nk1k2

    )modi, per la terza ci sono

    (nk1k2

    k3

    )possibili scelte di gettoni ecc.

    Per il principio di moltiplicazione il numero di modi possibili e`(n

    k1

    )(n k1k2

    )(n k1 k2

    k3

    )...

    (n k1 k2 . . . km1

    km

    )=

    (n

    k1, k2, . . . km

    )Verificate algebricamente questa identita`, ad esempio per m = 3.

    Esempio. Anagrammi della parola MISSISSIPPI, come per campionamento IIIa. Ilmodello di allocazione consiste di m = 4 scatole, contrassegnate M,I,S,P, e di n = 11gettoni, contrassegnati 1, 2, . . . 11. I gettoni corrispondono alle posizioni delle lettere nellaparola che si andra` a comporre. Ad ogni allocazione corrisponde uno degli anagrammidistinguibuibili.

    19

  • Allocazione IV

    n scatole distinte e k gettoni identitici da allocare nessun vincolo di riempimento (ogni scatola puo` contenere da 0 a k gettoni)

    Soluzione.(n+ k 1

    k

    )

    Spiegazione. Guardate con attenzione lultima colonna della tabella del CampionamentoIV. E` una vivida rappresentazione delle possibili allocazioni dei gettoni nelle scatole: lebarre verticali consentono di individuare le scatole distinte, i segni di spunta sono i gettoni.In effetti questo e` un problema che e` piu` naturale impostare usando il modello dellaallocazione.

    Esempio. Lancio 3 dadi identici, come per campionamento IV. Quante sono le possibilicombinazioni osservabili? Nel paradigma della allocazione modelliamo con n = 6 scatole,contrassegnate 1, 2, 3, 4, 5, 6, e con r = 3 gettoni contrassegnati Lancio1, Lancio2, Lancio3.

    Nota finale. Dovrebbe essere a questo punto chiaro il meccanismo di passaggio tra iparadigmi del campionamento e dellallocazione. Il numero di palline distinte, n, o ilnumero di gruppi distinti di palline m corrisponde al numero di scatole. Il numero diestrazioni corrisponde al numero di gettoni. Le estrazioni senza reinserimento si tra-ducono nel vincolo di riempimento 0 o 1 gettone per scatola, mentre se si reinseriscono lepalline nellurna nel campionamento allora non ci sono vincoli di riempimento nelle sca-tole. Ordine di estrazione rilevante nel campionamento corrisponde a gettoni distinguibilinellallocazione. Viceversa, ordine di estrazione irrilevante corrisponde a gettoni identicinel paradigma dellallocazione.

    20

  • Lezione 4 (Luned`, 11 marzo 2013, ore 10:30-13:15)

    4.1 Combinatoria elementare II

    Qui sotto rivediamo la terminologia tradizionalmente associata ai problemi di conteggioelementari.

    (a.) le disposizioni con ripetizione di n oggetti distinti presi k alla volta sono nk. Esempio1. Scrivere una schedina del totocalcio consiste nel prendere n = 3 oggetti (1, X, 2), agruppo di k = 13. Allora 313 e` il numero di possibili schedine. Esempio 2. Il numerodi sottoinsiemi di un insieme di n elementi e` 2n. Infatti per individuare un sottoinsiemepossiamo usare una stringa di n bit, associando ad ogni bit della stringa un elementodellinsieme. Gli 1 della stringa indicano gli elementi che appartengono al sottoinsieme,gli 0 indicano gli elementi esclusi. Il numero totale di stringhe binarie di n bit e` 2n.

    (b.) le disposizioni senza ripetizione di n oggetti distinti presi k alla volta sono n(n 1) (n k + 1). Esempio. In una corsa campestre con n = 10 atleti, il numero di ordinidi arrivo dei primi k = 3 (cioe` quanti podii sono possibili) e` 10 9 8.(b1.) nel caso particolare n = k le disposizioni senza ripetizione vengono dette permu-tazioni Esempio. Gli anagrammi della parola BRENTA sono 6!. Attenzione pero`, questoconteggio e` corretto perche le lettere di BRENTA sono distinte.

    (c.) le combinazioni senza ripetizione di n oggetti distinti presi k alla volta sono(nk

    )=

    n(n1)(nk+1)k! . Esempio. Numero delle cinquine nel gioco del lotto

    (905

    ). (vedi appendice

    alla Lezione 3 per la descrizione). E` importante capire questo conteggio sia dal punto divista del campionamento che dellallocazione. Di seguito diamo un esempio di problemala cui soluzione e` ancora

    (nk

    ), e che si imposta naturalmente come problema di allocazione.

    Esempio. Il numero di sottoinsiemi di cardinalita` k di un insieme di cardinalita` n e` paria(nk

    ). Pensate di avere n celle (gli elementi dellinsieme) e di dover disporre k gettoni

    indistinguibili nelle celle al piu` uno in ogni cella. Ogni configurazione di gettoni individuaunivocamente un sottoinsieme e le allocazioni sono

    (nk

    ).

    (d.) un esempio misto e` quello delle permutazioni con elementi ripetuti che illustriamocon due esempi. Esempio 1. Unurna contiene n palline, di m colori diversi, k1 del colore1, . . . km del colore m, con k! + k2 + . . . km = n. Si estraggono, senza reinserimento,tutte le palline dallurna. Il numero di disposizioni distinguibili e`

    (n

    k1,k2,...km

    ):= n!k1!k2!...km! .

    Esempio 2. Contare gli anagrammi della parola MISSISSIPPI. Le lettere sono 11, di 4 tipidiversi, 1 M , 4 I, 4 S, 2P , gli anagrammi sono 11!4!4!2! . E` interessante osservare che(

    n

    k1, k2, . . . km

    )=

    (n

    k1

    )(n k1k2

    ). . .

    (n k1 k2 km1

    km

    )come appare chiaro impostando il conteggio come problema di allocazione. Come casoparticolare, se m = 2, ponendo k1 = k, k2 = n k, risulta

    (n

    k1,k2

    )=(nk

    ).

    (e.) le combinazioni con ripetizione di n oggetti distinti presi k alla volta. Non trattato alezione, si veda lappendice alla Lezione 3.

    4.2 Proprieta` dei coefficienti binomiali

    I numeri(nk

    ):= n!k!(nk)! , per n 0 e k = 0, 1, . . . n sono detti coefficienti binomiali.

    (nk

    )si

    legge n su k, oppure n binomiale k. Per convenzione 0! = 1 quindi(n0

    )=(nn

    )= 1 per ogni

    n 0.

    21

  • (a.) Il coefficiente binomiale e` cos` detto poiche interviene nello sviluppo della potenza delbinomio

    (a+ b)n =

    nk=0

    (n

    k

    )akbnk. (1)

    La dimostrazione combinatoria e` immediata:

    (a+ b)n = (a+ b)(a+ b) (a+ b) n volte

    .

    Il prodotto degli n fattori (a + b) consiste di addendi del tipo akbnk, per k = 0, 1, . . . n,ognuno dei quali corrisponde a scegliere k volte a ed n k volte b negli n fattori (a+ b).Per un dato k = 0, 1, . . . n il numero di modi in cui si puo` scegliere k volte a e`

    (nk

    )quindi

    il numero di addendi del tipo akbnk e`(nk

    ), il che dimostra la formula (1).

    (b.) Ponendo a = b = 1 nello sviluppo della potenza del binomio si ha

    2n =nk=0

    (n

    k

    ).

    Questa identita` ha una semplice interpretazione combinatoria. Il numero totale di sottoin-siemi di un insieme di n elementi, 2n, e` la somma del numero di sottoinsiemi a k elementi,k = 0, 1, . . . n.

    (c.)(nk

    )=(n

    nk), infatti ogni sottoinsieme e` in corrispondenza biunivoca con il suo

    complementare.

    (d.)(nk

    )=(n1k

    )+(n1k1), per n 2 e k = 0, 1, . . . n. Per dimostrare combinatorialmente

    la validita` di questa relazione di ricorrenza (in Segnali e Sistemi la chiamerete equazionealle differenze) si puo` ragionare cos`: il numero di sottoinsiemi di k elementi di un insiemedato di n elementi si puo` trovare fissando un elemento arbitrario 1 e poi sommando(n1k1), numero di sottoinsiemi di k elementi di che contengono 1, a

    (n1k

    ), numero di

    sottoinsiemi di k elementi di che non contengono 1. Valgono inoltre le condizionial contorno

    (n0

    )= 1, per n 0. Lequazione alle differenze, insieme alle condizioni al

    contorno, definiscono un algoritmo per generare i coefficienti binomiali, comunemente notocome triangolo di Tartaglia, nel resto del mondo noto come triangolo di Pascal. Comeesercizio, verificate algebricamente che i coefficienti binomiali verificano lequazione alledifferenze e le condizioni al contorno.

    (e.) Interpretazione di Gyorgy Polya dei coefficienti binomiali. Si consideri il grafo difigura. Ogni nodo del grafo e` individuato dalle coordinate (generazione, shift), in figurasono ad esempio evidenziati i punti (4, 1), (4, 2), (5, 2). Il grafo si puo` percorrere mai cammini permessi sono solo quelli che partono dalla radice (0, 0) e ad ogni passo sispostano di una generazione in basso sul grafo, verso destra o verso sinistra. Dal punto(n, k) ci si puo` cioe` spostare solo verso i punti (n + 1, k) ed (n + 1, k + 1), con le ovvieattenzioni agli indici quando si e` vicini al bordo. Indicando con #(n, k) il numero dicammini che dallorogine (0, 0) conducono al nodo (n, k) e` facile dimostrare, vedi figura,che vale la relazione di ricorrenza (equazione alle differenze)

    #(n, k) = #(n 1, k 1) + #(n 1, k)

    con condizione al contorno #(n, 0) = 1 Ma questa, a parte i simboli usati, e` esattamentela relazione (d.), con la medesima condizione al contorno, quindi #(n, k) =

    (nk

    ). Questa e`

    linterpretazione di Polya dei coefficienti binomiali come numero di cammini.

    22

  • ?n

    0

    1

    2

    3

    4

    -

    k

    5

    0 1 2 3 4 5

    u uu

    (4, 1) (4, 2)

    (5, 2)

    4.3 Formula di Stirling

    Fornisce lordine di grandezza di n! con grande precisione. La versione semplice dellaformula di Stirling e`

    n!

    2pinnnen

    dove a(n) b(n) significa che limn a(n)b(n) = 1. La dimostrazione si puo` fare usando leproprieta` della densita` di probabilita` gaussiana e la tecnica di approssimazione di Laplacedegli integrali dipendenti da un parametro. I piu` curiosi troveranno, piu` avanti, una notasu moodle. In modo sporco e veloce si puo` pero` ottenere la parte piu` cospicua dellosviluppo asintotico:

    log n! =nk=1

    log k n

    1log x dx = x log x x

    n1

    = n log n n+ 1.

    Prendendo lesponenziale di entrambi i membri, e trascurando il +1, si trova n! nnenche e` unapprossimazione niente male, vista la poca fatica che ci e` costata.

    4.4 Applicazione al calcolo della probabilita`

    Calcolo della probabilita` su spazi finiti equiprobabili. Per ritrovarvi sugli appunti i titoliche avevo dato agli esercizi erano: squadre di calcio e trenino.

    23

  • Lezione 5 (Marted`, 12 marzo 2013, ore 16:25-17:05)

    5.1 Esercitazione sulla combinatoria e la probabilita` negli spazi finiti uniformi

    Esercizio 1. Unurna contiene 5 palline rosse, 6 blu e 8 verdi. Lesperimento consistenellestrazione, senza reinserimento, di tre palline dallurna. Interessano le probabilita`degli eventi

    E := le tre palline estratte sono di colori diversi,

    F := le tre palline estratte sono dello stesso colore.

    Attenzione a non prendere una cantonata: Ec 6= F . Ne levento E, ne levento F dipendonodallordine di estrazione delle palline, e` quindi sufficiente contare combinazioni. Il numerodi combinazioni diverse corrispondenti allestrazione senza reinserimento di 3 delle 19palline contenute nellurna e`

    (193

    ). Levento E si verifica quando si estrae esattamente 1

    pallina rossa, 1 blu ed 1 verde (lordine non conta). Per il principio di moltiplicazionequesto si puo` fare in

    (51

    )(61

    )(81

    )= 5 6 8 modi. La probabilita` cercata e`

    P (E) =

    (51

    )(61

    )(81

    )(193

    )Per quanto riguarda F si osservi che

    F = 3 palline rosse o 3 palline blu o 3 palline verdi,

    e poiche i tre eventi a destra sono disgiunti

    P (F ) = P (3 palline rosse) + P (3 palline blu) + P (3 palline verdi)

    =

    (53

    )(60

    )(80

    )+(

    50

    )(63

    )(80

    )+(

    50

    )(60

    )(83

    )(193

    )Soluzione formale dellesercizio 1. La soluzione formalmente rigorosa di questo, e di tuttigli altri esercizi del corso, richiede la costruzione di un opportuno spazio di probabilita`S = (,F , P ) che modella lesperimento di interesse. Normalmente S e` sottaciuto, ma e`importante, almeno allinizio, capire come si dovrebbe procedere. Qui sotto proponiamodue possibili spazi di probabilita`, S1 e S2, per modellare lesperimento fisico descrittonellesercizio 1. Questo servira` ad illustrare il fatto che il modello probabilistico non e`unico.

    Spazio S1. Cominciamo con la scelta dello spazio campionario 1. Lunico vincolo chela teoria impone su e` che esso sia sufficientemente ricco: gli esiti devono permettere dirappresentare tutti i risultati dellesperimento. Numeriamo fittiziamente le palline presentinellurna: le rosse da 1 a 5, le blu da 6 a 11 e le verdi da 12 a 19. In tal modo le pallinesono distinguibili e si puo` prendere4

    1 := {disposizioni senza ripetizione di 19 palline 3 alla volta}4Nota bene. Come si elencano le disposizioni? Consideriamo, per brevita`, le disposizioni di 4 oggetti

    1, 2, 3, 4 presi 3 alla volta, che sono in totale 4 3 2 = 24. Lintroduzione di un ordinamento aiuta a scriverelelenco delle disposizioni, ad esempio in ordine crescente

    1, 2, 3; 1, 2, 4; 1, 3, 2; 1, 3, 4; 1, 4, 2; 1, 4, 3;

    2, 1, 3; 2, 1, 4; 2, 3, 1; 2, 3, 4; 2, 4, 1; 2, 4, 3;

    3, 1, 2; 3, 1, 4; 3, 2, 1; 3, 2, 4; 3, 4, 1; 3, 4, 2;

    4, 1, 2; 4, 1, 3; 4, 2, 1; 4, 2, 3; 4, 3, 1; 4, 3, 2.

    24

  • Prendiamo inoltre (possibile poiche 1 e` finito) F1 = P(1). Chiaramente |1| = 19 18 17. E` ragionevole assegnare su F1 la misura equiprobabile, dato che gli esiti di 1sono fisicamente equivalenti dal punto di vista delle operazioni di estrazione. Poiche gliesiti sono disposizioni, 1 e` particolarmente adatto a rappresentare eventi che dipendonodallordine di estrazione delle palline. Ad esempio si consideri levento

    E1 = {e1 = rossa, e2 = blu, e3 = verde},

    dove e1, e2 e e3 indicano rispettivamente la prima, la seconda e la terza pallina estrattae le virgole sottintendono intersezioni, ovvero E1 consiste delle disposizioni con primapallina rossa e seconda blu e terza verde. Gli esiti di 1 che appartengono ad E1 sonotutte e sole le terne (p1, p2, p3) con p1 {1, 2, 3, 4, 5}, p2 {6, 7, 8, 9, 10, 11} e p3 {12, 13, 14, 15, 16, 17, 18, 19}. Il numero degli esiti di questo tipo e` 5 6 8, quindi

    P (E1) =|E||1| =

    5 6 819 18 17 .

    Gli eventi che si ricavano da E1 per permutazione dei colori rosso, verde, blu, ovvero

    E2 = {e1 = blu, e2 = rossa, e3 = verde},

    E3 = {e1 = blu, e2 = verde, e3 = rossa},eccetera (in totale sono 3! = 6) sono equiprobabili (e` immediato, ma meditate se neces-sario). E` ovvio che

    E := le tre palline estratte sono di colori diversi =6i=1

    Ei,

    quindi

    P (E) = 3!5 6 8

    19 18 17 =(

    51

    )(61

    )(81

    )(193

    ) ,dove si lascia come banale esercizio la verifica dellultima identita` che dimostra che ilrisultato trovato coincide con quello derivato inizialmente.

    Spazio S2. Questa e` la formalizzazione dellapproccio intuitivo seguito allinizio. Si prendacome spazio campionario

    2 := {combinazioni senza ripetizione}

    ed F2 = P(2). La cardinalita` di 2 e`

    |2| =(

    19

    3

    ).

    E` ragionevole prendere la misura equiprobabile su F2? La risposta e` s`, perche ogni esito 2 si ottiene come unione dello stesso numero 3! di esiti di 1. e su 1 la misuraequiprobabile e` fisicamente naturale. Ad esempio, allesito (1, 7, 9) 2 corrispondonogli esiti (1, 7, 9), (1, 9, 7), (7, 1, 9), (7, 9, 1), (9, 1, 7), (9, 7, 1) di 1. Lo spazio campionario2 e` piu` piccolo di 1, ma e` sufficiente per descrivere qualunque evento che non dipendadallordine delle estrazioni. Consideriamo levento E 2 definito allinizio:

    E = tre palline di colori diversi = una rossa e una blu e una verde.

    25

  • La cardinalita` di E vale quindi

    |E| =(

    5

    1

    )(6

    1

    )(8

    1

    )e la probabilita` e`, come ci aspettavamo,

    P (E) =|E||2| =

    (51

    )(61

    )(81

    )(193

    ) .Micro-esercizio. Calcolare P (2 rosse e 1 verde).

    Esercizio 2. Calcolo delle probabilita` delle combinazioni del poker. Vedi appendice allalezione.

    Esercizio 3. Per un certo gioco di carte si usa il mazzo da poker ed una mano consiste di13 carte scelte a caso dal mazzo. Calcolare la probabilita` che una mano contenga almenodue carte di picche.

    Soluzione. Si impiega la locuzione scelta a caso per intendere che tutte le possibili sceltesono equiprobabili. Si consideri levento

    E = almeno due picche =13k=2

    Ek,

    dove Ek :=esattamente k picche. La probabilita` di E si puo` calcolare direttamenteoppure passando allevento complementare. Per il calcolo diretto, osservando che gli Eksono disgiunti, vale

    P (E) =13k=2

    P (Ek) =13k=2

    |Ek||| =

    13k=2

    (13k

    )(521313k

    )(5213

    )Passando per il complementare,

    Ec = al piu` 1 picca = 0 picche o 1 picca

    e, osservando che 0 picche e 1 picca sono eventi disgiunti,

    P (E) = 1 P (Ec) = 1(P (0 picche) + P (1 picca)

    )= 1

    (3913

    )(130

    )(5213

    ) (3912)(131 )(5213

    ) ,unespressione computazionalmente molto piu` semplice di P (E).

    Esercizio 4. Corsa campestre di n atleti della stessa abilita`, quindi gli ordini di arrivo sonocasuali (unaltra locuzione comunemente impiegata per dire equiprobabili). Calcolare laprobabilita` che Marco arrivi in k-esima posizione per k = 1, 2, . . . n.

    pk = P (Marco arriva kesimo) = (n 1)!n!

    =1

    n

    La soluzione non dipende da k. Si puo` reinterpretare in vari modi, mazzo di chiavi, forlornhope mission, estrazione da urna ecc.

    26

  • Esercizio 5. Comitato formato scegliendo a caso 6 persone da un gruppo di 10 americani,7 russi e 5 tedeschi. Calcolare la probabilita` che il comitato contenga almeno un rappre-sentante di ognuno dei due paesi europei. Levento dinteresse e` almeno 1 russo e almeno1 tedesco. Siamo passati al complementare che, per De Morgan, e` nessun russo o nessuntedesco che ha probabilita`

    P (0 russi) + P (0 tedeschi) P (0 russi e 0 tedeschi) =(

    156

    )+(

    176

    ) (106 )(226

    )Esercizio proposto. Si consideri un mazzo di carte da briscola (4 semi, 10 valori per ogniseme, per un totale di 40 carte). In un certo gioco una mano consiste di 4 carte estrattea caso dal mazzo. Calcolare la probabilita` dellevento E =la mano contiene almeno1 asso. Calcolate la probabilita` sia direttamente sia passando allevento complementareverificando che le due espressioni ottenute coincidono (e` un esercizio di pura manipolazionedei coefficienti binomiali).

    5.2 Problema del compleanno

    Il birthday problem consiste nel calcolo della probabilita` dellevento

    En = in una classe di n bambini almeno 2 hanno lo stesso compleanno

    Non ripeto qui il calcolo della probabilita` di En che trovate sui vostri appunti:

    P (E) = 1 P (Ec) = 1n1k=1

    (1 k

    365

    )Riporto brevemente il conticino utile per trovare un limite superiore alla probabilita` P (En).Poiche P (Ecn) =

    n1k=1

    (1 k365

    ). Usando la disuguaglianza 1 x ex, valida per ogni

    x R, troviamo che

    P (Ecn) n1k=1

    ek

    365 = en1k=1

    k365 = e

    n(n1)2365

    Volendo trovare n tale che P (En) > 0.5 sara` sufficiente imporre che P (Ecn) < 0.5. Con

    poca algebra si trova che la condizione equivale a n2 n > 2 365 log 2 505.997. Pern = 23 il membro sinistro vale n2 n = 506, quindi n = 23 e` sufficiente. Per dimostrareche n = 23 e` il minimo valore di n che soddisfa alla condizione P (Ecn) < 0.5, si prenden = 22 ci si arma di pazienza e si valuta, meglio farlo scrivendo due righe di codice su uncalcolatore, il valore esatto P (Ec22) che risulta essere maggiore di 0.5. Il paradosso deicompleanni si riferisce al fatto che, in un gruppo di appena 23 persone, la probabilita` chealmeno due di esse abbiano lo stesso compleanno e` maggiore di 0.5.

    Birthday attack. E` una tecnica di hacking, di tipo brute force, basata sul paradosso delcompleanno. Guardate la voce birthday attack sulla wikipedia inglese o chiedete ad unvostro professore dinformatica.

    5.3 Probabilita` condizionata: motivazione della definizione

    Lidea di probabilita` condizionata consente di incorporare informazione a priori nel cal-colo della probabilita` di eventi di interesse. Linformazione a priori riguarda tipicamente

    27

  • il verificarsi o il non verificarsi di certi eventi che sono collegati allevento di cui interes-sa calcolare la probabilita`. Grazie alla probabilita` condizionata e` possibile rappresentaresituazioni sperimentali che evolvono dinamicamente nel tempo. Abbiamo illustrato questodiscorso fumoso con un semplice esempio che indica un modo ragionevole di incorpo-rare linformazione a priori nel calcolo della probabilita` di un evento. Si supponga diavere unurna contenente 80 palline nere e 20 rosse. Effettuiamo 2 estrazioni senza rein-serimento. Vogliamo calcolare probabilita` del tipo P (e1 = rossa), P (e2 = rossa),P (e1 = rossa, e2 = rossa), dove e1 e e2 sono rispettivamente la prima e la secondaestratta e la virgola tra eventi si deve intendere come segno dintersezione. Cominciamoa calcolare queste probabilita` applicando diligentemente quanto visto finora. Dovendotrattare eventi per i quali lordine delle estrazioni e` rilevante sara` opportuno prenderecome spazio campionario

    = {disposizioni senza ripetizione di 2 oggetti scelti da 100}dove || = 100 99, e dotarlo della misura equiprobabile. E` allora immediato calcolare

    P (e1 = rossa, e2 = rossa) =20 19100 99 .

    Per il calcolo di P (e1 = rossa) rappresentiamo dapprima levento {e1 = rossa} comeunione di eventi incompatibili di :

    {e1 = rossa} = {e1 = rossa, e2 = rossa} {e1 = rossa, e2 = nera}da cui si ricava immediatamente

    P (e1 = rossa) =20 19100 99 +

    20 80100 99 =

    20 99100 99 =

    20

    100.

    Tutto questo e` istruttivo, ma poco illuminante. Un approccio meno formale consente didire immediatamente che

    P (e1 = rossa) =20

    100perche nellurna ci sono 20 palline rosse su un totale di 100. Quello che stiamo facendo, inmodo automatico, nel produrre immediatamente la risposta 20100 , e` di costruire mentalmenteun modello probabilistico diverso ovvero

    1 = {i naturali da 1 a 100 di cui 20 sono rossi e 80 neri}e di dotarlo di una misura equiprobabile. Quando tentate di calcolare P (e2 = rossa)usando lo stesso approccio intuitivo vi bloccate perche la composizione dellurna dipendedal risultato, non noto, della prima estrazione. Supponete che qualcuno vi informi delrisultato della prima estrazione e che vi sia consentito tenerne conto. Per denotare ilfatto che state usando questinformazione extra la mettete in evidenza quando scrivete leprobabilita`. Scrivete ad esempio

    P (e2 = rossa | e1 = rossa) = 1999

    che leggerete: la probabilita` che la seconda estratta sia rossa, sapendo che la prima estrattaera rossa, vale 1999 . In effetti se la prima estrazione ha prodotto una rossa rimangononellurna 99 palline, di cui 19 rosse. Confrontiamo questa probabilita`, che tiene conto inmodo intuitivo dellinformazione a priori sulla prima estrazione, con quelle calcolate piu`sopra. Con una semplice manipolazione

    P (e2 = rossa | e1 = rossa) = 1999

    =20 19100 99

    100

    20

    =P (e1 = rossa, e2 = rossa)

    P (e1 = rossa)

    28

  • Diciamo E = {e2 = rossa} ed F = {e1 = rossa}, allora le considerazioni fatte soprasuggeriscono di definire la probabilita` di E sapendo che si e` verificato F come:

    P (E|F ) = P (E F )P (F )

    .

    Nella prossima lezione erigeremo questa formula a definizione formale della probabilita`condizionata, in spazi di probabilita` qualunque. Vedremo inoltre come calcolare P (e2 =rossa) usando le probabilita` condizionate.

    29

  • Appendice alla Lezione 5Combinazioni del poker

    Lo scopo della nota e` di calcolare le probabilita` delle mani nel gioco del poker.

    Consideriamo il mazzo da 52 carte. Le carte si distinguono per seme e valore (chiamatoanche rango). I semi sono 4, denominati Cuori, Quadri, Fiori, Picche. Per ogni seme cisono 13 carte i cui ranghi crescenti sono A, 2, 3, 4, 5, 6, 7, 8, 9, 10, J,Q,K. Si considera inscala crescente anche la sequenza 2, 3, 4, 5, 6, 7, 8, 9, 10, J,Q,K,A.

    Una mano di poker consiste in un sottoinsieme di 5 carte scelte a caso dal mazzo di 52. Ilnumero di mani possibili e` quindi (

    52

    5

    ).

    Tipi di mani nel poker.

    1. coppia (x, x, w, y, z)dove x, x sono due carte dello stesso rango (di semi ovviamente diversi) mentre w, y, zsono tre carte, di ranghi distinti tra loro, e diversi da quello di x.

    2. doppia coppia (x, x, y, y, z)

    3. tris (x, x, x, y, z)

    4. scala 5 carte con ranghi in ordine crescente, non dello stesso seme.

    5. full (x, x, x, y, y)

    6. colore 5 carte dello stesso seme

    7. colore in scala 5 carte dello stesso seme in scala, la piu` alta non e` lasso.

    8. poker (x, x, x, x, y)

    9. scala reale colore in scala con carta piu` alta lasso.

    10. scartine nessuna delle precedenti.

    Calcolo delle combinazioni.Per 1. 2. 3. 5. 8. il conteggio si puo` fare come segue.

    1. (13

    1

    )(4

    2

    )(12

    3

    )(4

    1

    )3Dove

    (131

    )e` il numero di scelte del rango w,

    (42

    )il numero di scelte della coppia tra

    le 4 carte di rango w,(

    123

    )il numero di scelte dei ranghi x, y, z tra i 12 rimasti dopo

    aver eliminato w,(

    41

    )il numero di scelte della carta tra le 4 carte di rango x, ed

    analogamente(

    41

    )le possibili scelte della carta tra le 4 di rango y, e

    (41

    )le scelte della

    carta tra le 4 di rango z.

    2. (13

    2

    )(4

    2

    )2(111

    )(4

    1

    )Dove

    (132

    )e` il numero di possibili coppie di ranghi x, y,

    (42

    )2il numero di scelte della

    carta di rango x moltiplicato il numero di scelte della carta di rango y,(

    111

    )(41

    )il

    numero di scelte del rango z per il numero di scelte della carta di rango z.

    30

  • 3. (13

    1

    )(4

    3

    )(12

    2

    )(4

    1

    )2spiegazione analoga a sopra.

    5. (13

    1

    )(4

    3

    )(12

    1

    )(4

    2

    )spiegazione analoga a sopra.

    8. (13

    1

    )(4

    4

    )(12

    1

    )(4

    1

    )spiegazione analoga a sopra.

    4. Una scala puo` partire da uno qualunque dei ranghi A, 2, 3, 4, 5, 6, 7, 8, 9, 10. Se parte da10 terminera` con A. Le scale possibili sono quindi 1045 poiche` scelta la carta di partenzasi deve poi scegliere, per ognuno dei 5 ranghi consecutivi, il seme della carta. Vanno pero`sottratte le 10 4 scale formate da 5 carte dello stesso seme perche` queste combinazionihanno valore diverso (caso 7. colore in scala). Il numero di scale semplici vale dunque

    10 45 10 4

    7. Si devono contare tutte le scale dello stesso seme che non terminano in asso, poiche`quelle che terminano in asso sono scale reali. Quindi abbiamo

    10 4 4

    9. Le scale reali sono ovviamente4

    6. Per la combinazione colore il seme puo` essere scelto in 4 modi, quindi si devono scegliere5 carte delle 13 di quel seme, e infine sottrarre i colori in scala e le scale reali

    4(

    13

    5

    ) 10 4

    Esercizio: I casi da 1. a 10. sono ovviamente mutuamente esclusivi. Calcolate diretta-mente il numero di mani del caso 10. scartine (basta contare quante sono le mani con 5carte di rango diverso e sottrarre .....) e verificate che la somma dei casi da 1. a 10. valeeffettivamente

    (525

    ).

    31

  • Lezione 6 (Mercoled`, 13 marzo 2013, ore 16:25-17:05)

    6.1 Probabilita` condizionata

    Definizione. Sia (,F , P ) uno spazio di probabilita`, ed F F un evento tale che P (F ) > 0,allora per ogni E F e` ben definita la quantita`

    P (E|F ) := P (E F )P (F )

    ,

    detta probabilita` condizionata di E dato F , o semplicemente probabilita` di E dato F .

    Nota bene. Battezzare una quantita` probabilita` non basta a garantire che essa si com-porti come tale. Sara` dunque necessario giustificare la scelta del nome. Cominiciano conlo studio delle proprieta` piu` elementari di P (E|F ).

    Proprieta` elementari di P (E|F ).(a.) 0 P (E|F ) 1 per ogni E,F .Dimostrazione. Poiche EF F , per la monotonia della probabilita` 0 P (EF ) P (F )da cui discende la proprieta` dividendo per P (F ).

    (b.) E F = P (E|F ) = 0.Dimostrazione. Banale dalla definizione.

    (c.) P (E) = 0 P (E|F ) = 0.Dimostrazione. Infatti E F E implica P (E F ) P ((F ) e dividendo per P (F ) siconclude.

    (d.) P (E) = 1 P (E|F ) = 1.Dimostrazione. E` sempre P (E F ) P (E) + P (F ) 1, e poiche P (E) = 1 per ipotesi,P (E F ) P (F ). Dividendo per P (F ) si trova P (E|F ) = P (EF )P (F ) 1 e per la (a.) siconclude che P (E|F ) = 1.

    Osservazione. P (E|F ) T P (E), a seconda degli eventi E,F e della misura P .Commento. Si noti che e` naturale voler confrontare P (E) con P (E|F ). Intuitivamente,se E e` levento dinteresse e P la misura nota, P (E) e` la probabilita` di E in assenza diulteriori informazioni, mentre P (E|F ) e` la rivalutazione della probabilita` di E tenendoconto dellinformazione si e` verificato levento F. Esempio. E =il paziente guarisce,F =il paziente ha assunto il farmaco. La CUF (Commissione Unica del Farmaco) metteil farmaco in fascia A se P (E|F ) > P (E), in fascia B se P (E|F ) = P (E) o ne proibisce lavendita se P (E|F ) < P (E).

    Esercizio svolto in aula. Lancio due dadi distinguibili, ad esempio uno rosso ed uno blu.Tutti i risultati sono equiprobabili. Calcolare le probabilita` condizionate

    P (esce 6 sul dado rosso | la somma dei dadi e` i), i = 2, 3, . . . 12.

    Interpretazione empirica della probabilita` condizionata

    Nellinterpretazione empirica (frequentista) della probabilita` si suppone di poter effettuareun esperimento in condizioni identiche un certo numero di volte n. Per ogni evento E Fsi definisce la probabilita` empirica Pn(E) =

    nEn , dove nE e` il numero di volte che si e`

    32

  • verificato E nelle n prove. Ragionando allo stesso modo e` naturale definire la probabilita`condizionata empirica come

    Pn(E|F ) = Pn(E F )Pn(F )

    =nEFnF

    .

    Esempio (trial clinico).

    Negli studi osservazionali (sociali, biomedici, ecc.) i modelli probabilistici si costruisconoutilizzando probabilita` empiriche. Ad esempio per valutare lefficacia di un farmaco, dettoG =malato guarisce e F =malato assume farmaco (e per convenienza tipograficaG = Gc, F = F c), interessa confrontare P (G|F ) con P (G). Allo scopo si organizzanoesperimenti, detti trial clinici, per valutare le probabilita` empiriche. Una versione moltorozza di trial clinico e` la seguente. Ad ogni individuo di una popolazione di n malati siassociano due bit (g, f), con lovvia interpretazione f = 1 lindividuo assume farmaco,f = 0 lindividuo non assume il farmaco ed analogamente g = 1 lindividuo guarisce,g = 0 lindividuo non guarisce. Dopo avere rilevato i valori (g, f) di ogni individuo, siriassumono i dati dellintera popolazione in una cosiddetta tabella di contingenza 2 2della forma

    F F

    G nGF nGF nG

    G nGF nGF nG

    nF nF n

    dove nGF e` il numero di malati che guariscono e assummono il farmaco, nGF il numerodi quelli che guariscono e non assumono il farmaco ed analogamente si interpretano nGF ,nGF , nF , nF , nG, nG. Per definizione, la colonna piu` a destra (colonna marginale) haper elementi le somme delle righe e la riga piu` in basso (riga marginale) ha per elementila somma delle colonne. Convincetevi della correttezza dei valori indicati nella colonna enella riga marginali, ovvero nGF +nGF = nG, eccetera. Per definizione lelemento in bassoa destra e` la somma degli elementi della colonna marginale, che coincide (convincetevene)con la somma degli elementi della riga marginale, ovvero n (convincetevene), la cardinalita`della popolazione. I quattro numeri nGF , nGF , nGF e nGF contengono le informazioninecessarie per il calcolo di tutte le probabilita` empiriche dinteresse, ad esempio:

    Pn(G|F ) = nGFnF

    =nGF

    nGF + nGF

    e anche

    Pn(G) =nGn

    =nGF + nGF

    nGF + nGF + nGF + nGF

    Esercizio. Verificare che vale la relazione Pn(G|F ) > Pn(G) tra le probabilita` empiriche(farmaco utile) se e solo se il determinante della matrice di contingenza 2 2 e` positivo.

    33

  • La probabilita` condizionata come misura di probabilita`

    Teorema. Sia F F con P (F ) > 0 fissato, allora la mappa P (|F ) : F R che assegnaE 7 P (E|F ) e` una misura di probabilita`.Dimostrazione. Consiste nella verifica degli assiomi. Vedi appunti di lezione!

    Dal teorema appena dimostrato segue che P (|F ) gode di tutte le proprieta` di una misuradi probabilita`. In particolare

    (a.) P (Ec|F ) = 1 P (E|F ), per ogni E F .(b.) P (E G|F ) = P (E|F ) + P (G|F ) P (E G|F ) per ogni E,G.

    ATTENZIONE

    La mappa P (E|) : F R che assegna F 7 P (E|F ) non e` una misura di probabilita`.Esercizio. Costruire un esempio dove P (E|F c) 6= 1 P (E|F ).

    6.2 Formula di moltiplicazione e applicazioni

    Se sia E che F hanno probabilita` strettamente positiva sono ben definite entrambe leprobabilita` condizionate

    P (E|F ) = P (E F )P (F )

    , P (F |E) = P (E F )P (E)

    da cui si ricavano le identita` (formule di moltiplicazione)

    P (E F ) = P (E|F )P (F ) = P (F |E)P (E)

    Le formule di moltiplicazione sono spesso utili nel calcolo della probabilita` di eventi din-teresse. Sebbene equivalenti dal punto di vista teorico, dal punto di vista operativo nonsempre una vale laltra.

    Esempio. Tornando allesempio motivazionale dellultima lezione, abbiamo

    P (e1 = rossae2 = nera) = P (e2 = nera | e1 = rossa)P (e1 = rossa)= P (e1 = rossa | e2 = nera)P (e2 = nera)

    dove la prima identita` consente un calcolo immediato, mentre la seconda e` inservibile,poiche non sappiamo ancora come calcolare P (e2 = nera).

    Le identita` viste sopra sono le piu` semplici formule di moltiplicazione. Lidea puo` sipero` iterare per ottenere formule di moltiplicazione di piu` vaste proporzioni. Ad esempio,per qualunque terna E,F,G F , usando la definizione di probabilita` condizionata, e`immediato verificare che

    P (E F G) = P (E (F G)) = P (E|F G)P (F |G)P (G).

    Se si ha a che fare con una famiglia finita {Ei}ni=1 di eventi, vale ad esempio

    P

    (ni=1

    Ei

    )= P

    (En

    n1i=1

    Ei

    )P

    (En1

    n2i=1

    Ei

    ). . . P (E2|E1)P (E1).

    34

  • Naturalmente di formule di questo tipo se ne possono scrivere parecchie, permutando glieventi Ei. Sono tutte corrette, ma operativamente alcune saranno piu` comode di altrenelle specifiche applicazioni.

    Esempio 1. Da un mazzo di carte da poker estraggo 3 carte senza reinserimento. Calcolarela probabilita` che nessuna delle 3 carte sia di Cuori. Svolto in aula sia con calcolo direttosia con la formula di moltiplicazione.

    Esempio 2 (urna di Polya). In unurna ci sono inizialmente 3 palline Bianche e 5 Rosse.Effettuo le estrazioni con la seguente regola: ad ogni estrazione reinserisco nellurna lapallina appena estratta e ne aggiungo 2 dello stesso colore di quella appena estratta.Abbiamo calcolato la probabilita` dellevento

    P (e1 = B, e2 = B, e3 = R) = P (e3 = R|e1 = B, e2 = B)P (e2 = B|e1 = B)P (e1 = B)=

    5

    12

    5

    10

    3

    8.

    Piu` in generale lurna di Polya e` definita come segue: in unurna sono inizialmente presentib palline Bianche ed r palline Rosse. Ad ogni estrazione si reinserisce nellurna la pallinaappena estratta e se ne aggiungono c dello stesso colore di quella appena estratta, dovec Z e` un intero fissato. Si noti che c = 1 corrisponde al caso standard di campionamentosenza reinserimento, c = 0 al caso standard di campionamento con reinserimento, c = 2 alcaso particolare visto sopra. Come in precedenza calcoliamo ad esempio

    P (e1 = B, e2 = B, e3 = R) =r

    b+ r + 2c

    b+ c

    b+ r + c

    b

    b+ r.

    Osservazione. Abbiamo rapidamente visto che tutte le permutazioni di e1 = B, e2 =B, e3 = R (ad esempio e1 = B, e2 = R, e3 = B, e cos` via per tutte le altre) hannola stessa probabilita`. In effetti, nella precedente formula, i denominatori sono invarianti,mentre i numeratori permutano. Lo stesso vale se invece di 3 estrazioni se ne eseguono n.Tecnicamente si dice che gli eventi {e1 = B}, {e2 = B}, {e3 = R} sono scambiabili. Lanozione di scambiabilita` per eventi e` di fondamentale importanza in Statistica, ed e` dovutaa Bruno de Finetti (1937). Lurna di Polya e` un modello probabilistico estremamenteflessibile, utile in svariati campi applicativi. Avevo menzionato lo studio della propagazionedi uninfezione virale in una popolazione umana o in una rete di calcolatori.

    6.3 Formule della probabilita` totale e di Bayes

    Formula della probabilita` totale

    Teorema. Sia {F, F c} una partizione di , con 0 < P (F ) < 1, allora per ogni E F valela formula della probabilita` totale:

    P (E) = P (E|F )P (F ) + P (E|F c)P (F c).

    Dimostrazione. E` sufficiente scrivere la decomposizione disgiunta E = (E F ) (E F c),applicare laddittivita` della misura P (E) = P (E F ) + P (E F c) ed infine utilizzare laformula di moltiplicazione per sviluppare entrambi gli addendi che compaiono a destra.

    In generale, se {Fi}ni=1 e` una partizione di , con P (Fi) > 0 per ogni i, la formula dellaprobabilita` totale e`

    P (E) =nj=1

    P (E|Fj)P (Fj).

    35

  • Esempio 1. Tornando allesempio motivazionale introdotto alla fine della scorsa lezione,la formula della probabilita` totale fornisce

    P (e2 = R) = P (e2 = R|e1 = R)P (e1 = R) + P (e2 = R|e1 = N)P (e1 = N)=

    19

    99

    20

    100+

    20

    99

    80

    100=

    20

    100.

    Osservazione. Nonostante le palline siano estratte senza reinserimento P (e2 = R) =P (e1 = R). Questo risultato non e` del tutto intuitivo. In forma piu` estrema, se nellurnaci sono 99 palline Nere ed 1 Rossa, e si effettuano estrazioni senza reinserimento, valeP (e1 = R) = P (e2 = R) = = P (e100 = R) = 1100 . Si confronti con lesercizio 4 dellasezione 5.1.

    Esempio 2. Unazienda di assemblaggio PC acquista chip di memoria da tre diversi for-nitori. Il fornitore A garantisce che la percentuale di chip difettosi e` inferiore al 2%, ilfornitore B garantisce meno del 2%, mentre il fornitore C garantisce meno del 4%. Luf-ficio acquisti ordina il 50% dei chip da A, il 25% da B ed il 25% da C. I chip vengonoimmagazzinati in modo casuale. Il tecnico addetto prende un chip a caso dal magazzino elo inserisce sulla scheda madre. Aiutate lufficio vendite a calcolare la percentuale di chipdi memoria difettosi che puo` garantire ai clienti che acquistano partite di PC assemblati.

    Soluzione. E` fondamentale interpretare correttamente i dati del problema. Detto Dlevento chip difettoso, con ovvio significato degli altri simboli, i dati sono P (D|A) =0.02, P (D|B) = 0.02, P (D|C) = 0.04, inoltre P (A) = 0.5, P (B) = 0.25, P (C) = 0.25. Glieventi A, B, C formano una partizione poiche ogni chip del magazzino proviene da uno,ed uno solo, dei produttori A, B o C. Ci sono le condizioni per applicare la formula dellaprobabilita` totale che fornisce

    P (D) = P (D|A)P (A) +P (D|B)P (B) +P (D|C)P (C) = 0.02 0.5 + 0.02 0.25 + 0.04 0.25.

    Formula di Bayes

    Spesso e` di interesse calcolare le probabilita` P (Fi|E), dette probabilita` a posteriori (leprobabilita` P (Fi) sono invece dette probabilita` a priori). Utilizzando la definizione diprobabilita` condizionata e la formula della probabilita` totale si trova la formula di Bayes:

    P (Fi|E) = P (E Fi)P (E)

    =P (E|Fi)P (Fi)nj=1 P (E|Fj)P (Fj)

    valida per i = 1, 2, . . . n. In alcuni casi, si veda lesempio qui sotto, il calcolo delle prob-abilita` a posteriori e` di fondamentale importanza applicativa. Lenorme utilita` della for-mula di Bayes deriva dal fatto che le probabilita` a posteriori sono espresse in termini diprobabilita` note, usualmente dati del problema.

    Test diagnostici (signal detection)

    Un test diagnostico e` un metodo per rilevare la presenza di una certa condizione di in-teresse. Test diagnostici si possono effettuare nei piu` disparati contesti. Ad esempio,unantenna radar esplora i cieli per rilevare la presenza o lassenza di aerei amici o nemici.Il principio di funzionamento del radar e` quello della riflessione delle onde elettromag-netiche ed e` soggetto a numerose fonti di rumore e quindi di errore. Riflessioni multiple,presenza di stormi di uccelli o di astronavi aliene, condizioni meteo, queste ed altre ragionicomportano che la rilevazione radar non e` mai completamente affidabile. Oppure si pensiad un test di gravidanza. Un kit acquistato in farmacia per pochi euro fornisce un risultato

    36

  • che e` soggetto a varie fonti derrore legate alla variazione dei livelli ormonali normali indonne diverse.

    Diciamo T+ e T gli eventi il test da` risultato positivo, il test da` risultato negativorispettivamente. Analogamente diciamo D+ e D gli eventi la condizione e` presente ela condizione e` assente (si suppone che esistano metodi certi per rilevare il verificarsi diD+ o D, ad esempio ci si puo` accertare visualmente della presenza o meno di un aereoin una no-fly zone con un volo di ricognizione, il ginecologo effettua accurati esami dilaboratorio per accertare la gravidanza della sua paziente ecc.) Per un test ideale si deveavere P (T+|D+) = 1 e P (T|D) = 1, ma nel mondo reale i test diagnostici non sono