21
SABO ELEMENTI DI CALCOLO COMBINATORIO CALCOLO DELLE PROBABILITA' VARIABILI CASUALI TEORIA DEI GIOCHI

ELEMENTI DI CALCOLO COMBINATORIO - … · 6 CALCOLO DELLE PROBABILITÀ Evento: fatto che può risultare vero o falso; può assumere le seguenti modalità: evento certo: fatto che

Embed Size (px)

Citation preview

SABO

ELEMENTI

DI

CALCOLO COMBINATORIO

CALCOLO DELLE PROBABILITA'

VARIABILI CASUALI

TEORIA DEI GIOCHI

1

ELEMENTI DI CALCOLO COMBINATORIO

Dato un insieme di n elementi

a1, a2, a3, ..., an

è possibile da questo ottenere dei sottoinsiemi, tutti tra loro diversi, in base alla scelta e

all'ordinamento con cui vengono presi gli n elementi.

Il calcolo combinatorio studia i diversi modi con cui è possibile costruire dei sottoinsiemi partendo

da un insieme di n elementi, prendendo ogni volta un certo numero di essi.

Una prima grossa distinzione che si può fare per questi gruppi è tra:

gruppi semplici (sottoinsiemi senza ripetizione) formati da elementi che si presentano non più di

una volta;

gruppi con ripetizione (sottoinsiemi con ripetizione) formati da elementi che possono presentarsi

più di una volta.

Approfondendo poi lo studio si può notare che ogni gruppo può essere diversificato dagli

altri o per come sono posizionati gli elementi al suo interno o per la scelta degli elementi stessi o

per entrambe le cose. Si fa distinzione, in tal caso, tra:

Disposizioni (semplici e composte);

Permutazioni (semplici e composte);

Combinazioni (semplici e composte).

Prima, però, di passare alle varie definizioni è opportuno tener presente la seguente regola

base:

Siano A1, A2, A3, ..., An degli insiemi di elementi, il numero dei gruppi di elementi che si possono

formare in modo che il primo elemento del gruppo appartenga ad A1, il secondo ad A2, ..., l'n-mo

ad An è dato dal prodotto del numero di elementi presenti in ciascuno degli insiemi.

Esempio: si hanno 4 palline rosse, 5 azzurre, 2 bianche, 6 verdi; il numero di gruppi che si

possono formare con tali elementi è dato dal prodotto delle palline rosse per le azzurre per le

bianche per le verdi:

4 5 2 6 = 240

cioé, volendo utilizzare tutte le palline a disposizione, si possono formare 240 gruppi differenti.

2

DISPOSIZIONI SEMPLICI

Dati n elementi distinti, si dicono disposizioni semplici, di classe k, degli n elementi (k < n)

tutti i gruppi che si possono formare con gli n elementi prendendone k di essi, in modo che ogni

gruppo differisca dagli altri per almeno uno degli elementi oppure per l'ordine con cui essi sono

contenuti:

Dn,k = n(n-1)(n-2)....[n-(k-1)]

Esempio: si consideri un insieme formato da 4 colori: bianco, giallo, rosso, verde; si vuole

sapere quanti gruppi di tre colori tra loro diversi è possibile formare (n = 4; k = 3): come primo

colore è possibile sceglierne uno qualunque, per cui si hanno 4 possibilità di scelta; una volta

fissato il primo colore, per la scelta del secondo ci sono tre possibilità; la terza scelta, infine è solo

tra due possibilità, essendo rimasti solo due colori

Scelta

1° colore

Scelta

2° colore

Scelta

3° colore

4

possibilità

3

possibilità

2

possibilità

In definitiva è come se si scegliesse il primo colore da un insieme di 4 elementi, il secondo

da un insieme di 3 elementi, il terzo da un insieme di due elementi. Per la regola base il numero

delle disposizioni è, quindi, dato da: D4,3 = 4 3 2 = 24

DISPOSIZIONI CON RIPETIZIONE

Dati n elementi distinti, si dicono disposizioni con ripetizione, di classe k, tutti i gruppi che si

possono formare con gli n elementi (in ciascuno dei quali uno stesso elemento può presentarsi

fino a k volte), in modo che ogni gruppo differisca dagli altri o per un elemento o per l'ordine o per

la ripetizione (in questo caso si può avere anche k > n)

D'n,k = nk

Esempio: si consideri un insieme formato da 4 colori: bianco, giallo, rosso, verde; si vuole

sapere quanti gruppi di tre colori è possibile formare (n = 4; k = 3): per risolvere il problema si

consideri che ogni elemento scelto per formare un gruppo una volta preso sia poi rimesso

nell'insieme, ciò porta al seguente schema:

Scelta

1° colore

Scelta

2° colore

Scelta

3° colore

4

possibilità

4

possibilità

4

possibilità

e, quindi, risulta:

D'4,3 = 4 4 4 = 43 = 64

3

PERMUTAZIONI SEMPLICI

Dati n elementi, si dicono permutazioni semplici degli n elementi tutti i gruppi che si

possono formare prendendo ogni volta tutti gli elementi (in questo caso è n = k)

Dn,n = n(n-1)(n-2)...[n-(n -1)] Pn = n(n-1)(n-2)...321

solitamente si scrive:

Pn = n!

[n! = n fattoriale]; per il calcolo di n! valgono le seguenti posizioni:

n! = n(n-1)! ; 1! = 1 ; 0! = 1

Esempio: si consideri un insieme formato da 4 colori:

bianco, giallo, rosso, verde

si vuole sapere quanti gruppi distinti di 4 colori ognuno è possibile formare: dallo schema risulta

Scelta

1° colore

Scelta

2° colore

Scelta

3° colore

Scelta

4° colore

4

possibilità

3

possibilità

2

possibilità

1

possibilità

e quindi:

4! = 4321 = 24

PERMUTAZIONI CON RIPETIZIONE

Si hanno quando tra gli n elementi ce ne sono m ugali (m n); in questo caso, non potendo

distinguere la posizione che gli m elementi occupano all'interno dei vari gruppi, si avrebbero delle

permutazioni uguali tra loro contro l'asserto che vuole gruppi distinti. Per eliminare tale

inconveniente, bisogna dividere il numero totale delle permutazioni per il numero delle

permutazione degli m elementi uguali:

Pn!

m!

(m)

n

Più in generale, se tra gli n elementi ce ne sono identici tra loro, identici tra loro,

identici tra loro e così via, risulta:

Pn

( , , , . . . ) n!

!

! ! . . . . .

4

COMBINAZIONI SEMPLICI

Dati n elementi distinti (n 2), si dicono combinazioni semplici, di classe k (k < n), tutti

igruppi che si possono formare con gli n elementi prendendone k di essi, in modo che ogni gruppo

differisca dagli altri per almeno un elemento (i gruppi devono essere formati da elementi tutti

diversi tra loro)

C

D

k!

n (n 1) (n 2) . . . n (k 1)

k!n,k

n,k

molto più usata per le combinazioni è la formula:

Cn

k

n!

k! (n k)!n,k

(Legge dei tre fattoriali)

dove il termine n

k che si legge "n su k" è detto coefficiente binomiale; da tener presente che si

pone per convenzione:

n

1n ;

n

n1 ;

n

01

Altre due particolarità o leggi di cui gode il coefficiente binomiale sono:

la Legge delle classi complementari: n

k

n

n - k

la Legge di Stiefel: n

k

n - 1

k

n - 1

n - k

COMBINAZIONI CON RIPETIZIONE

Dati n elementi distinti, si dicono combinazioni con ripetizione di classe k (in questo caso

può essere anche k > n), tutti i gruppi che si possono formare con gli n elementi (in ciascuno dei

quali uno stesso elemento può essere ripetuto fino a k volte), in modo che ogni gruppo differisca

dagli altri per almeno un elemento o per le ripetizioni con cui un elemento si presenta:

C'

n (n 1) (n 2) . . . n (k 1)

k!n,k

5

SVILUPPO DELLA POTENZA DI UN BINOMIO

Si sa che lo sviluppo di un binomio di grado n è un polinomio ordinato secondo le potenze

decrescenti del primo termine e crescenti del secondo termine; orbene, il coefficiente binomiale

permette di calcolare la parte numerica dei monomi costituenti il polinomio secondo la formula di

Newton:

a b an

1a b

n

2a b . . .

n

ka b . . .

n

n 1a b b

n n n 1 n 2 2 n k k n 1 n n

6

CALCOLO DELLE PROBABILITÀ

Evento: fatto che può risultare vero o falso; può assumere le seguenti modalità:

evento certo: fatto che deve verificarsi necessariamente;

evento impossibile: fatto che non ha possibilità di verificarsi;

evento incerto: fatto per il quale non è possibile dire a priori se si verifica o meno.

Probabilità: misura il grado di possibilità del verificarsi di un evento.

In pratica la probabilità si prefigge di tradurre in termini numerici il fatto che si realizzi, ed in

quale misura, un evento incerto. Ciò porta ad associare ad un evento E un numero p(E) compreso

tra il valore 0 (misura dell'evento impossibile) ed il valore 1 (misura dell'evento certo).

TEORIA CLASSICA DELLA PROBABILITÀ

Probabilità: rapporto tra il numero dei casi favorevoli, m, al verificarsi dell'evento ed il numero dei

casi equipossibili, n (casi che hanno tutti la stessa possibilità di verificarsi).

p(E) = m

n

m = 0 p(E) = 0 evento impossibile

m = n p(E) = 1 evento certo

0 m n 0 p(E) 1 evento probabile

Probabilità dell'evento contrario:

m = numero di casi favorevoli

n - m = numero di casi contrari

n = numero di casi equipossibili

p( E

_

) = q(E) = n - m

n = 1 -

m

n = 1 - p(E)

Teorema fondamentale della Probabilità:

p(E) + q(E) = 1

7

TEORIA FREQUENTISTICA DELLA PROBABILITÀ

Frequenza Relativa: rapporto tra il numero di volte, r, che si verifica un evento ed il numero di

prove indipendenti, n, eseguite tutte nelle stesse condizioni

f = r

n

La frequenza può assimilarsi alla probabilità in base alla:

Legge Empirica del Caso

in un gran numero di prove, tutte uguali ed eseguite nelle stesse

condizioni, ciascuno degli eventi possibili si manifesta con una

frequenza relativa che è approssimativamente uguale alla sua

probabilità e l'approssimazione è tanto maggiore quanto più grande è

il numero delle prove effettuate.

lim = r

n = p(E)

n

Probabilità: valore limite a cui si avvicina sempre più la frequenza via via che il numero delle

prove eseguite diventa sempre più grande.

TEORIA SOGGETTIVA DELLA PROBABILITÀ

Probabilità: misura del grado di fiducia che un individuo coerente attribuisce, secondo le sue

informazioni ed opinioni, al verificarsi di un evento.

coerenza: stima del grado di fiducia effettuata nell'intervallo (0,1).

una definizione più operativa è:

Probabilità: rapporto tra il prezzo, s, che un individuo reputa equo pagare per poter ricevere il

compenso, S, nel caso che si verifichi un certo evento

p(E) = s

S

8

GIOCO DEL LOTTO

Da un'urna contenente n numeri (n = 1, ..., n) se ne estraggono m; calcolare la probabilità che tra

gli m numeri estratti se ne ottengano k prefissati.

casi equipossibili: sono dati dalla combinazione di n elementi presi a gruppi di m

C =

n

m =

n!

m! n - m !n,m

casi favorevoli: si ottengono eliminando dall'urna i k numeri prefissati e considerando le

combinazioni che si ottengono da (n-k) elementi presi a gruppi di (m-k)

C =

n - k

m - k =

(n - k)!

(m - k)! n - k(n-k),(m-k)

m k m k n k!

!

! ! =

n - k

in pratica per i casi favorevoli si suppone che i k numeri prefissati siano elementi fissi che entrano

comunque in combinazione con gli altri elementi.

Probabilità: rapporto tra casi favorevoli e casi equiprobabili:

p =

n

m

= m! n - k

n! m - k !

n - k

m - k

!

Esempio: calcolare la probabilità che esca un terno sulla ruota di Napoli

n = 90; m = 5; k = 3

p =

5! 90 - 3 !

90! 5 - 3 ! = 0,00008512

9

TEOREMI SULLA PROBABILITÀ

Evento Unione: dati due eventi, A e B, l'evento unione C è vero se è vero almeno uno dei due

Evento Intersezione: dati due eventi, A e B, l'evento intersezione C è vero se sono veri i due

n. b. tali concetti sono estendibili anche al caso in cui gli eventi sono più di due.

Eventi Incompatibili: eventi tali che il verificarsi dell'uno esclude in modo assoluto il verificarsi

dell'altro.

Eventi Compatibili: eventi tali che il verificarsi dell'uno non esclude il verificarsi dell'altro;

possono essere dipendenti o indipendenti.

Eventi Indipendenti: eventi compatibili tali che il verificarsi dell'uno non

influenza il verificarsi dell'altro.

Eventi Dipendenti: eventi compatibili tali che il verificarsi dell'uno influenza

il verificarsi dell'altro.

eventi, è falso se sono falsi entrambi gli eventi

C = A B

eventi, è falso se sono falsi entrambi gli eventi

C = A B

eventi; è falso se è falso almeno uno dei

due eventi:

C = A B

10

TEOREMA DELLA PROBABILITÀ TOTALE

Caso di Eventi Incompatibili

dati due eventi A e B, la probabilità dell'evento unione A B è pari alla somma delle probabilità dei

singoli eventi:

p(A B) = p(A) + p(B)

il teorema è estendibile anche al caso di più

eventi; in particolare, se gli eventi sono a due

a due incompatibili ed uno di essi deve

necessariamente verificarsi, l'evento unione è l'evento certo:

p(E1E2...En) = p(Ei) = 1

(vedi in proposito il teorema fondamentale p + q = 1).

Caso di Eventi Compatibili

dati due eventi A e B, la probabilità dell'evento unione A B è pari alla somma delle probabilità dei

singoli eventi diminuita della probabilità

dell'evento intersezione A B:

p(A B) = p(A) + p(B) - p(A B)

n. b. questo caso contiene come caso

particolare quello precedente; se, infatti,

gli eventi sono tra loro incompatibili risulta A B = 0 e, quindi, p(A B) = 0

anche in questo caso il teorema è estendibile a più eventi; così, ad esempio, nel caso di tre eventi

A, B, C si ha:

p(ABC) = p(A) + p(B) + p(C) - p(AB) - p(BC) +

- p(ABC)

n. b. in pratica la probabilità dell'evento unione si

riconosce dal fatto che nel problema è citata la

congiunzione "o" (calcolare la probabilità che

accada questo o che accada quello).

11

Esempio: un'urna contiene 100 palline numerate da 1 a 100; calcolare la probabilità che

estraendo una pallina si scelga un numero: a) divisibile per 10 o 13; b) divisibile per

10 o 8.

caso a)

evento A: numeri divisibili per 10 = 10

AB = 0

evento B: numeri divisibili per 13 = 7

p(A) + p(B) = 10

100 +

7

100 =

17

100

caso b)

evento A: numeri divisibili per 10 = 10

AB 0

evento B: numeri divisibili per 8 = 12 (almeno due numeri in comune)

p(A) + p(B) - p(A B) = 10

100 +

12

100 -

2

100=

1

5

12

TEOREMA DELLA PROBABILITÀ COMPOSTA

Caso di Eventi Indipendenti

dati due eventi A e B, la probabilità dell'evento intersezione, AB, è pari al prodotto delle

probabilità dei singoli eventi:

p(AB) = p(A) * p(B)

il teorema resta valido anche se gli eventi sono più di due:

p(E1E2...En) = P(E1) *p(E2) *...*p(En) = p(Ei)

Caso di Eventi Dipendenti

dati due eventi A e B tali che B sia condizionato da A (probabilità di B subordinata al verificarsi di

A), la probabilità dell'evento intersezione, A B, è pari al prodotto della probabilità di A per la

probabilità condizionata di B:

p(AB) = p(A) * p(B/A)

da questa regola deriva, poi, che:

p(B / A) =

p A B

p(A)

cioé la probabilità dell'evento condizionato può essere vista come il rapporto tra i casi favorevoli

all'evento intersezione ed i casi favorevoli all'evento condizionante.

Il teorema continua ad essere valido anche se gli eventi sono più di due:

p(E1E2...En) = P(E1) *p(E2/E1) *p(E3/ E1E2)*...*p(En/ E1E2...En-1) = p(Ei)

essendo l'ultimo fattore, p(En / E1E2...En-1), la probabilità che si attribuisce all'evento En quando

risultano veri tutti gli n-1 eventi che lo precedono.

n. b. in pratica la probabilità dell'evento intersezione si riconosce dal fatto che nel problema è

citata la congiunzione "e" (calcolare la probabilità che si verifichi questo evento e

quell'evento).

Esempio: da un'urna contenente 17 palline bianche, 8 rosse, 5 verdi, si estraggono

successivamente 2 palline. Calcolare la probabilità che entrambe le palline estratte

siano bianche nell'ipotesi che:

a) dopo la prima estrazione, la pallina estratta viene rimessa nell'urna;

b) dopo la prima estrazione, la pallina estratta non viene rimessa nell'urna.

13

caso a)

evento A: prima pallina bianca = 17

A B = due palline bianche

evento B: seconda pallina bianca = 17 (n = 17 + 8 +5 = 30)

p = p(A) p(B) = 17

30

17

30 =

289

900 = 0,3211

caso b)

evento A: prima pallina bianca = 17

A B = due palline bianche

evento B: seconda pallina bianca = 16 (nA = 17 + 8 +5 = 30)

(nB = 16 + 8 +5 = 29)

p = p(A) p(B / A) = 17

30

16

29 =

272

870 = 0,3126

14

TEOREMA DI BAYES

calcola la probabilità di un evento E che può essere originato da diverse cause H i (i = 1,n) tra loro

incompatibili e delle quali sono note le probabilità (Hi).

In pratica risolve il problema:

supposto che si sia verificato l'evento E, qual'è la

probabilità che esso sia stato originato dalla causa Hi.

p(H / E) = p(H ) p(E / H )

p(H ) p(E / H )i

i i

i ii 1

n

p(Hi /E): probabilità che la causa Hi abbia generato l'evento E;

p(Hi): probabilità che agisca la causa Hi;

p(E/Hi): probabilità che l'evento E si verifichi in dipendenza della causa Hi;

p(Hi) * p(E/Hi): probabilità che agisca la causa Hi e che, subordinatamente a tale fatto, si verifichi

l'evento E.

n. b. si tenga presente che, essendo le cause tra loro incompatibili, deve risultare:

p(H /E) = 1ii 1

n

Esempio: tre urne, esternamente identiche, hanno la seguente composizione:

urna di tipo A, contenente 4 palline rosse e 6 palline gialle;

urna di tipo B, contenente 7 palline rosse e 3 palline gialle;

urna di tipo C, contenente 5 palline rosse e 5 palline gialle;

Calcolare la probabilità che, estraendo una pallina rossa, essa provenga dall'urna di tipo A.

p(A) = probabilità che sia rossa da A = 4/10

p(B) = probabilità che sia rossa da B = 7/10

p(C) = probabilità che sia rossa da C = 5/10

p(E/A) = probabilità che l’evento si generato da A = 1/3

p(E/B) = probabilità che l’evento si generato da B = 1/3

p(E/C) = probabilità che l’evento si generato da C = 1/3

p(A / E) =

1

3

4

10

1

3

4

10

1

3

7

10

1

3

5

10

= 4

16 = 0,25

15

VARIABILI CASUALI

Considerando il lancio di due dadi, il risultato che si ottiene sommando le due facce è

certamente una variabile; per di più i valori che essa assume dipendono dal caso ed ognuno di

essi può presentarsi con una certa probabilità, inoltre il verificarsi di un valore esclude

automaticamente il verificarsi di un altro valore (eventi incompatibili).

Somma Numero Probabilità

2° DADO Facce Volte di Verifica

1 2 3 4 5 6 2 1 1/36

D

AD

O

1 2 3 4 5 6 7 3 2 2/36

2 3 4 5 6 7 8 4 3 3/36

3 4 5 6 7 8 9 5 4 4/36 totale degli eventi nel lancio

4 5 6 7 8 9 10 6 5 5/36 di due dadi: 62

5 6 7 8 9 10 11 7 6 6/36 eventi equiprobabili

6 7 8 9 10 11 12 8 5 5/36 spazio degli eventi

9 4 4/36

10 3 3/36

11 2 2/36

12 1 1/36

Si può allora dire che la somma delle facce di due dadi è una variabile casuale.

Variabile Casuale: variabile che può assumere un certo valore all’interno di un insieme di valori

tra loro incompatibili ed aventi ognuno una certa probabilità di verificarsi

Vv , v , v ,..., v

p ,p ,p ,...,p ,1 2 3 n

1 2 3 n

(pi = 1) ; p(V = vi) = pi ; 0 p(V = vi) 1

Generalizzando il problema, se esiste una funzione F(x) rappresentata da:

F(X = xi) = pi (i=1,2,3,...,n)

avente per dominio l’ insieme degli xi e per codominio l’ insieme delle probabilità pi, tale funzione

rappresenta la distribuzione di probabilità della variabile casuale x.

pnumero di volte

eventi equiprobabili

16

Come tutte le funzioni, anch’essa è suscettibile di una rappresentazione grafica; costruendo,

infatti, un piano cartesiano sulle cui ascisse sono posti i valori assunti dalla variabile casuale e sulle

cui ordinate sono poste le relative probabilità si ha la curva di distribuzione di probabilità.

Naturalmente in base ai valori assunti dalla variabile casuale si può avere una curva definita a tratti

(distribuzione di probabilità discreta) oppure una curva continua (distribuzione di probabilità

continua).

Le variabili casuali, dette anche variabili aleatorie o variabili stocastiche, rappresentano una

parte fondamentale del calcolo delle probabilità e sono molti i problemi di natura probabilistica il cui

studio conduce alla considerazione di variabili casuali.

FUNZIONE DI RIPARTIZIONE

Si consideri ora il seguente problema:

calcolare la probabilità che, nel lancio di due dadi, la somma delle facce risulti minore di 5.

X 2 3 4 5 6 7 8 9 10 11 12

1/36, 2/36, 3/36, 4/36, 5/36, 6/36, 5/36, 4/36, 3/36, 2/36, 1/36

p X p X p X p X 5 2 3 41

36

2

36

3

36

6

36

1

6

il calcolo è stato effettuato utilizzando il teorema della probabilità totale (applicato ad eventi

incompatibili).

In pratica, si sono cumulate (sommate) le probabilità dei singoli valori, disposti in ordine

crescente, che può assumere la variabile casuale; ciò porta al concetto di funzione di ripartizione o

funzione cumulativa di probabilità:

Funzione di Ripartizione: funzione F(x) che esprime la probabilità che una variabile casuale X

assuma un valore non superiore ad x

F(x) = p(X x) = ps (s=1,2,...,i)

grafico relativo ad una

distribuzione discreta di

probabilità perché V può

assumere solo valori

interi.

grafico di una distribuzione

continua di probabilità, perché

V può assumere tutti i valori in

R+

17

risulta:

x < x1 F(x) = 0 0 F(x) 1

x xn F(x) = 1 funzione continua [x ,

Graficamente la funzione ripartizione viene rappresentata nel piano cartesiano ponendo sulle

ascisse i valori xi e sulle ordinate i valori di F(x) ottenuti sommando progressivamente le relative p i;

se la funzione è continua risulta:

F(x) = P(X a) = F(a)

p ( X x ) = F(x)

f(a)

a

centro: zona di massima probabilità di una variabile casuale (valore più probabile che essa può

assumere);

dispersione: grado con cui le probabilità si dispongono intorno al centro;

è possibile definire la distribuzione di probabilità di una variabile casuale attraverso due parametri:

valore medio: (valore atteso o speranza matematica) previsione teorica del risultato che si può

avere effettuando un gran numero di prove; è dato dalla somma dei prodotti dei

valori assunti dalla variabile casuale per le rispettive probabilità:

E(x) = x1p1 + x2p2 + ... + xnpn = xipi =

Per definire l’ altro parametro che evidenzia la dispersione di una variabile casuale è necessario

introdurre il concetto di:

scarto: (o scostamento) differenza di ogni valore assunto dalla variabile casuale dal valor medio

si = (xi - ) (i = 1,2,...,n)

che evidenzia la variabilità (valori non tutti uguali) di una variabile casuale.

Stante la difficoltà di analizzare la

distribuzione di probabilità di una

variabile casuale è opportuno

analizzarla attraverso parametri che

evidenzino in modo sintetico le sue

caratteristiche; indicando con:

18

È logico, poi, ipotizzare che il più attendibile indicatore del grado di variabilità, e quindi della

dispersione, si possa ottenere calcolando il valor medio degli scarti; tuttavia, risultando essi

simmetrici rispetto alla media, il loro valor medio è nullo. Per ovviare a ciò, si calcola il valor medio

del quadrato degli scarti; si definisce così la:

varianza: valor medio degli scarti al quadrato

Var X x p x p x p x pn n i i( ) .... 1

2

1 2

2

2

2 2

spesso in alternativa alla varianza si utilizza lo:

scarto quadratico medio: (s.q.m.) radice quadrata della varianza

Var X( )

Esempio: determinare qual’è il valore che ha più probabilità di verificarsi nel lancio di due dadi e

dire, inoltre, quale grado di variabilità ha la variabile casuale associata.

E(X) m 21

363

2

364

3

365

4

366

5

367

6

368

5

369

4

3610

3

36

112

3612

1

36 = 7

s1 = 2 - 7 = -5 s2 = 3 - 7 = -4 s3 = 4 - 7 = -3 s4 = 5 - 7 = -2 s5 = 6 - 7 = -1 s6 = 7 - 7 = 0

s7 = 8 - 7 = 1 s8 = 9 - 7 = 2 s9 = 10 - 7 = 3 s10 =11 - 7 =4 s11 =12 - 7= 5

19

TEORIA DEI GIOCHI

Giochi di Sorte: giochi il cui esito dipende fondamentalmente dal caso.

Nei giochi di sorte si punta una somma S in base ad una probabilità p di vincere; è

possibile, quindi, considerare una variabile casuale che assume valore S con probabilità p e valore

0 con probabilità q = 1 - p, il cui valore medio è:

= Sp + 0q = Sp

da ciò si ha:

Speranza Matematica: prodotto della somma S per la probabilità p di vincere

E = Sp

rappresenta, in effetti, la previsione della vincita media che un giocatore ha effettuando un numero

infinito di giocate.

Generalizzando, in caso di n somme Si (i = 1,2,...,n) ognuna avente probabilità di essere

vinta pi (i = 1,2,...,n), tra loro incompatibili, la speranza matematica totale è:

E S p S p . . . S p S p

p p

T 1 1 2 2 n n i i

n

i

n

i

i

i

1

11 1 ; 0

GIOCHI A DUE GIOCATORI

Giochi in cui la vincita di un giocatore è rappresentata dalla perdita dell'altro:

A: punta la somma SA con una probabilità di vincere p e di perdere q

B: punta la somma SB con una probabilità di vincere q e di perdere p

A vince la somma SB e paga la somma SA = - SA

B vinve la somma SA e paga la somma SB = - SB

E(A) = SBp - SAq

E(B) = SAq - SBp = -( SBp - SAq) = - E(A)

da ciò discende che la speranza matematica di un giocatore è opposta a quella dell'altro. Si ricava,

inoltre, che se la speranza matematica di un giocatore è nulla lo è anche quella dell'altro e ciò

porta alla definizione di:

Gioco Equo: gioco in cui la speranza matematica complessiva di ci ciascun giocatore è nulla

E(A) = SBp - SAq = 0 ; E(B) = SAq - SBp = 0

da tale definizione risulta:

SBp - SAq = 0 SBp = SAq SA / SB =p/q

SA : SB = p : q SA : p = SB : q

20

Gioco Equo: gioco in cui la somma puntata è proporzionale alla probabilità di vincita.

Dalla proporzione SA : SB = p : q applicando la proprietà del componendo si ha:

p : (p+q) = SA : (SA +SB)

ed essendo: p + q = 1 e SA + SB = ST si ha:

p : 1 = SA : ST SA = p ST

Gioco Equo: gioco in cui la somma puntata è la speranza matematica del monte premi.

(quest'ultima definizione è alla base dei calcoli di alcuni tipi di assicurazione).

Le considerazioni fatte restano valide anche se ci sono più somme in gioco o se il gioco si

svolge tra più giocatori ricordando che le probabilità di vincita delle singole somme o dei singoli

giocatori sono relative ad eventi tra loro incompatibili e, quindi, il gioco è sottoposto alla legge della

probabilità totale.

Quando uno dei giocatori agisce da professionista, cioé organizza e gestisce il gioco (Stato,

Compagnie di assicurazioni), l'equità del gioco agisce a suo sfavore perché, essendo nulla la

vincita media (E = 0), restano a suo carico le spese di organizzazione e di gestione. E' necessario,

in tal caso, prevedere un caricamento per le somme in gioco (perdita dell'equità del gioco) affinché

il professionista non risulti in perdita e possa per altro avere un giusto guadagno dall'attività svolta.

E' questo ciò che succede per le varie lotterie gestite dallo Stato o per le compagnie di

assicurazioni che fanno pagare somme superiori a quelle che sarebbero necessarie.

Esempio di gioco non equo: nella rulette la somma che si vince se esce un numero è di 35 volte

la posta. Detta k la posta in gioco, p = 1/37 la probabilità di vincere, q = 36/37 la probabilità di

perdere, la speranza matematica del giocatore è:

E 35k1

37k

36

37

k

37

da cui si vede che avendosi un valore negativo il gioco è svantaggioso per il giocatore.