126
Andrea G. B. Tettamanzi, 2001 Teoria dell’Informazione (Classica) Teoria dell’Informazione (Classica) Andrea G. B. Tettamanzi Università degli Studi di Milano Dipartimento di Tecnologie dell’Informazione

Teoria dell’Informazione (Classica)

  • Upload
    phong

  • View
    51

  • Download
    0

Embed Size (px)

DESCRIPTION

Teoria dell’Informazione (Classica). Andrea G. B. Tettamanzi Università degli Studi di Milano Dipartimento di Tecnologie dell’Informazione. Lezione 1. 3 ottobre 2002. Programma del Corso. Che cos’è l’Informazione e che cos’è la T.I. Richiami di Teoria della Probabilità - PowerPoint PPT Presentation

Citation preview

Page 1: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teoria dell’Informazione (Classica)Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi

Università degli Studi di MilanoDipartimento di Tecnologie dell’Informazione

Page 2: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 1

3 ottobre 2002

Page 3: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Programma del Corso

• Che cos’è l’Informazione e che cos’è la T.I.• Richiami di Teoria della Probabilità• Proprietà matematiche utilizzate nella T.I.• Misura dell’informazione: l’Entropia.• Codici• Comunicazione in presenza di rumore• Codici a correzione d’errore• Cenni sulla Teoria della Trasmissione• Cenni di Crittografia

Page 4: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Bibliografia

• E. ANGELERI: Informazione: significato e universalità, UTET, Torino, 2000. (libro di testo)

• J. VAN DER LUBBE: Information Theory, Cambridge University Press, 1988.

• J. R. PIERCE: An Introduction to Information Theory, Dover, 1980.

Page 5: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Ricevimento Studenti

• Giovedì, dalle ore 14.00 alle ore 16.00• Per appuntamento:

– e-mail: [email protected]– tel.: 03 73 89 82 48

• Sito del corso: “http://mago.crema.unimi.it/Classes/TIC”

Page 6: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Modalità di Esame

• Scritto: 3 o 4 esercizi che coprono vari argomenti del corso.– Temi d’esame degli scritti degli anni passati, completi di correzione,

disponibili all’URL: “http://mago.crema.unimi.it/Classes/TIC/Temidesame”

• Orale: interrogazione su definizioni, enunciati di teoremi e alcune dimostrazioni, rielaborazione critica del materiale presentato a lezione.

Page 7: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Che Cos’è l’Informazione?

SINTASSI

SEMANTICA

PRAGMATICA

Page 8: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

significato

Informazione

informazione

apparatosimbolico

Rilevanza pratica dell’informazione (effetto, scopo, ecc.)

Page 9: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Informazione - semantica

• La quantità di informazione di un enunciato è tanto più grande quante più sono le alternative che esso esclude.

UA B

Page 10: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Che cos’è la Teoria dell’Informazione?

• Una teoria matematica dell’aspetto simbolico dell’Informazione• Un approccio quantitativo alla nozione di Informazione• Risponde alle domande:

– Come immagazzinare e trasmettere informazione in modo compatto? (compressione)

– Qual’è la massima quantità di informazione che può essere trasmessa su un canale? (velocità di trasmissione)

– Come posso proteggere la mia informazione:• dalla corruzione del suo supporto o da errori di trasmissione?• da sguardi indiscreti?

Page 11: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Compressione

Immagazzinamento = Trasmissione

scrittura

lettura

t0

t1

invio ricezione

x0 x1

Page 12: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Funzioni convesse

)()()( 2121 xxfxfxf

0,1

Diseguaglianza fondamentale:

1ln xx1ln

log b

xxb

Page 13: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Convessità del valore atteso

convessa

concava

)(Xg ])[()]([ XEgXgE

)(Xg ])[()]([ XEgXgE

Page 14: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Misura dell’Informazione

R. V. L. Hartley Alfabeto di s simboli

C I A O M M MA A, !

1 2 l

Messaggi possibilils

slssH ll loglog)( R. Hartley

)()( 1slHsH l Perché il logaritmo? Perché così

Page 15: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Unità di misura dell’Informazione

A A 21)()( APAP

La quantità di informazione che permette di distinguere unodi due eventi equiprobabili e mutuamente esclusivi è l’unitàdi misura dell’informazione: il bit.

Un simbolo di un alfabeto di s simboli equiprobabili porteràun’informazione di s2log bit

Page 16: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Entropia informativa di Shannon

n

iii xPxPXH

1

)(log)()(

continua

simmetrica (commutativa)

additiva )()(),( YHXHYXH

Page 17: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Massimo dell’Entropia

nXH log)(

n

i

n

i iiii np

pnppnXH1 1

1loglogloglog)(

0log)11(

log1log11111

e

epn

enp

pn

ii

n

i

n

i ii

ab

ba log

1log N.B.:

Page 18: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Entropia delle lingue

testo

)Z""(

)A""(

P

P

Frequenzedei simboli

Z""

A""2 )P(

1)logP()testo(

H

Page 19: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Ridondanza

1R Efficienza di codificaM

XH

2log)(

056,4)en(046,4)de(

896,3)fr(956,3)it(

HHHH

853,0)en(850,0)de(839,0)fr(887,0)it(

Page 20: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Informazione secondo KolmogorovMisura assoluta, non utilizza la probabilità

X Y

xyD )(x y

descrizionioggetti

yxKxyD

)(

min)(

fn.parzialericorsiva

Page 21: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Equivalenza con entropia di Shannon

kkxKx 2)(:

cnXHxKxpXH n

x

nnn

n

log2)()()()(

)()( XnHXH n

)()(lim XHnxK n

n

Page 22: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 2

8 ottobre 2002

Page 23: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Assiomi dell’entropia (1)),,,( 21 npppH Misura d’incertezza,

max con eventi equiprobabili

),,,(),,,( )()2()1(21 nn pppHpppH

1

2

3 0),,,( 21 npppH

4 )0,,,,(),,,( 2121 nn pppHpppH

(simmetrica)

Page 24: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Assiomi dell’entropia (2)5 )

11,,

11,

11()1,,1,1(

nnnH

nnnH

6 continua

7 ),,(),,(),,( 1111 nnnn qpqpHqqHppH

8

),,(),,(),(

),,,,,(

11

11

qq

qqqH

pp

pppHqpH

qqppH

nn

nn

(diramazione)

Page 25: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema

0

log),,(1

1

k

ppkppHn

iiin

Se H soddisfa gli otto assiomi,

Basterebbero 4 assiomi “minimali”:- continuità;- simmetria;- proprietà di diramazione- H(1/2, 1/2) = 1

Page 26: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Modello della comunicazione

sorgente destinazione

rumore

canale

Page 27: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Modello dettagliatoSorgente di

informazione Destinazione

riduzione ricostruzione

Codificasorgente

cifratura

Decodificasorgente

decifrazione

Codificacanale

Decodificacanale

modulazione demodulazioneCanale continuo

distorsione(rumore)

Canale discreto

Page 28: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Sorgente discreta senza memoria

)(,),(),()(,,,

:

21

21

n

n

i

xpxpxpXPxxxX

ZitT

n

iixp

1

1)(

S è un dispositivo che genera ad ogni istante t un simbolo x conprobabilità p(x), i.i.d.

PX

xpxpxpxxx

Sn

n

)()()( 21

21

Page 29: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Proprietà

1

011 )()(

110

r

jijkiiirkkk jr

xXPxxxXXXP

Indipendenza statistica e stazionarietà:

)(1log)(

ii xp

xI autoinformazione

Page 30: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Il concetto di codice

Alfabeto sorgente

Alfabeto del codice

NsssS ,,, 21

nxxxX ,,, 21 nN

*Sz

*Xw

**:cod XS

)cod(zw

)(cod 1 wz

Page 31: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Esempio: codifica delle cifre decimali

Cifradecimale

Rappresentazionebinaria

0123456789

0000000100100011010001010110011110001001

Page 32: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Estensione di una sorgente

Alfabeto base

Alfabeto esteso

nxxxX ,,, 21

m

nnn

mm xxxxxxX ,,111

Page 33: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema

Data una sorgente senza memoria, )()( XmHXH m

Dimostrazione:

)(1log)()(

111

1

mi mmi

miiXx Xx

iim

xxpxxpXH

Xx ii

iiXx Xxii

i

mi mmi

m

XmHxp

xpm

xpxpxpxp

)()(

1log)(

)()(1log)()(

111

1

Page 34: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Nel caso X = {0, 1}

}1,0{21log1log2

1log1log2

1log1log2

1log1log1log1log2

1log21log1log21log2

1log1log1log1log}1,0{

11

00

101

1100

0

2110

110

20

0

1

21

110

010

0

20

1

21

1010

0

20

1111

0101

1010

0000

2

Hp

pp

p

ppp

pppp

p

pppp

pppp

pp

ppp

ppp

pp

pp

pppp

pp

pppp

pppp

pppp

ppppH

Page 35: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 3

14 ottobre 2002

Page 36: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Classificazione dei codici

A blocco

Singolare Non singolare

Unicamentedecodificabile

Non unicamentedecodificabile

Istantaneo Non istantaneo

Page 37: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

EsempiNon unicamentedecodificabile:

0100110

4

3

2

1

ssss

Non istantaneo:

01100111010

4

3

2

1

ssss

Page 38: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codici a prefisso

Condizione necessaria e sufficiente perché un codicesia istantaneo è che nessuna parola del codice sia unprefisso di un’altra parola del codice.

0

1

1

10

0

Page 39: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Diseguaglianza di KraftCondizione necessaria e sufficiente perché esista uncodice istantaneo con lunghezze di parola

è che

qlll ,,, 21

11

q

i

lir

Page 40: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione - sufficienzaCostruiamo un codice istantaneo che soddisfa 1

1

q

i

lir

qnl

ll

max

1

1max

1

l

l

llrnmax

maxmax

1

ll

l

lll rrn

rnrnrn lll

l 11

1 max

maxmax

max

rnrnrn

rnrnrn lll

l

1

12

2

22

11

1 max

maxmax

max

Page 41: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema di McMillanUn codice unicamente decodificabile soddisfa la diseguaglianza di Kraft

nlllnq

i

l qi rrrr

21

1

nii llk 1

kll rr nii 1

Sviluppando la potenza, avremo qn termini della forma

maxnlkn

maxmax1

1maxmax

nlnnlrrrNrnl

nk

kknl

nk

kk

nq

i

li

kk rN ma allora deve essere 1

1

q

i

lir

1n

Page 42: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema di codifica della sorgente

)(SHl r

n

iii pll

1

Sia la lunghezza media di un codice istantaneo

a r simboli. Allora,

ilir rpiSHl :)(

Page 43: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione

n

i

lri

n

i iri

n

iii

n

i irir

irpp

pplp

plSH1111

log1log1log)(

n

i

li

i

n

il

iri

n

i i

l

ri rrpp

rpp

prp

i

i

i

111 ln

1ln1loglog

01ln111

ln1

11

n

i

ln

il

ii

i

ir

rrpp

r

KraftProprietà fondamentale dei logaritmi

Page 44: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 4

21 ottobre 2002

Page 45: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Processi Stocastici

X t t( )

, ,

0 1

Un processo stocastico è una successione di v.a.

,,,, 21 tXXX

Ciascuna con la propria distribuzione di probabilità.

Notazione:

Page 46: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Catene di Markov

X t t( )

, ,

0 1Un processo stocastico

è una catena di Markov sse il suo stato dipende solo dallostato precedente, cioè, per ogni t,

P X x X X X P X x Xt t t t[ | , , , ] [ | ] 0 1 1 1

A B C

0.4

0.6

0.3

0.7

0.25

0.75

Page 47: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Processi Markoviani

X t t( )

, ,

0 1

],,,|[],,,|[

21

110

mtttt

tt

XXXxXPXXXxXP

È un processo Markoviano di ordine m sse

Page 48: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Sorgente discreta con memoria

)](,),1(|)([)(,,,

:

21

mtxtxtxPXPxxxX

ZitT

i

n

i

S è un dispositivo che genera ad ogni istante t un simbolo x conprobabilità condizionata dagli m simboli generati in precedenza

Stazionarietà: le probabilità sono costanti nel tempo

Page 49: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Informazione e Entropia condizionali

)|(1log)|(

21

21

m

mjjji

jjji xxxxpxxxxI

Informazione condizionale:

)|(1log)|()|(

21

21211 m

mmjjji

n

ijjjijjj xxxxp

xxxxpxxxXH

Entropia condizionale:

Page 50: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Proprietà dell’Entropia condizionale

)()|( YHXYH

0loglog)|(log)(log

1)|(

)()|(log

)|()(

log)|(

)(log)()|(

1log)|(

)()|(

1 11 1

1 11 1

11 1

eexypeype

xypyp

xypexyp

ypxyp

ypypxyp

xyp

YHXYH

X

i

Y

jij

X

i

Y

jj

X

i

Y

j ij

jij

X

i

Y

j ij

jij

Y

jjj

X

i

Y

j ijij

Dimostrazione:

X

iji yxp

1

1)|(

Page 51: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Struttura statistica delle lingue

testo

)Z""(

)A""(

P

P

Distribuzionea memoria 0:

)Z"|"Z""(

)B"|"A""()A"|"A""(

P

PP

Distribuzionea memoria 1:

Page 52: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Frequenze statistiche dell’italiano_ A E I O U N T R L C S D P M G V H F B Z Q

1583 988 945 863 849 255 684 670 539 512 395 376 303 202 193 174 120 93 82 72 72 30_ 343 381 281 343 3 48 9 27 122 3 24A 166 12 79 12 42 130 106 64 73 39 51 33 48 9 45 24 6 21 24E 94 36 27 98 134 91 82 23 61 101 48 39 21 30 42 3 9 6I 133 12 12 15 55 106 91 67 70 36 91 24 40 21 24 15 21 3 27O 42 42 36 121 112 62 46 142 61 27 36 33 21 9 12 27 12 3U 27 3 24 21 39 6 12 9 24 9 12 15 3 6 6 30N 88 148 97 95 160 36 18 18 24T 91 142 18 70 24 27 106 76 30 21 65R 52 54 128 12 124 33 64 12 3 27 6 6 12 6L 91 88 83 45 45 9 6 98 7 30 4 6C 163 18 6 61 12 3 33 33 15 51S 133 33 76 34 40 12 15 12 21D 164 9 42 12 6 64 6P 103 15 15 6 17 9 6 9 15 12M 49 33 27 15 36 9 21 3G 30 39 33 9 15 9 21 18V 21 24 18 21 18 6 6 3 3H 27 60 9F 55 3 6 12 3 3B 24 6 6 3 6 18 9Z 18 3 12 3 21 3 12Q 30 3 3 3

Page 53: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Approssimazioni

Memoria 0:E A IDAVEAPDIAOSPTRR OMR ELRROULEETDP AOOEPVUNCNCM AALPNESCIESI ...

Memoria 1:NFA EGI SSISA LE LERA SCHELA CILU GGILLE PRAPRANA ...

Memoria 2:OR IL SARSERA NE HAI GUE E LAMASSETTERRA DO E LASE AL MILA ...

Memoria 3:

Page 54: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Stima dell’Entropia con memoria infinita

00.5

11.5

22.5

33.5

44.5

1 10 100

Memoria

Entropia

Esperimento di Shannon)(

1log)(1limxP

xPn

Hnxn

Page 55: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Entropia nelle sorgenti con Memoria

n

j

n

j

n

j jjjijjji

m m

m

m

xxxxpxxxxp

XH

1 1 11 2 21

21 )|(1log)|(

)(

1

21

21 )|(1log),,,,(

mm

mX jjji

jjji xxxxpxxxxp

Page 56: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema

)()()()(10 m

XHXHXHXH

L’entropia di una sorgente con memoria è tanto minore quantomaggiore è l’ordine della memoria.

Page 57: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione(Per semplicità, solo nel caso a memoria di ordine 1)

n

i

n

j ijji xxp

xxpXXHXH1 1 12

2112 )|(1log),()|()(

1

)()()|()(),( 2112121 XHXHXXHXHXXH

Inoltre,

)()()()|()(01 212 XHXHXHXXHXH

Page 58: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 5

24 ottobre 2002

Page 59: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codici ottimali con probabilità note a priori

Osservazione: in un codice C ottimale, jiji llpp Dimostrazione: si supponga di scambiare le due parole in questione

))((

''11

ijji

jjiiijji

n

kkk

n

kkk

llpp

lplplplplplpll

Siccome C è ottimale, ll ' quindi deve essere per forza

0 ij ll c.v.d.

Page 60: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codici ottimali con probabilità note a priori

Osservazione: in un codice istantaneo C ottimale a base r,le r parole più lunghe hanno la stessa lunghezza.

Dimostrazione: se così non fosse, potrei sopprimere l’ultimaparte delle parole più lunghe senza perdere la proprietà di prefissoe ottenendo un codice migliore (assurdo).

Page 61: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codici ottimali con probabilità note a priori

Osservazione: in un codice istantaneo C ottimale a base r,le r parole più lunghe sono associate agli r simboli sorgentemeno probabili e differiscono solo per l’ultimo simbolo.

Dimostrazione: per

1p

2p

3p

4p

0

0

0

0

1

11

1p

2p

3p

4p

0

0

01

1

1

2r

Page 62: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codice di Fano

• Ordinare i simboli sorgente in ordine di probabilità decrescente• Dividere al meglio i simboli in r gruppi equiprobabili• Assegnare a ciascun gruppo uno degli r simboli come prefisso• Ripetere la divisione per gruppi in modo ricorsivo finché

possibile

Page 63: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Esempio

simbolo probabilità codice

0123456789

1/41/41/81/81/161/161/321/321/321/32

00011001011100110111100111011111011111

Page 64: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codice di Shannon

Calcolare le probabilità cumulative

1

1

)(k

iik sPP

Scriverle in notazione r-aria

Il numero di simboli per parola di codice è dato da

1)(

1log)(

1log i

ii sP

lsP

)(1log

ii sP

lcioè

Page 65: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Esempio

simbolo probabilità prob. Cum. lunghezza codice

0123456789

1/41/41/81/81/161/161/321/321/321/32

01/41/25/83/413/167/829/3215/1631/32

2233445555

00011001011100110111100111011111011111

Page 66: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codice di Huffman

• Ordinare i simboli sorgente per probabilità decrescente• Raggruppare gli r simboli meno probabili e considerarli come un

solo simbolo• Ripetere il raggruppamento finché possibile• Restano al massimo r simboli o gruppi di simboli• Assegnare uno degli r simboli a ciascuno dei gruppi come

prefisso• Svolgere i gruppi all’indietro ripetendo l’assegnamento del

prefisso finché tutti i simboli sorgente hanno una parola di codice associata

Page 67: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Esempio

simbolo probabilità

012345

0.40.30.10.10.060.04

01

0.40.30.10.10.1

01

0.40.30.20.1

01

0.40.30.3

01

0.60.4

01

10001101000101001011

codice

Page 68: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Ottimalità del codice di Huffman

nn sssC ,,, 11 ',,,' 21 sssC n nn sss 1'

nnnn

n

iii

nnnn

n

iii

pplpplp

lplplpl

11

1

1

111

2

1

')('

)1'()1'('

Page 69: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codice alfabetico (o di Gilbert-Moore)

Ordinare i simboli sorgente secondo qualche criterio

La lunghezza di ciascuna parola di codice è data da

ii li

l sP 21 2)(2

Determinare la sequenza

).(21)()(

),(21)(

),(21

11

212

11

nnn sPsPsP

sPsP

sP

10 21 n

Rappresentare in base rciascuno di questi numerisecondo la lunghezzacalcolata

cioè

1

)(1log

ii sP

l

Page 70: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Esempio

simbolo probabilità il i codice

AEIOUN...

0.09880.09450.08630.08490.02550.0684...

555575...

0.04940.146050.236450.322450.377250.4242...

00001001000011101010011000001101...

Page 71: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codice aritmetico0 1

)( 1sP )( 2sP )( 3sP

1s 2s 3s

1s 2s 3s

1s 2s 3s

)()()()()(0 21211321 sPsPsPsPsPsss

Page 72: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codice Aritmetico: Algoritmo

s[1..n] è la stringa da codificare

c = 0;a = 1;for i = 1 to n dobegin

c = c +a*ProbCum(s[i]);a = a*Prob(s[i]);

end

c (scritto in base 2) èil codice cercato

c è il codice ricevuto

a = 1;for i = 1 to n dobegin

s[i] = FindSymbol(c);c = (c -ProbCum(s[i])) /Prob(s[i]);i = i + 1;

end

s[1..n] è la stringa cercata

Page 73: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 6

28 ottobre 2002

Page 74: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Algoritmo di Lempel e Ziv

1. Da sinistra a destra, scrivere ogni volta la parola più brevemai incontrata prima, fino alla fine del testo;

2. Per ogni parola, separare il prefisso (una parola già incontrata)dal simbolo finale;

3. Codificare ogni parola con una coppia formata dalla posizionesuo prefisso nella lista e dal simbolo finale che deve essereaggiunto.

Page 75: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Esempio1011010011010...

(passo 1) 1, 0, 11, 01, 00, 110, 10, ...

(passo 2) 1, 0, 1.1, 0.1, 0.0, 11.0, 1.0, ...

(passo 3) (0, 1) (0, 0) (1, 1) (2, 1) (2, 0) (3, 0) (1, 0) ...

000 1 000 0 001 1 010 1 010 0 011 0 001 0 ...

Page 76: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Efficienza del codice di Lempel e Ziv

1)(log)()( nNnNnL ww

)(nNw parole in un messaggio di lunghezza n

)(log2 nNw bit necessari per codificare la posizione di un prefisso

Lunghezza della codifica di un messaggio di lunghezza n:

Efficienza del codice di Lempel-Ziv:

n

nNnNnnL ww

LZ1)(log)()(

Page 77: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema

)()(log)(suplim XHn

nNnN ww

n

Data una sorgente stazionaria ergodica con alfabeto X edentropia H(X), vale

q.c.

Page 78: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Diseguaglianza di Lempel e Ziv

nnnNw

2log)1()(

0lim

ncon

22)1(2 1

1

l

l

i

il lin

Dimostrazione:

Lungh. Cum. parole lunghe al più l

1:: ll nnnln

112222)( 11

1

l

nlnnN lll

l

i

ilw

nlnn ll log2

)2(log2 21

nnn ll 2log

log2

nnl

Page 79: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Diseguaglianza di Lempel e Ziv (segue)

2loglog2

nnl Poniamo: 1

2loglog4

nnn

nnnn

nnnn

nn

nnl

log)1(loglog

4)log(log1

loglog

3)log2log(1loglog

3)2log(log1

3)2log(loglog1

nn

lnnNw log)1(1

)(

Se ne conclude che c.v.d.

Page 80: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Legge dei grandi numeri

1)()(lim

i

i

nxf

nxnP

Debole:

::0, N Forte:

1)()(

ii xf

nxnPNn

Page 81: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Diseguaglianza di Čebyšev

2

]var[)|][(|C

XCXEXP

Dimostrazione:

|][| XEXZ 2

2 ][)(CZECZP

iii

Czii

Czi

CZEzfz

C

zfzC

zfCZPii

2

22

2

22

][)(1

)(1)()(

)()( 22 zfzzfC

Page 82: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Messaggi più probabili

lnwwwW ,,, 21 tutti i messaggi di lunghezza l

iliii sssw 21)(wli Numero di occorrenze di si in w

n

i

li

isPwP1

)()(

l

iill

1

)()(log)(

)(log)(log)(log

1

1

)(

1

SlHsPsPl

sPsPwP

n

iii

n

i

slPi

n

i

li

ii

)( ii sPll per la legge dei grandi numeri

)()(

1log1 SHwPl

Page 83: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema di Shannon-McMillan

Data una sorgente discreta senza memoria S di entropia H(S),:::0:0 LlL

Le parole di lunghezza l ricadono in due classi:

I)

II)

w

w

w

wP )(

)()(

1log1 SHwPl

Page 84: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione

2

2

xP

lSlHwP

w )()(

1log:

Čebyšev:

2

2

22

2

22

)(var)()(

1log)(

lll

lwIlSlH

wPPP

2

11

2 )(log)()(log)()](var[

i

n

iii

n

ii sPsPsPsPwI

Non dipende da l.2

2

L

Page 85: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 7

31 ottobre 2002

Page 86: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema

M))(())(( 22)1( SHlSHl M

Dimostrazione:

))(())(( 2)(2)()(

1log1 SHlSHl wPSHwPl

w

SHl

w

SHl P ))(())(( 2)(2

))(())(( 2)(2 SHlSHl MPM 1)(1 P

12 ))(( SHlM ))((21 SHlM

Page 87: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

I° Teorema di Shannon

Sia S una sorgente discreta senza memoria di entropia H(S).Siano messaggi di lunghezza l codificati in parole di codice dilunghezza L in un alfabeto di codice con r simboli.

eP Probabilità che occorra un messaggio per cui non siadisponibile una parola di codice.

ePSlHrL )(log::0 l

Page 88: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione

))((log: SHlrL ))((2 SHlLrovvero

))((2 SHlMMa: quindi LrM

Lr = numero di parole di codice di lunghezza L

Ogni messaggio tipico ha una parola di codice; i messaggi atipici,che non hanno una parola di codice associata, hanno probabilità dioccorrere pari a

)(PPe c.v.d.

Page 89: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Il canale discreto senza memoria (1)

n

i

m

iii ypxp

1 1

1)()(

C è un dispositivo in grado di associare in ogni istante t conprobabilità P(y | x) un simbolo y dell’alfabeto di destinazionecon un simbolo x dell’alfabeto sorgente.

)(,),(),()(

)(,),(),()(,,,,,,

:

21

21

21

21

m

n

m

n

i

ypypypYPxpxpxpXP

yyyYxxxX

ZitT

Page 90: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Il canale discreto senza memoria (2)

)|()|()|(

)|()|()|()|()|()|(

)(

2211

2222222121

1112121111

nmnmnnnn

mm

mm

ij

xyPpxyPpxyPp

xyPpxyPpxyPpxyPpxyPpxyPp

pC

1)|(11

m

jij

m

jij xyPp

Page 91: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Esempio

0

1

0

1

?0.143

0.286

0.571

0.1430.286

0.571

Page 92: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Estensione di un canale

N

N

mN

nN

Y

X

,,,

,,,

21

21

N

kijiijjij kkNN

xyPxxyyPP1

)|()|()|(11

Un canale è senza memoria sse:

Page 93: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Informazione mutua

)()|(

log)|(

1log)(

1log);(i

ji

jiiji xP

yxPyxPxP

yxI

)()(),(

log)()(

)()|(

log);(ji

ji

j

j

i

jiji yPxP

yxPyPyP

xPyxP

yxI

Page 94: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Transinformazione

)()|(

log)|();(1 j

ijm

jiji yP

xyPxyPYxI

)()|(

log)|();(1 i

jin

ijij xP

yxPyxPyXI

)()(),(

log),(

),()(),()();(

1 1

11

ji

jin

i

m

jji

m

jjj

n

iii

yPxPyxP

yxP

yXIyPYxIxPYXI

Informazione mutua di sistema:

Page 95: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Capacità di canale

n

kkjk

ijn

i

m

jiji

xyPxP

xyPxyPxPYXI

1

1 1 )|()(

)|(log)|()();(

Dipende solo dalle caratteristiche del canale e dalla distribuzionein ingresso. Ipotesi di canale costante.

);(max YXIC

L’informazione mutua è max quando la transinformazione èindipendente dalla distribuzione in ingresso.

Page 96: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Equivocazione, Irrilevanza

)|( XYH

),( YXH )(XH

)|( YXH

)|( YXH

);( YXI)(YH

)|( XYH

),( YXH);( YXI

equivocazione irrilevanza

informazione mutua

Page 97: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 8

4 novembre 2002

Page 98: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Canale binario simmetrico

0

1

0

1

ep

ep

ep1

ep1

Page 99: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Capacità del canale binario simmetrico

)1log()1(log1);(max)(BSC eeeeXP

ppppYXIC

)1log()1(log)1log()1(log

)|()();(

0000

BSC

eeee ppppqqqq

XYHYHYXI

ee pxPpxPyPq )1()1)(0()0(0

Page 100: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Capacità del canale binario simmetrico

ep

BSCC

0 0.5 1

1

Page 101: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Canale simmetrico a cancellazione

0

1

0

1

ep

ep

ep1

ep1

?

Page 102: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Capacità dei canali simmetrici

.)|(

1log)|(log

)|(1log)|(

)(1log)(max

)|(1log)|()(

)(1log)(max

)|()(max);(max

1

11)(

1 1 1)(

)()(SC

m

j ijij

m

j ijij

m

j jjXP

m

j

n

i

m

j ijiji

jjXP

XPXP

xyPxyPm

xyPxyP

yPyP

xyPxyPxP

yPyP

XYHYHYXIC

simmetria

Page 103: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Capacità del c.s.c.

ep

BECC

0 0.5 1

1

Page 104: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Canali in cascata

CANALE 1 CANALE 2X ZY

ix jy kz

Page 105: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Teorema

);();();();(

ZYIZXIYXIZXI

(detto “Della Elaborazione dei Dati)

L’informazione mutua non può aumentare al crescere deicanali attraversati; semmai può diminuire.

In successive elaborazioni dei dati,si può solo verificare una perdita d’informazione,mai un guadagno.

Page 106: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione)|(),|( jkijk yzPxyzP )|(),|( kikji yxPzyxP

0)|(

),|(log),|(),(

)|()|(

log),,(

)|(1log),(

)|(1log),(

)|()|(

j k ki

kjikj

iikj

i j k ki

jikji

i j jiji

i k kiki

zxPzyxP

zyxPzyP

zxPyxP

zyxP

yxPyxP

zxPzxP

YXHZXH

) | ( ) ( ) ; (Y X H X H Y X I diseguaglianzafondamentale

Page 107: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Probabilità di errore ed equivocazioneSia YX (matrice di canale quadrata)

ji

jjjij yxPyxPyeP )|(1)|()|(

n

i

n

iiiiiie yxPyPyePyPp

1 1

)|(1)()|()(

n

i ijji

n

i

n

iiiiiii yxPyxPyPxyPxP

11 1

),()|(1)()|(1)(

Si può dimostrare che la probabilità di errore per il trasmittentee per il ricevente è identica:

Page 108: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Diseguaglianza di Fano

ee

eee p

pp

ppH

1

1log)1(1log)(

)1log()()|( nppHYXH ee

equivocazione probabilità di errore

dove

L’incertezza media su X, se Y è noto, è al più l’incertezza sul fattoche sia stato commesso un errore e, in caso affermativo,l’incertezza su quale dei restanti simboli sia stato trasmesso.

Page 109: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione

e

n

iii

e

n

i ijji

ee

eeee

pyxP

pnyxP

pp

pnpnppH

1

1log),(1log),(

11log)1(1log)1log()(

11

n

i iiii

ji

n

i ijji

ji

n

i

n

jji

yxPyxP

yxPyxP

yxPyxPYXH

11

1 1

)|(1log),(

)|(1log),(

)|(1log),()|(

1

2

Page 110: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione (segue)

2 1–

0),()1(),(1)1(12ln

1

),()|(),()1(

),()|(),(

12ln

1

1)|(

1),(2ln

11)|()1(

),(2ln

1

)|(1log),(

)|()1(log),(

11

11 1

1 1

11

11

n

iiie

n

iii

e

n

iii

n

j

n

i ii

iie

n

i ij

n

i ijji

ji

jie

n

i ii

eii

n

i ij ji

eji

ii

en

iii

ji

en

i ijji

yxPpyxPnnp

yxPyxPyxPp

yxPyxPyxP

np

yxPpyxP

yxPnpyxP

yxPpyxP

yxPnpyxP

Page 111: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Corollario

)1log()()|( nppHYXH ee

quando

jip

jinp

yxPe

e

ji

1

1)|(

Page 112: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lezione 9

7 novembre 2002

Page 113: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Distanza di Hamming

1,0X

l

iiiH wvwvd

1

][),(

lXwv , lvvvv 21 lwwww 21

2)00101010,00101100( HdEsempio:

0 0 1 0 1 1 0 0

0 0 1 0 1 0 1 0

Page 114: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Spazio di Hamming di dimensione n

lX Spazio di Hamming di dimensione l

1,0X

1

0 00 10

01 11

000 100

010 110010011

001 101

111

0000 1000

Esempi:

Page 115: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

II° Teorema di Shannon

Dato un canale discreto senza memoria di capacità C,a) è possibile trasmettere una quantità di informazione H(X)con probabilità d’errore piccola a piacere, a patto che

CXH )(

b) Se CXH )(comunque codifichiamo i messaggi, sarà

0 Le Pp

Page 116: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione di b)Ipotesi:Tesi:

CXH )( CXHpCXH e )()(

CYXHXHYXI )|()();(

)()1log()()|()(0 eee pfnppHYXHCXH

Fano

)1log()1log()1(log)( nzzzzzzfnzf log)(0

0)()( CXHPf LPoniamo

0)()( Le PfpfAllora

Page 117: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Grafico di f(z)

nlog

)(zf

z

)( LPf

LP

)( epf

epn

n 1

)1log( n

1

LeLe PpPfpf )()(

Page 118: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Dimostrazione di a)Ipotesi:Tesi: ep

CXH )(

Assumiamo r = 2 senza perdita di generalitàParole di codice di lunghezza l l2 messaggi

)( 12 ClM1)( CXHN.B.: bit/simbolo

Usiamo solo parole di codice dellel2

Costruiamo un codice “a caso” e dimostriamo che ep

Page 119: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Codice “casuale”Estraiamo a caso

)( 12 ClM parole di codice tra lel2

Sia 21

q la probabilità di errore del canale (per simbolo!)

w CANALE w

lqwwdE H )]ˆ,([

Page 120: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Errore

w

w

lq

),( dwS

d)( 2 qld

2l

Page 121: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Volume di una sfera di raggio d

dk

kldN )(

In uno spazio di Hamming di dimensione l

numero di parole binarie di lunghezza l che differisconoda una data parola w (centro) in al più d posizioni.

...2

1)(

lldN

w 1)',(:' wwdw H

2)',(:" wwdw H

Page 122: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Lemma)( 22)( qlHdN)( 2 qld

Dimostrazione: )( 2 q ld 10

i) )()1(0

dNd

dkkldk

dkklk

l

kkll

ii)

lddN )1()(

)()1log(log 22)1( lHlld

0)1log()1()1log()1log(log)(

H

c.v.d.

diseguaglianzafondamentale

Page 123: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Probabilità di errore per un dato codice

])ˆ,([)],(ˆ[ dwwdPdwSwP H

Per il Teorema dei grandi numeri:

)],([

)],([)],(ˆ[

)],('[)],(ˆ[)],('[)],(ˆ[)],(ˆ[

ˆ

ˆ

dwSvP

dwSvPdwSwP

dwSwPdwSwPdwSwPdwSwPdwSwPp

wv

wv

e

Page 124: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Probabilità media di errore

))(1()(

ˆ

22 222

)()],([

)],([)1()],([

qHllqlH

l

wve

MM

dNMdwSvPM

dwSvPMdwSvPp

)( 22)( qlHdN Parole contenute in ),( dwS

)( 2 qld

Page 125: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Conclusione della dimostrazione

)()()()()(1)(1

2

22

qHqHCqHqHqHqH

3222 )(1log)()(')()(

qHq

qqHqHqHqH

Sviluppiamo in serie di Taylor, ricordando cheq

qqH

1log)('

32 )(1 CqHPer cui:

)(

)()())(1(

31

312

2

222l

ClClqHle Mp

c.v.d.

Page 126: Teoria dell’Informazione (Classica)

Andrea G. B. Tettamanzi, 2001

Andamento della probabilità di errore

)(XH0

ep

C

CXH )(

CXH )(