7
Capitolo 7 Caratteristiche delle immagini  Introduzione Definiamo dunque, in forma vettoriale, come viene definita un immagine con n pixel. Nel caso di immagini a un solo pixel abbiamo un dominio di definizione dell’immagine monodimensionale, mentre nel caso di immagini con 2 e 3 pixel abbiamo domini di definizione bidimensionali e tridimensionali. I punti dell’immagine posson o essere definiti come vettori che partono dall’origine del sistema di riferimento e arrivano al punto di coordinata spaziale desiderato. Una misura efficace per definire quanto diverse sono due immagini è la distanza euclidea. Supponiamo di avere infatti due immagini, e consideriamo due punti delle due. SI definisce distanza euclidea la la cui definizione ci permette anche di trovare le immagini più lontane rispetto un immagine campione, semplicemente considerando i punti più lontani da quelli definiti in un intorno di ampiezza .

Capitolo 7 - Caratteristiche

Embed Size (px)

Citation preview

Page 1: Capitolo 7 - Caratteristiche

8/4/2019 Capitolo 7 - Caratteristiche

http://slidepdf.com/reader/full/capitolo-7-caratteristiche 1/7

Capitolo 7

Caratteristiche delle immagini 

IntroduzioneDefiniamo dunque, in forma vettoriale, come viene definita un immagine con n – pixel. Nel caso di

immagini a un solo pixel abbiamo un dominio di definizione dell’immagine monodimensionale, mentre

nel caso di immagini con 2 e 3 pixel abbiamo domini di definizione bidimensionali e tridimensionali.

I punti dell’immagine possono essere definiti come vettori che partono dall’origine del sistema di

riferimento e arrivano al punto di coordinata spaziale desiderato.

Una misura efficace per definire quanto diverse sono due immagini è la distanza euclidea. Supponiamo di

avere infatti due immagini, e consideriamo due punti delle due. SI definisce distanza euclidea la

la cui definizione ci permette anche di trovare le immagini più lontane rispetto un immagine campione,

semplicemente considerando i punti più lontani da quelli definiti in un intorno di ampiezza .

Page 2: Capitolo 7 - Caratteristiche

8/4/2019 Capitolo 7 - Caratteristiche

http://slidepdf.com/reader/full/capitolo-7-caratteristiche 2/7

 

Un altro metodo di confronto possibile è quello basato sugli angoli che formano i punti di un immagine rispetto

al sistema di riferimento definito. In base a tale nozione, una medesima configurazione tra angoli

permette di dire che due immagini sono similari, mentre se le configurazioni sono troppo diverse allora

sono distinte:

Dove, dati due vettori e , vettori di n – componenti, si definisce il loro prodotto come

∗ =

=1

 

ed il loro coseno come cos, = ∗||| | , in modo da dare una misura quantitativa dell’a distanza

angolare di due immagini.

Modelli Metrici

Un modello metrico impone che la funzione di distanza debba rispettare le seguenti proprietà:

  d(s,s) = 0;

  1 , 2 ≥ (1, 1) 

  , ′ = ′ , ;   , ′+ ′ , ′ ′ > , ′ ′ 

Dove la distanza euclidea rispetta tali proprietà. Tuttavia, possiamo considerare che, definito lo spazio

metrico di Mincowski, in tale spazio abbiamo piu nozioni di distanza che soddisfano tali proprietà:

Page 3: Capitolo 7 - Caratteristiche

8/4/2019 Capitolo 7 - Caratteristiche

http://slidepdf.com/reader/full/capitolo-7-caratteristiche 3/7

 

dove la prima distanza è detta distanza di Manatthan, mentre la seconda è la distanza euclidea.

Il modello metrico risulta essere la base per le comparazioni fra le immagini, come la comparazione dei

colori delle immagini. E’ largamente utilizzato da community di pattern recognition, che attestano che la

metrica L1 è molto indicata per il riconoscimento di similarità tra immagini e cattura meglio nozioni

umane dell’immagine.

Inoltre ogni immagine viene definita come un insieme di punti, per cui la loro elaborazione è

semplicemente un indicizzazione di punti, definito mediante tecniche di indicizzazione

multidimensionale.

Indicizzazione delle immagini

Scelta delle caratteristiche

Il meccanismo di indicizzazione richiede un riconoscimento delle caratteristiche(features) delle

immagini, che solitamente sono colori, texture, oggetti o un particolare scenario. Solitamente però lefeatures su cui effettuare l’indicizzazione variano a seconda dell’immagine che deve subire il processo

di indexing, dunque vediamo come scegliere per bene tali features.

Il processo di analisi delle immagini restituisce le features dell’immagine , ma tale processo è un

processo molto pesante.

UN PRIMO APPROCCIO

Un approccio potrebbe essere quello di considerare ogni pixel dell’immagine come una features, ma ciò

ci pone davanti a due problemi:

  Per un elevato numero di pixel abbiamo un elevato numero di features;

  Un elevato numero di features rendono gli indici inutilizzabili.

Dobbiamo dunque trovare un'altra strada che permetta di ridurre il numero di features.

LA STRADA GIUSTA

La soluzione a tale problema è quella di ridurre le dimensioni del vettore preservando le distanze dei punti,

mediante applicazione di una trasformata wavelet  che permetta tale operazione. Questo è proprio il primo

passo per la progettazione di un semplice MIS ,effettuando un filtraggio dei dati in modo tale che i dati 

filtrati siano quelli piu importanti .

Ruotiamo il sistema di punti sull’asse x, in modo da preservare le distanze angolari.

Page 4: Capitolo 7 - Caratteristiche

8/4/2019 Capitolo 7 - Caratteristiche

http://slidepdf.com/reader/full/capitolo-7-caratteristiche 4/7

 

Dopo tale processo ci accorgiamo che alcune dimensioni sono meno importanti di altre per cui le

andiamo a rimuovere:

Ottenendo dunque il risultato, ed effettuando una proiezione del modello ruotato otteniamo il modello a

sinistra.

Dall’analisi di tale modello però notiamo che le distanze tra due punti, prima della compressione e dopo

la compressione, sono cambiate

Page 5: Capitolo 7 - Caratteristiche

8/4/2019 Capitolo 7 - Caratteristiche

http://slidepdf.com/reader/full/capitolo-7-caratteristiche 5/7

 

Il che comporta alcune “misses”, punti non compresi nell’intorno di un punto selezionato nell’immagine

di partenza che, al seguito della compressione, vengono invece selezionati considerando la stessa

ampiezza dell’intorno centrato nello stesso punto. Tali misses non possono essere eliminate con

operazioni di post-processing.

Selezione delle Features

Una buona features è significante se permette di distinguere perfettamente due oggetti. Anche a livello

visivo l’occhio umano riesce a effettuare una certa distinzione su tale caratteristica.

Il termine significante è importante:quando utilizziamo tale termine vogliamo dire che la caratteristica(

o features) porta con se un certo quantitativo di informazioni.

Ad esempio l’entropia definisce il contenuto totale di un informazione

Page 6: Capitolo 7 - Caratteristiche

8/4/2019 Capitolo 7 - Caratteristiche

http://slidepdf.com/reader/full/capitolo-7-caratteristiche 6/7

Definiamo dunque un metodo di valutazione delle features, partendo da un immagine definita da un

vettore 3D, e analizzando la disposizione dei punti nell’immagine.

Sembra evidente che la disposizione sull’asse F1 sia migliore, tuttavia ci rendiamo conto che una

migliore separazione è su F2.

Karhunen‐Loeve (KL) Transform

Il metodo di Karhunen - Loeve effettua una perfetta de correlazione dei dati di ingresso e , in particolare

in uno spazio vettoriale la PCA definisce una base alternativa per lo spazio dove la diffusione dei dati è

massimizzata.

 ANALISI E ALGORITMO

Consideriamo n features F1, F2, … , Fn e supponiamo di voler considerare la covarianza di ogni coppia

di fearures.Sia S(i,j) la matrice delle covarianze COV(i,j), ricordando che l’indipendenza statistica impica

covarianza nulla e la , = ℴ2 implica che S sia una matrice diagonale.

Dunque l’obiettivo ultimo della PCA è quello di definire nuove dimensioni in modo tale che, a partire dai dati in esame, la

matrice delle covarianze sia diagonale lungo tali dimensioni, e questo è fatto mediante eigen-decomposizione in eigen-

 valori e eigen-vettori.

Page 7: Capitolo 7 - Caratteristiche

8/4/2019 Capitolo 7 - Caratteristiche

http://slidepdf.com/reader/full/capitolo-7-caratteristiche 7/7

Ricordiamo che la definizione di covarianza

 , = (  −( ))( −) 

Possiamo dunque introdurre l’algoritmo di trasformazione. I passi di trasformazione sono:

  Creazione di una matrice dati, dove ogni riga è un vettore per ogni punto - dati dell’immagine;

  Si sottrae la media a ogni riga per ottenere la covarianza;

  Si decompone in eigen-valori e eigen-vettori.

E’ dunque un metodo basato sulla definizione di covarianza, che definisce, come detto in partenza

quanto incorrelati sono i dati di ingresso.

La distribuzione di valori ottenuta in forma matriciale permette di definire due vettori principali in tutta

la distribuzione, nel caso di distribuzioni 2D, che sono ortonormali tra loro.

Che possono essere decomposti in singoli valori mediante SVD.

SVD

La decomposizione SVD definisce singoli valori secondo la relazione:

 [∗] = ∗ ∗ Δ[r∗r] ∗ (V[m∗r])T 

Dove U,V e A sono matrici semplici mentre Δ è una matrice diagonale.

Proprietà

1.   A,U e V uniche;

2.  U e V colonne ortonormali;

3.   A a valori singolari positivi ordinati in ordine decrescente.

In definitiva, possiamo dire in base a i ragionamenti precedenti che:

una feature è buona se la compattezza totale è incrementa, mentre non lo è se la compattezza dei punti decrementa.