Introdução à Amostragem Compressiva

Preview:

DESCRIPTION

Slides apresentados durante o minicurso Introdução à Amostragem Compressiva, no Simpósio Brasileiro de Telecomunicações. Maiores detalhes no livro Telecomunicações: Teoria, Avanços e Aplicações. ISBN 978-85-89748-08-7.

Citation preview

Introducao a Amostragem Compressiva

Edmar Candeia Gurjao

Departmento de Engenharia EletricaUniversidade Federal de Campina Grande

ecandeia@dee.ufcg.edu.br

01 de setembro de 2013

Apresentacao

I Edmar Candeia Gurjao

I Professor do Departamento de Engenharia Eletrica daUniversidade Federal de Campina Grande - PB

I Areas de Interesse:I Amostragem CompressivaI Radio Definido por Software

Sumario

1. Introducao

2. Amostragem Compressiva

3. Aplicacoes

4. Desafios

5. Fontes de Informacao

Introducao

Quantidade de dados gerada pelos seres humanos tem crescido deforma exponencial:

I A quantidade de dados gerada no mundo cresce 58% por anoI Em 2010 foram gerados 1250 bilhoes de Gigabytes de dados

I Mais bits que estrelas no universo.

I A quantidade de armazenamento cresce a 40% ao ano.

I Dependendo da resolucao e do padrao de gravacao escolhidos,as imagens obtidas por uma camera digital tem pixelsdescartados.

I Componentes em certas frequencias sao eliminadas em muitospadroes de audio

I Donoho, Candes e Tao: Porque nao capturar somente osdados de interesse (informacao)?

Introducao

Teorema de Nyquist: um sinal x(t) limitado em frequencia,|X (f )| = 0, |f | > FM , e univocamente determinado por suasamostras x(nTS), n = 0,±1,±2, ... desde que Fs = 2

Ts≥ 2FM .

I Leva em consideracao somente o conteudo espectral, e nao ainformacao contida no sinal.

I Aplica-se a qualquer classe de sinais.

Introducao

Alternativa para reduzir a quantidade de dados: sub-amostrar:

I Pode-se perder muita informacao.

Introducao - Sinal Esparso

I Uma representacao esparsa para um sinal x de comprimentoN tem S << N coeficientes diferentes de zero.

I Ex. seno: tempo × frequencia

−8 −6 −4 −2 0 2 4 6 8n

−1.5

−1.0

−0.5

0.0

0.5

1.0

1.5

cos(n)

(a)

−8 −6 −4 −2 0 2 4 6 8N

−20

0

20

40

60

80

100

120

140

Amplitude

(b)

Introducao - Sinal Esparso

Ressonancia Magnetica e sua Transformada de Fourier

Introducao - Coerencia

I Dado um par de bases ortonormais, (Φ,A), tem-se

µ(Φ,A) =√N. max

1≤k,j≤N|< φk , aj >|,

a medida de coerencia, e µ(Φ,A) ∈ [1,√N].

I µ = 1 matrizes incoerentes

I µ =√N matrizes coerentes

Amostragem Compressiva - Coerencia

I Sendo Φ e A ortonormais, vamos fazer as linhas de A iguaisas primeiras M colunas de Φ, ou seja

A =

φ1,1 φ2,1 · · · φN,1φ1,2 φ2,2 · · · φN,2

......

......

φ1,M φ2,M · · · φN,M

e

AΦ =

1 0 0 · · ·0 1 0 · · ·...

......

0 0 1 · · ·

logo µ(Φ,A) =

√N e as matrizes tem alta coerencia.

Introducao - Definicao de norma de um vetor

I Norma lp de um vetor (‖ x ‖p)p =N∑

i=1|xi|p

I A norma l0 conta o numero de elementos nao zero no vetor,ou seja, o seu suporte.

I Seja x = (x1, x2)

(c) Norma l1 (d) Norma l2

Introducao - Princıpio da Incerteza

I Seja α a representacao de um vetor x na base Φ e β a suarepresentacao na base A, entao mostra-se que

||α||0 + ||β||0 ≥2

µ(Φ,A)

I Nao e possıvel obter simultaneamente uma representacaoesparsa do mesmo sinal em dois domınios distintos.

Sinais Compressıveis

A melhor aproximacao com S-termos de um sinal e obtidamantendo os maiores S coeficientes, e o erro sera dado por

σS = arg minα∈σS

||x− Φα||2

Para sinais compressıveis

σk ≤ C2S1/2−s

Sinais Compressıveis

I Uma representacao compressıvel aproxima bem um sinal comS coeficientes diferentes de zero.

(e)

0 200 400 600 800 1000 1200N

0.00

0.05

0.10

0.15

0.20

0.25

0.30

0.35

Pixel Amplitude

(f)

I Usando somente os valores e as posicoes diferentes de zeropode-se obter uma representacao com alta fidelidade.

I Fundamento para a codificacoes por transformada: JPEG,JPEG2000, MPEG, MP3, etc.

Amostragem Compressiva

I Amostragem Compressiva (Compressed Sensing, CompressedSampling, Compressive Sensing) surguiu como um frameworkpara obter representacoes bem mais compactas de sinaisesparsos ou compressıveis do que as obtidas baseando-se noTeorema de Nyquist.

I Ideia basica e fazer projecoes em espacos de dimensoesmenores e, quando necessario, recuperar usando otimizacao.

I Nao e uma ideia nova: em outros contextos ha aplicacoes quedatam de 1795.

Amostragem Compressiva

I Sinal esparso x ∈ RN

I x e S-eparso: i : xi 6= 0 tem tamanho igual ou menor que S

I Conjunto de medidas (projecoes) y dadas por

ym = 〈x, am〉, m = 1, ...,M.

I am vetores utilizados para as medicoes

I Notacao matricial y = Ax.

y1

y2...yM

=

a11 a12 · · · a1N

a21 a22 · · · a2N...

......

...aM1 aM2 · · · aMN

×

x1

x2...xN

Sistemas Lineares

Se fizermos M = N:

y = A × x

yM

...

y2

y1

=

aM,1

...

a2,1

a1,1

. . .

. . .

. . .

aM,N

...

a2,N

a1,N

×

xN

...

x2

x1

Sistemas Lineares

Se fizermos M > N:

y = A × x

yM

...

...

y2

y1

=

aM,1

...

...

a2,1

a1,1

. . .

. . .

. . .

aM,N

...

...

a2,N

a1,N

×

xM

...

x2

x1

Sistemas Lineares

Se fizermos M < N:

y = A × x

yM

...

y2

y1

=

aM,1

...

a2,1

a1,1

. . .

. . .

. . .

aM,N

...

a2,N

a1,N

×

xN

...

x4

x3

x2

x1

Sistema Linear × representacao de sinais

Voltemos ao sistema linear: y1...yM

=

a11 a12 · · · a1N...

......

...aM1 aM2 · · · aMN

× x1

...xN

Apos a multiplicacao, observando somente a primeira linha:

y1 = a11x1 + a12x2 + ...+ a1NxN

y1 carrega informacoes sobre todos os xi , ponderados pelosrespectivos a1i .

I Se soubermos N ponderacoes, podemos determinar os xi .

I Se tivermos, ou pudermos fazer N > M combinacoes,podemos proteger os xi contra erros.

Nesses casos pode-se recuperar fazendo x = [ATA]−1ATy.

Amostragem Compressiva

I Caso de interesse M < N

I Menos medidas que valores do sinal (compressao)I y = Ax tem mais incognitas que equacoes

I pode nao ter solucao, ou ter infinitas solucoes.I Vamos considerar que a matriz A e de rank completo, ou seja

suas colunas alcancam (span) todo o espaco RN ,

I Oraculo que indique as posicoes em que o vetor x e nulo,conjunto S. Pode-se formar a matriz AS somente com ascolunas indicadas por S e resolver xS = [AT

SAS ]−1ATS y.

I Sem oraculo em com x esparso: metodo de busca.I Solucao pelo oraculo servira de referencia.

Amostragem Compressiva

I Norma lp de um vetor (‖ x ‖p)p =N∑

i=1|xi|p

I A norma l0 conta o numero de elementos nao zero no vetor,ou seja, o seu suporte.

I Pode-se recuperar o sinal x a partir das medicoes y resolvendoo problema de otimizacao

(P0) minx∈Rn

|| x ||l0 sujeito a Ax = y,

I A solucao desse problema envolve uma busca nos

(NS

)possıveis suportes.

Amostragem Compressiva

I Busca nos

(NS

)possıveis suportes.

I Quanto mais esparso o sinal (menor o valor de S) para ummesmo N, pior.

I Exemplo: [Livro Elad] Para M = 500 e N = 2000, se o sinaltem S = 20 nao zeros, tem-se(

NS

)≈ 3, 9× 1047

I Problema NP-completo.

Amostragem CompressivaI Alternativa ao problema P0: A norma l1 coincide com a

norma l0 dado que algumas condicoes sejam satisfeitas.I Tomando M ≥ S log2(N/S) << N recupera-se o sinal original

resolvendo o problema

(P1) minx∈Rn

|| x ||l1 sujeito a Ax = y,

I Como escolher o valor de M?I Erro mınimo na recuperacao: E ||x− x||2 < ε

I Para x = (x1, x2)

(g) Norma l1 (h) Norma l2

Amostragem Compressiva

Espaco nulo de uma matriz:

N (A) = x : Ax = 0.

I Vetores S-eparsos serao escritos como Ax, logoI x e x′ ambos S-esparsos deveremos ter Ax 6= Ax′, ou ainda

A(x− x′) = 0I Como x− x′ pertence ao conjunto de vetores 2S-esparsos,I Condicao do espaco nulo (Null space condition):

I Para que seja possıvel recuperar um vetor S-esparso a partirde Ax, N (A) nao deve conter vetores 2S-esparsos.

Amostragem Compressiva

I Caso o sinal z nao seja esparso:

I aplicar alguma transformacao Φ e obter uma representacaox = Φz que seja esparsa

I Φ ortonormal, φΦH = φHΦ = I, sendo ΦH o hermitianotransposto

(i) Lena (j) Coeficientes DWT

Amostragem Compressiva

I Em seguida usar uma matriz A para comprimir o sinal.

I Entretanto, as linhas φj de Φ nao podem ser esparsamenterepresentadas pelas colunas ai of A (ou vice-versa).

I Dado um par de bases ortonormais, (Φ,A), tem-se

µ(Φ,A) =√n. max

1≤k,j≤N|< φk , aj >|,

a medida de coerencia, µ(Φ,A) ∈ [1,√N].

Amostragem Compressiva

I Matrizes Φ e A devem ser incoerentes, ou seja, µ(Φ,A) = 1

I Matriz cujos elementos tem distribuicao Gaussiana eincoerente a qualquer outra base.

I Problema pratico: como gerar a mesma matriz na compressaoe na descompactacao?

Amostragem Compressiva

Duas tarefas principais:

I Projetar uma boa matriz de medicao: alta compressaomantendo a informacao e criando robustez contra erros.

I Projetar um bom algoritmo de reconstrucao: rapidez, baixocusto computacional e robustez contra erros.

Amostragem CompressivaI Matriz A que permite a recuperacao do vetor S-esparso v e

para um δS > 0 e que

(1− δS)||v||22 ≤ ||Av ||22≤ (1 + δS)||v||22.

Conhecida como propriedade de isometria restrita (em inglesrestricted isometry property (RIP)).

I A RIP de ordem 2S para dois sinais S-esparsos, x1 e x2:

(1− δ2S) ≤‖Ax1 − Ax2‖2

l2

‖x1 − x2‖2l2

≤ (1 + δ2S). (1)

Amostragem Compressiva

I A obtencao de matrizes que obedecam a RIP ainda e objetode estudos

I Porem selecionando as entradas de A como variaveis aleatoriascom media zero e variancia 1/N, obtem-se uma matriz demedicao universal, que tem as seguintes propriedades:

I e incoerente com a base Φ = I , eI e universal no sentido que Θ = ΦA sera Gaussiana e i.i.d

independente da base ortonormal Φ.

Amostragem Compressiva - Ruıdo

I Ruıdo atinge o sinal ja a mostrado, ou seja, o sinal originaldeve ser recuperado a partir das amostras

y = Ax + n

sendo n um ruıdo, ou

I Ruıdo aparece durante a amostragem, ou seja,

y = Ax + z+ n

conhecido como noise folding.

Amostragem Compressiva - Ruıdo

Primeiro caso (ruıdo adicionado ao sinal amostrado):

I Na presenca de ruıdo y = Ax + z

(P2) minx∈RN

|| x ||l1 sujeito a ||Ax− y||2 ≤ ε,

I Para um ruıdo Gaussiano com variancia σ2:I Solucao pelo oraculo (conhecimento das posicoes diferentes de

zero):E ||xOracle − x||2 = Mσ2.

I Seletor Dantzig estima xDS com erro medio quadratico dadopor:

1

NE ‖ xDS − x ‖2

2≥ CS

Mlog(N)σ2 (2)

Amostragem Compressiva - Ruıdo

Segundo caso (ruıdo adicionado durante amostragem):

y = Ax + z+ n (3)

I n ruıdo de medicao, z como um ruıdo associado ao sinal comco-variancia σ2

0I:y = Bx + u

B uma matriz com RIP proxima ao da matriz A, e u um ruıdobranco de media zero e co-variancia (σ2 + N

Mσ20)I.

I Como M << N, a compressao aumenta a variancia do ruıdo,fato denominado de noise folding.

Amostragem Compressiva - Ferramental

I Matriz Gaussiana AM×NI Obter as medidas yN = Ax.I Recupera-se os sinal usando minimizacao da norma l1:

1. Relaxacao convexa (Convex relaxation) utilizacao umproblema de otimizacao convexa para recuperar o sinal esparso.

2. Busca Gulosa: algoritmos que fazem a busca umaaproximacao esparsa pela busca de coeficientes que fornecem amelhor representacao.

3. Framework Bayesiano (Bayesian framework) assume umadistribuicao a priori do sinal esparso e utilizando estimacaorecupera os sinal esparso.

4. Otimizacao nao-convexa (Nonconvex optimization) utilizametodos de otimizacao nao convexa para recuperar o sinalesparso.

5. Combinatoriais fazem um busca sobre todos os possıveisconjuntos de suporte para determinar em quais deles estao oscoeficientes do sinal esparso.

Metodos Baseados em Otimizacao Convexa

De forma geral parte-se de um funcao de custo J(x) que e pequenapara x esparso, e busca-se resolver

minxJ(x) : y = Ax

Usando J(x) = ||x||1 e comum usar Programacao Linear. Exemplomais comum l1 magic.

Metodos de Otimizacao

Partindo do problema basico da minimizacao da norma l1 :

minx∈Rn

|| x ||1 sujeito a Ax = y,

escreve-se o problema de otimizacao

minx∈Rn

1

2|| Ax− y ||22 +τ ||bfx ||1,

sendo τ um parametro de regularizacao cujo valor governa aesparsidade da solucao, desenvolveram-se varios algoritmos: l1ls,Fixed-Point Continuation, etc..

Dantzig Selector

Estimacao de um parametro x ∈ RN das observacoes ruidosasy ∈ RM , quando M << N, e ruıdo Gaussiano n ∼ N (0, σ2

nIM).

miny∈RN

||y||l1 sujeito a ||A∗r||l∞ = supi≤i≤N

|(A∗r)i | ≤ λp · σ (4)

para algum λp > 0, e o vetor de resıduos r = y − Ay.|(A∗r)i | ≤ λN · σ for i = 1, ...,N: resıduos no nıvel de ruıdo.

Dado o sinal esparso S e a matriz Gaussiana com entradas i.i.d., onumero de medidas e dada por:M = S · log(p/S).

Metodos de Busca Gulosa

Metodo de perseguicao (pursuit): consiste em refinar aestimativa de um vetor pela modificacao de um ou mais de seuscomponentes e escolher a modificacao que melhora arepresentacao do sinal.

I Basis Pursuit

I Matching Pursuit

I Orthogonal Matching Pursuit

Matching Pursuit

Dada a representacao compacta y, a matriz A, faz-se o resıduor0 = y e com os passos:

λk = arg maxλ

< rk , ak > ak

||ak ||2

rk = rk−1 −< rk , aλk > aλk||aλk ||2

exλk = xλk + < rk−1, aλk >

Criterio de parada: norma do resıduo muito pequena.

Orthogonal Matching Pursuit

Entradas:

I Uma matriz, de medicao Φ, N × d

I Um vetor N-dimensional v de dados

I O nıvel m de esparsidade do sinal ideal

Saıdas:

I Uma estimativa s em Rd do sinal ideal

I Um conjunto Λm contendo m elementos de 1, ..., dI Uma aproximacao N dimensional am do vetor v

I Um resıduo N dimensional rm = v − am

Orthogonal Matching Pursuit

Inicializacao:

I Faca r0 = v, Λ0 = ∅, e o contador de inicializacao t = 1

Iteracao: Enquanto t < m faca

1. Encontre o ındice λt que resolve o problema de otimizacao

λt = arg maxj=1,...,d

< rt−1, ϕj >

2. Amplie o conjunto ındice e a matriz com os atomos escolhidos: Λt = Λt−1 ∪ λt e Ωt = [Ωt−1 ϕλt ].Inicie com Ω0 como a matriz vazia.

3. Resolva o problema dos mınimos quadrados para obter a nova estimativa do sinal

xt = arg minx||v − Φtx||2

4. Calcule a nova aproximacao dos dados e o novo resıduo

at = Φtxt e rt = v − at

5. Incremente t.

Metodos Combinatoriais

I Analise das possıveis representacoes dos sinais.

I Complexidade maior do que os algoritmos de perseguicao

I Dependendo da relacao entre a esparsidade e o tamanho dosinal, dao respostas mais adequadas que os demais.

I Exemplo: dados N items como determinar S com defeito?I Teste de grupos: aplica-se o teste a um grupo de L elementos,

caso haja erro, esse grupo e subdividido.I Aplicacao na deteccao de doencas durante a guerra.

.

Metodos Combinatoriais × Algoritmos de Busca

Transicao de fase (phase transition) [Donoho e Tanner]: limiarentre a compressao obtida e a esparsidade de um sinal. Determinaregiao em que deve-se usar os algoritmos de busca oucombinacionais.

(k) Observer Universality of PhaseTransition. Donho e Tanner

(l) Fonte: Nuit Blanche

Amostragem Compressiva - Hardware

I Objetivo: Conversao do sinal no domınio analogico para odomınio digital porem capturando apenas a informacao

I Conversores Analogicos para Informacao, ou AIC do inglesAnalog to Information Converter.

I Sinal x(t), t ∈ [0,T ], um conjunto de funcoes testeφ(t)Mj=1, e realizar M medicoes da forma

y [j ] =

∫ T

0x(t)φj(t)dt. (5)

I Para construir esse sistema de medicao devemos ter trescomponentes

I hardware para gerar sinais de teste φj(t)I M correlatores que multipliquem o sinal x(t) com cada um dosφj(t)

I M integradores com um estado inicial com valor zero.

Amostragem Compressiva - Modulador Aleatorio

x(t) e correlacionado com uma sequencia de pulsos aleatorios ±1,que alterna entre os valores numa taxa de Nyquist NaHzproporcional a taxa de Nyquist de x(t).Sinal misturado e integrado em um perıodo de tempo de 1/Ma eamostrado por um ADC de taxa MaHz << NaHz , o que fornece:

y [j ] =

∫ j/Ma

(j−1)/Ma

pc(t)x(t)dt. (6)

Amostragem Compressiva

Denotando pc [n] como a sequencia de sımbolos ±1 usada paragerar pc(t), temos que pc(t) = pc [n], t ∈ [(n − 1)/Na, 1/Na], ecomo exemplo seja j = 1, temos

y [1] =

∫ 1/Ma

0pc(t)x(t)dt =

Na/Ma∑0

pc [n]

∫ 1/Ma

0x(t)dt (7)

e como Na e a taxa de Nyquist de x(t) entao∫ 1/Ma

0 x(t)dt e amedia de x(t) no n-esimo intervalo, que pode ser denotado porx [n], o que nos leva a

y [1] =

Na/Ma∑n=1

pc [n]x [n]. (8)

Amostragem Compressiva - NUS

Amostrador nao uniforme (non-uniform sampler - NUS): mantemsomente uma parte das amostras.

Amostragem Compressiva - Xampling

Baseia-se na uniao de subespacos para determinar em qual dossubespacos as amostras do sinal estao e em seguida utilizar umconversor AD comercial para digitalizar o sinal.

Amostragem Compressiva - Propriedades

Amostragem Aleatoria A amostragem se da pela multiplicacao poruma matriz pseudo-aleatoria que pode ser gerada poruma semente, que pode ser encarada como umachave criptografica.

Robustez a Erros A perda de amostras do sinal comprimido naogera a perda total do sinal reconstruıdo, pois podeser encarada apenas como uma reducao do numerode amostras do sinal.

Universalidade O projeto do codificador leva em conta aesparsidade do sinal, e nao sua banda de frequencia,sinais com o mesmo nıvel de esparsidade podem seramostrados com o mesmo codificador, independenteda natureza do sinal.

Complexidade Reversa O codificador e extremamente simples. Issopossibilita a aplicacao de compressao onde existelimitacao de hardware, como em redes de sensoressem fio.

Amostragem Compressiva – Aplicacoes de maior destaque

Amostragem Compressiva – Aplicacoes de maior destaque

Amostragem Compressiva – Imagens em terahertz

I Ondas em Terahertz (0,3 a 10 THz,) pentram barreiras comoroupas e plastico.

I Podem ser usadas em seguranca para revelar, de forma naodestrutiva, objetos escondidos

I Dependendo da resolucao, pode levar horas para obter umaimagem.

Amostragem Compressiva – Imagens em terahertz

Amostragem Compressiva – Imagens em terahertz

Amostragem Compressiva – Correcao de ErrosI Vetor de informacao x de tamanho N, uma matriz de

codificacao AM×N e o vetor codigo y = Ax. No caso dacodificacao para controle de erros, sere feito M > N, pois oobjetivo aqui e introduzir redundancia.

I O vetor codigo y e corrompido por um ruıdo e gerando ovetor yr = Ax + e, sendo e um vetor esparso arbitrario detamanho M com

||e||0 ≤ ρMsendo ρ < 1.

I Para reconstruir x deve-se reconstruir e pois y = ax + efornece Ax e consequentemente x pois A e uma matriz derank completo.

I Obtendo uma matriz F tal que FA = 0 pode-se fazer

y′ = F(Ax + e) = Fe

e o problema se reduz a reconstruir o vetor esparso e a partirde Fe.

Amostragem Compressiva – Correcao de Erros

I Outra maneira e resolver o problema de otimizacao

ming∈RN

|| y − Ag ||l1 .

pois sendo g = f + h chega-se a

ming∈RN

|| e− Ah ||l1 .

Os autores estabelecem o tamanho maximo do suporte devetor de erros e para o qual a minimizacao e unica.

Processamento de Sinais no Domınio Comprimido

I A operacao Ax eI LinearI Obedecendo a RIP as propriedades dos sinais se mantem

I Parametros podem ser medidos na representacao comprimida,y = Ax.

I Algumas classes de processamento nao necessitam recuperar osinal original: inferencia, classificacao, estimacao e deteccaode parametros.

Aplicacoes da Amostragem Compressiva

I Compressao de audioI Musica → MDCT → Comprimir usando Amostragem

compressiva → Recuperar → Medida de distorcao

Qualidade Perceptual Interpretacao

-5 a -4 Diferenca perceptıvel e muito desagradavel-4 a -3 Diferenca perceptıvel e desagradavel-3 a -2 Diferenca perceptıvel e levemente desagradavel-2 a -1 Diferenca perceptıvel mas nao desagradavel-1 a 0 Diferenca imperceptıvel

Aplicacoes da Amostragem Compressiva

0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5−4

−3.5

−3

−2.5

−2

−1.5

−1

−0.5

0

Taxa de Compressão

Qua

lidad

e P

erce

ptua

l Méd

ia

Comparação entre CODECs comuns e ACS

MP2MP3AACOGGACS

Figura: CODECs comuns e ACS

Aplicacoes da Amostragem Compressiva

Jhonson-Lindenstrauss Lemma: para um conjunto de N pontos emM dimensoes e possıvel encontrar uma projecao aleatoriaf : RN×D → RN×M com M =

(log N

ε2

)Considere uma colecao de N objetos cada um com D dimensoesrepresentado no instante n por uma matriz

X (n) = [x1(n) x2(n) ... xN(n)]T

e atualizados de forma assıncrona com ∆(n + 1) = (i , j , vn+1) queinforma a atualizacao da linha i , coluna j com o valor v .

Aplicacoes da Amostragem Compressiva

I Atualizacoes na matriz X (n) ∈ Rn×d podem ser vistas como:

xi ,j(n) = xi ,j(n − 1) + vn

e em uma notacao matricial

X(n) = X(n − 1) + V(n)

sendo V(n) = Vmn(n) = vnδi ,mδj ,n.

Aplicacoes da Amostragem CompressivaI Se considerarmos A(0) = 0 temos

A(n) =n∑

i=1

V(i).

Usando a matriz R ∈ RD×M podemos escrever o esboco damatriz A(n) usando a projecao

S(n) = A(n) · R

e

S(n) =n∑

i=1

V(n)R.

As atualizacoes podem ser feitas considerando

S(n + 1) =n+1∑i=1

V(n)R =n∑

i=1

V(n)R + V(n + 1)R

entao para atualizar os esbocos pode-se projetar a atualizacaosobre a matriz R.

Aplicacoes da Amostragem Compressiva

I Esboco de uma atualizacao pode ser vista como

V(n)R = [0 ...v(n) ...0]T [r1 r2 ... rN ] = v(n)

0 0 ... 0...

... · · ·...

rj ,1 rj ,2 · · · rj ,k...

... · · ·...

0 0 ... 0

entao a atualizacao dos esbocos consiste em multiplicar ovalore da autalizacao pela linha ad matriz de projecao.

Aplicacoes da Amostragem Compressiva

I Considerando dados gerados por medidores de energia eletrica

I Conjunto de 400 usuarios

I Medida de ”similaridade”(S) entre usuarios: distancia entreos vetores que representem os seus consumos.

I SO similaridade calculada nos dados originais

I SP similaridade calculada nos dados projetados

I E = |SO−SP |S1

.100

Aplicacoes da Amostragem Compressiva

Erro na recuperacao × Compressao

Aplicacoes da Amostragem Compressiva

Tempo de processamento × Compressao

Fontes de Informacao

I Nuit Blanche blog (http://nuit-blanche.blogspot.com.br/)

I DSP at Rice University (http://dsp.rice.edu/cs)

I An Introduction to Compressive Sensing, Connexions.

Fontes de Informacao

Fontes de Informacao

Finalmente

Obrigado!

Edmar Candeia Gurjao

ecandeia@dee.ufcg.edu.br

Recommended