Sunteți pe pagina 1din 121

Função de Autocorrelação e Aplicações em ETI

Guilherme de Alencar Barreto


guilherme@deti.ufc.br

Grupo de Aprendizado de Máquinas – GRAMA


Programa de Pós-Graduação em Engenharia de Teleinformática
Universidade Federal do Ceará – UFC
http://www.deti.ufc.br/∼guilherme

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
“O processamento de sinais mudou! Não estamos mais na era na
qual a informação na forma de sinais elétricos é processada por
meio de tradicionais dispositivos analógicos. Nós estamos solida e,
para o futuro previsı́vel, irrevogavelmente, no âmago do
processamento de sinais digitais (amostrados ou discretos no
tempo) aleatórios.”

Charles W. Therrien, 1992


Discrete Random Signals and Statistical Signal Processing

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação

Conteúdo da Apresentação
1 Sinais de Tempo Contı́nuo/Discreto
2 Quantização e Amostragem
3 Gráfico de Dispersão (lagplot)
4 Definição de Função de Autocorrelação (FAC)
5 Detecção de Sinais Usando a FAC
6 Função Densidade Espectral de Potência (FDE)
7 Periodograma e a Transformada Discreta de Fourier

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação

Pré-Requisitos
1 Variáveis Aleatórias
2 Álgebra Linear
3 Sinais e Sistemas
4 Noções de Matlab/Octave/Scilab

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação

Objetivo Geral da Aula


Definir conceitos relacionados à avaliação quantitativa e qualitativa
da dependência estatı́stica entre valors de uma mesma variável
aleatória em instantes de tempo diferentes, bem como a aplicação
destes em problemas próprios da Engenharia de Teleinformática.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação

Referências Importantes

1 Charles W. Therrien (1992). Discrete Random Signals and Statistical


Signal Processing, .

2 Sı́lvio A. Abrantes (2000). Processamento Adaptativo de Sinais,


Fundação Calouste Gulbekian, Lisboa.

3 A. Hyvärinen, J. Karhunen & E. Oja (2001). Independent Component


Analysis, John Wiley & Sons.

4 S. Haykin (2001). Adaptive Filter Theory, 4th edition, Prentice Hall.

5 L. A. Aguirre (2007). Introdução a Identificação de Sistemas, 3a edição,


Editora UFMG.

6 G. A. Barreto - Notas de Aula disponı́veis em


http://www.deti.ufc.br/∼guilherme.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Parte I

Sinais de Tempo Contı́nuo/Discreto

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Introdução

Objetivo Geral da Aula


Avaliar a dependência estatı́stica entre as amplitudes de um sinal
em instantes de tempo diferente.

Em Outras Palavras
Avaliar o quanto o valor atual da amplitude de um sinal
depende de seus valores passados.
Isto equivale a querer saber se o sistema que gera o sinal
sendo analisado tem MEMÓRIA!

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Definição de Sinal

Em Engenharia de Teleinformática, tratamos com freqüência


de sinais aleatórios uni- ou multidimensionais.
Mas, o que vem a ser um sinal?

Definição Informal
Um sinal é a representação gráfica ou numérica da intensidade de
uma certa grandeza fı́sica que está sendo medida durante um dado
intervalo de tempo.

Exemplos: tensão, corrente, onda sonora, temperatura, força,


deslocamento, aceleração, etc.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Contı́nuo

Em geral, a representação da grandeza fı́sica medida envolve


sua conversão para uma forma de onda de tensão/corrente
(sinal elétrico), fenômeno conhecido com transdução elétrica,
e que exige a presença de sensores (instrumentação).
Por exemplo, ao usarmos um microfone, o sinal de voz (onda
de pressão sonora) é convertido em um sinal elétrico que pode
ser medido e visualizado na tela de um osciloscópio analógico.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Contı́nuo (cont.-1)

O gráfico mostrado no osciloscópio analógico é chamado de


forma de onda do sinal medido.
Note que a visualização da forma de onda em um osciloscópio
analógico mostra as amplitudes como estando definidas para
todo e qualquer instante de tempo dentro do intervalo de
medição.
Neste caso, o sinal é chamado de sinal de tempo contı́nuo ou
sinal analógico.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Contı́nuo (cont.-2)

Definição Formal - Sinal Analógico


Seja a amplitude do sinal representada pela variável x, x ∈ ℜ e a
variável tempo pela letra t, t ∈ ℜ, então um sinal de tempo
contı́nuo é representado matematicamente como x(t) ou xt , sendo
a sua representação gráfica no plano cartesiano dada pela curva
x(t) × t, em que t corresponde ao eixo das abscissas e x(t) ao eixo
das ordenadas.

Um sinal é dito de tempo contı́nuo se o intervalo entre dois


instantes consecutivos quaisquer t1 e t2 , t2 > t1 > 0, é contı́nuo,
ou seja, não contém interrupções.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Contı́nuo

Atenção!
A definição de sinal analógico dada anteriormente é bem
genérica, contemplando tanto sinais determinı́sticos, quanto
sinais aleatórios, também chamados de sinais estocásticos.
Neste curso estamos particularmente interessados em sinais
aleatórios, ou seja, sinais que sofrem a influência de fenômenos
probabilı́sticos no seu processo de geração e/ou de medição.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Contı́nuo

Exemplo de sinal aleatório (senóide + ruı́do branco gaussiano)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Contı́nuo (cont.-3)

Alguns exemplos de sinais analógicos, dentre inúmeros possı́veis,


são dados a seguir:
1 Sinal de voz/fala.
2 Sinal de eletrocardiograma (ECG).
3 Sinal de eletroencefalograma (EEG).
4 Música produzida por uma fita cassete.
5 Velocidade de rotação de um motor de indução.
6 Onda de tensão produzido por um gerador elétrico.
7 Onda de tensão nos TAPs do secundário de um transformador.
8 Sinal gerado por um instrumento musical (e.g. flauta, violino)
Exercı́cio: Você é capaz de imaginar outros exemplos de sinais
analógicos?

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Contı́nuo (cont.-4)

Pergunta Desafio
A afirmação a seguir é verdadeira ou falsa?
Sinais analógicos são aqueles que necessitam de sensores
ou transdutores para serem observados (medidos).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto

Atualmente estão cada vez mais comum o uso de


osciloscópios digitais e de osciloscópios virtuais. Osciloscópios
virtuais são aqueles implementados em software em
computadores pessoais (PCs).
Em ambos os casos, o sinal de tempo contı́nuo é convertido
em um sinal de tempo discreto por meio de conversores
Analógicos-Digitais (A/D).
Um conversor A/D executa basicamente duas funções:
amostragem e quantização.
Por meio destas duas funções, um conversor A/D converte um
sinal de tempo e amplitude contı́nuos em um sinal de tempo e
amplitude discretos.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.-1)

A amostragem é o processo pelo qual um sinal de tempo


contı́nuo é convertido em um sinal de tempo discreto.
Durante a amostragem o conversor A/D captura (lê) a cada
∆T unidades de tempo as amplitudes do sinal analógico x(t)
gerando uma seqüência numérica dada por:

{x(∆T ), x(2∆T ), . . . , x(n.∆T ), . . . , x(N · ∆T )}

em que a constante ∆T é chamada de perı́odo de


amostragem e o recı́proco fs = 1/∆T é chamado de
freqüência de amostragem do sinal contı́nuo.
Uma freqüência de amostragem fs =1 KHz quer dizer que em
1s são capturadas 1000 amostras do sinal contı́nuo x(t),
separadas de ∆T =1ms uma da outra.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.-2)

A figura abaixo ilustra o processo de amostragem para um


sinal senoidal hipotético.

10

4
amplitude (V)

−2

−4

−6

−8

−10
0 0.2 0.4 0.6 0.8 1
tempo (s)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.-3)

Teorema de Nyquist
Um resultado central na teoria da amostragem estabelece que
se o sinal analógico x(t) é amostrado a uma taxa fs maior
que duas vezes o valor de sua maior freqüência, ou seja, se
1
fs = ,
Ts
então x(t) pode ser recuperado a partir de {x(nT )} com
acurácia, ou seja, o sinal amostrado contém toda a
informação para reconstruir o sinal analógico.
Este resultado é chamado de Teorema de Nyquist, e a
menor taxa de amostragem que satisfaz este critério para um
dado sinal é chamada de Taxa de Amostragem de Nyquist.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.-4)

O processo de quantização converte cada um dos valores


amostrados {x(∆T ), x(2∆T ), . . ., x(n∆T ), . . ., x(N ∆T )}
em um código binário que é formado por um certo número de
bits.
Por exemplo, se o código é de 4 bits então cada valor
amostrado é convertido para um dos 16 códigos possı́veis, ou
seja:

0000, 0001, 0010, 0011, 0100, 0101, 0110, 0111,


1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111

Estes códigos correspondem a 16 nı́veis discretos de amplitude


entre o valor mı́nimo e máximo medido (ou permitido).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.-5)

A escolha de qual palavra-código utilizar depende do valor da


amostra no instante nT , n = 1, . . . , N .
O valor de x(nT ) é “arredondado” para o nı́vel discreto mais
próximo.
A quantização é necessária pois o computador só entende
números binários.
O processo de quantização introduz um erro de
arredondamento, chamado de erro de quantização, que
depende diretamente do número de bits do conversor A/D.
O erro de quantização é sempre menor do que o passo de
quantização, que para um conversor de b bits é igual 2−b .

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.-6)

Os processos de amostragem e os efeitos numéricos da


quantização sobre o sinal amostrado estão ilustrado na tabela
abaixo.

Valor amostrado Valor Quantizado Código Binário


13,5 14 1110
7,8 8 1000
11,1 11 1011
8,6 9 1001
12,4 12 1100

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.-7)

As figuras abaixo ilustram os processos de amostragem (à


esquerda) e quantização do sinal amostrado (à direita).

10 10

8 8

6 6

4 4
amplitude (V)

amplitude (V)
2 2

0 0

−2 −2

−4 −4

−6 −6

−8 −8

−10 −10
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
tempo (s) tempo (s)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.-8)

Conforme já mencionado, o uso do conversor A/D é


necessário para ETI porque o computador digital não é capaz
de processar diretamente sinais analógicos.
Contudo, há sinais que já “nascem” de tempo discreto e que
além disso também não tem uma interpretação propriamente
fı́sica (seja, mecânica, ou eletromagnética).
Este tipo de sinal pode ser encontrado em diversas áreas do
conhecimento, sendo o mercado financeiro um exemplo
bastante comum. Considere o valor de fechamento diário da
cotação Dólar/Real.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont. 9)

Este é um sinal inerentemente de tempo discreto porque os


valores da cotação só estão disponı́veis de tempos em tempos,
em instantes bem definidos.
Neste caso, o perı́odo de amostragem (ou observação) dos
valores da cotação Dólar/Real pode ser de 24h, mas pode ser
diminuı́do para 5 em 5 minutos, 1 em 1 minuto, ao longo de
cada dia, etc.
Contudo, chegaremos a um limite prático inferior para o
perı́odo de observação desta grandeza. Por exemplo, não é
prático, talvez impossı́vel, que alguém (no caso, o operador do
mercado financeiro) seja capaz de observar a cotação
Dólar/Real a cada intervalo de 1ms!

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Sinal de Tempo Discreto (cont.9)

Outros exemplos de sinais de tempo discreto, dentre inúmeros


possı́veis, são listados a seguir:
1 Tráfego em rede de computadores (e.g. pacotes que chegam
em um servidor de internet ao longo do tempo).
2 Consumo mensal de energia elétrica de uma residência1 .
3 Número de acidente aéreos por ano no mundo.
4 Número de terremotos por ano no mundo.
5 Número de chamadas telefônicas que chegam a uma central,
contabilizados de 10 em 10 minutos.
6 Número de erros tipográficos por página de um livro.

1
A energia é medida continuamente, mas o valor do consumo só está
disponı́vel ao final de cada mês.
c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Parte II

Função de Autocorrelação

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Prolegômenos

Nesta aula abordaremos duas das ferramentas mais


importantes na análise de sinais estocásticos, a saber: a
Função de Autocorrelação (FAC) e a Função Densidade
Espectral de potência (FDE).

Apesar do termo “correlação” ser usado aqui com sentido


semelhante àquele estudado para variáveis aleatórias, quando
aplicado a sinais estocásticos este termo envolverá também a
informação extraı́da da ordem temporal das amplitudes do
sinal ou sinais envolvidos.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC de sinais aleatórios contı́nuos

Definição
A Função de Autocorrelação (FAC) de X(t) para dois instantes
R
de tempo t1 e t2 , t1 , t2 ∈ e t2 > t1 , é definida como:

RX (t1 , t2 ) = E[X(t1 )X(t2 )]


Z ∞Z ∞
= x1 x2 fX1 X2 (x1 , x2 )dx1 dx2 (1)
−∞ −∞

em que x1 = x(t1 ), x2 = x(t2 ) e fX1 X2 (x1 , x2 ) é a FDP conjunta


de X1 = X(t1 ) e X2 = X(t2 ).

A FAC avalia o quanto a amplitude do sinal em certo instante


de tempo t1 está estatisticamente associada à amplitude do
sinal em outro instante de tempo t2 .
Note que a FAC fornece valores na faixa (−∞, +∞).
c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC de sinais aleatórios contı́nuos (cont.-1)

A figura abaixo mostra várias realizações um sinal aleatório.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC de sinais aleatórios contı́nuos (cont.-2)

Importante 1
Valores positivos indicam que quando a amplitude no instante
t1 tende a crescer, a amplitude no instante t2 tende a crescer
também.

Valores negativos indicam que quando a amplitude no


instante t1 tende a crescer, a amplitude no instante t2 tende a
decrescer.

Valores próximos de zero indicam que tanto faz se a


amplitude no instante t1 tende a crescer (ou descrescer), pois
não se verifica nenhuma tendência de crescimento (ou
decrescimento) da amplitude no instante t2 .

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC de sinais aleatórios contı́nuos (cont.-3)

Importante 2
Valores elevados da FAC para dois instantes quaisquer t1 e t2
indicam a presença de componentes de baixa freqüência no
sinal.
⋆ Quando o sinal é predominantemente de baixa freqüência as
amplitudes consecutivas X(t1 ) e X(t2 ) possuem valores muito
parecidos.

Valores baixos da FAC para dois instantes quaisquer t1 e t2


indicam a presença de componentes de alta freqüência no
sinal.
⋆ Quando o sinal é predominantemente de alta freqüência as
amplitudes consecutivas X(t1 ) e X(t2 ) possuem valores bem
diferentes.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC de sinais aleatórios contı́nuos (cont.-4)

A figura abaixo mostra um sinal aleatório com um conteúdo


harmônico considerado de baixa freqüência.

1.5

X(t2)
X(t1)
1

0.5
Amplitude do Sinal

−0.5

−1

−1.5
0 10 20 30 40 50 60 70 80 90 100
t1 t2
tempo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC de sinais aleatórios contı́nuos (cont.-5)

A figura abaixo mostra um sinal aleatório com um conteúdo


harmônico de maior freqüência que a do sinal do slide anterior.

1.5

X(t1)

0.5
Amplitude do Sinal

−0.5 X(t2)

−1

−1.5
0 10 20 30 40 50 60 70 80 90 100
t1 t2
tempo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC de sinais aleatórios contı́nuos (cont.-6)

A amplitude do sinal mostrado na segunda figura varia


bastante entre instantes consecutivos t1 e t2 , t2 > t1 ,
enquanto a amplitude do sinal da primeira figura varia menos.

Logo, o produto X(t1 ) · X(t2 ) para a segunda figura é menor


do que o produto para a primeira figura, para os mesmos
valores t1 e t2 .

Quanto mais distintos forem os valores consecutivos das


amplitudes X(t1 ) e X(t2 ), menor será a correlação entre eles.

Quanto mais parecidos forem os valores consecutivos das


amplitudes X(t1 ) e X(t2 ), maior será a correlação entre eles.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC de sinais aleatórios contı́nuos (cont.-7)

Comentário Importante
A interpretação da FAC em termos do conteúdo harmônico de um
sinal será muito útil mais adiante quando formos definir o conceito
de função densidade espectral de potência.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Média de sinais aleatórios contı́nuos

Note que a definição da FAC dada na Eq. (1) assume que as


média mX (ti ) do sinal em t1 e t2 são nulas.
Esta suposição nem sempre é válida! O que nos levará à
definição de Função de Autocovariância.
Antes, vamos definir melhor a média do sinal X(t) em ti .

Definição
Seja fXi (xi ) a PDF de X(t) em ti e xi ≡ X(ti ). Então a média
de X(t) no instante ti é definida como:
Z ∞
mX (ti ) = E[X(ti )] = xi fXi (xi )dxi (2)
−∞

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Média de sinais aleatórios contı́nuos (cont.-1)

Observações sobre a Média de um Sinal Aleatório


A média de um sinal estocástico é função de ti .
⋆ Ela pode ter valor diferente para diferentes valores de ti .

Na Eq. (2) o sinal é contı́nuo, logo para resolver a integral


devemos conhecer todos os infinitos possı́veis valores que xi
pode assumir em ti .

De acordo com a Eq. (2), para saber o valor médio da


amplitude do sinal no instante ti necessitamos de infinitas
realizações do sinal estocástico X(t).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Média de sinais aleatórios contı́nuos (cont.-2)

A figura abaixo mostra várias realizações um sinal aleatório.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Função de autocovariância de sinais aleatórios contı́nuos

Uma vez definida a média de um sinal estocástico,


prosseguimos com a definição de Função de
Autocovariância (FACV).

Definição
Seja fX1 X2 (x1 , x2 ) a PDF conjunta do sinal X(t) nos instantes t1
e t2 . Então a Função de Autocovariância (FACV) de X(t)
nestes dois instantes de tempo é definida como:

CX (t1 , t2 ) = E[(x(t1 ) − mX (t1 ))(x(t2 ) − mX (t2 ))] (3)

em que mX (ti ) = E[X(ti )] é a média do sinal no instante ti ,


i = 1, 2.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FACV de sinais aleatórios contı́nuos (cont.-1)

Após alguma manipulação algébrica, chegamos a uma


expressão bastante útil que relaciona a FAC com a FACV:

CX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 ) (4)

⋆ Para obter a FACV basta calcular a FAC e subtrair o produto


das médias correspondentes.

Para sinais de médias nulas tem-se obviamente que

CX (t1 , t2 ) = RX (t1 , t2 ) (5)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Variância de sinais aleatórios contı́nuos

Uma definição importante que derivada da definição de FACV


é a de variância de um sinal aleatório.

Definição
Seja fXi (xi ) a PDF do sinal X(t) no instante ti . Então a
Variância (FACV) de X(t) neste instante é definida como:
2
σX (ti ) = E[(x(ti ) − mX (ti ))2 ],
Z ∞
= (xi − mX (ti ))2 fXi (xi )dxi (6)
−∞

em que mX (ti ) = E[X(ti )] é a média do sinal no instante ti .

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Valor quadrático médio sinais aleatórios contı́nuos

Por sua vez, da definição de variância deriva-se o conceito de


Valor Quadrático Médio de um sinal aleatório.

Definição
Considere que o sinal X(t) tem média nula. Então, o valor
quadrático médio de X(t) é definido como:

E[x2 (ti )] = RX (ti , ti ),


Z ∞
= x2i fXi (xi )dxi (7)
−∞

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Coeficiente de Autocorrelação

É comum em Processamento de Sinais Estocásticos, usar uma


versão normalizada da FACV, popularmente conhecida como
Coeficiente de Autocorrelação (CAC).

Definição
Seja CX (t1 , t2 ), σX (t1 ) e σX (t1 ), respectivamente, a FACV e as
variâncias do sinal X(t) para os instantes t1 e t2 . Então, o
Coeficiente de Autocorrelação (CAC) de X(t) é dado por

CX (t1 , t2 )
ρX (t1 , t2 ) = (8)
σX (t1 )σX (t2 )

Pode-se mostrar (Exercı́cio Proposto!) que

−1 ≤ ρX (t1 , t2 ) ≤ 1

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade

Um conceito importante em processamento de sinais


aleatórios é a Estacionariedade.
Este conceito está associado com a invariância (ou constância)
das propriedades estatı́sticas de um processo estocástico.
Considere a seguinte realização de um processo estocástico:

{X(t1 ), X(t2 ), ..., X(tk )}

Considere agora uma nova realização obtida τ instantes de


tempo depois, ou seja:

{X(t1 + τ ), X(t2 + τ ), ..., X(tk + τ )}

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-1)

Definição
Um processo estocástico é fortemente estacionário ou estacionário
no sentido estrito se, e somente se, todas as FDPs de ordem k ≥ 1
forem invariantes sob uma translação do tempo τ ∈ . R
Assim, um processo estocástico é fortemente estacionário se, para
todo k e para todo τ :

fX1 (x1 ) ≡ fX1+τ (x1+τ )


fX1 X2 (x1 , x2 ) ≡ fX1+τ X2+τ (x1+τ , x2+τ )
.. .. ..
. . .
fX1 X2 ...Xk (x1 , x2 , ..., xk ) ≡ fX1+τ X2+τ ...Xk+τ (x1+τ , x2+τ , ..., xk+τ )

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-2)

Observações Importantes - 1
A condição de estacionariedade forte é um requisito bastante
severo, pois exige que todas as FDPs associadas sejam
invariantes no tempo.

Esta condição é bastante difı́cil de ser verificada ou testada na


prática. Uma definição “menos” exigente de estacionariedade
é freqüentemente usada (ou assumida).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-3)

Observações Importantes - 2
Quando a condição acima só é válida para 1 ≤ r ≤ k, diz-se
que o processo estocástico X(t) é estacionário de ordem r.

Um caso importante e de bastante interesse prático diz


respeito a um processo estocástico estacionário de ordem
r = 2.

Este processo estacionário é chamado fracamente


estacionário ou estacionário no sentido amplo.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-4)

Observações Importantes - 2
Para um processo fracamente estacionário as seguintes condições
são válidas:

Condição 1 - A média do processo mX (ti ) é constante.


2 (t ) é constante.
Condição 2 - A variância do processo σX i

Condição 3 - A FAC do processo RX (t1 , t2 ) = RX (τ ), em que


τ = t2 − t1 (t1 < t2 ).

As condições acima são mais fáceis de se verificar na prática,


permitindo classificar um sinal estocástico em estacionário ou
não-estacionário.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-5)

Mostre que a Condição 1 de estacionariedade fraca é verdadeira.


Seja X(t) um processo estocástico contı́nuo. Se o processo é
estacionário, então podemos escrever que:

fXt (xt ) = fXt+τ (xt+τ ), ∀τ ∈ R


Assim, a média de X(t + τ ) é dada por:
Z ∞
mX (t + τ ) = E[X(t + τ )] = xt+τ fXt+τ (xt+τ )dxt+τ
−∞
Z ∞
= xt+τ fXt (xt )dxt+τ = E[X(t)] = mX (t)!
−∞

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-6)

Mostre que a Condição 3 de estacionariedade fraca é verdadeira.


Seja X(t) um processo estocástico contı́nuo. Assim, a FAC de
X(t) é dada por:

E[X(t1 )X(t2 )] = RX (t1 , t2 ) = RX (t1 + τ, t2 + τ )


= RX (t1 − t2 , 0) ≡ RX (τ ), ∀τ ∈ R (9)

em que assumimos que

fX1 X2 (x1 , x2 ) = fX1+τ X2+τ (x1+τ , x2+τ )

Note que a FAC depende apenas da diferença entre t1 e t2 . Por


isso, em vez de escrever RX (t1 − t2 , 0), costumamos abreviar a
notação e escrever RX (t1 − t2 , 0) = RX (τ ).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-7)

A figura abaixo mostra um sinal aleatório estacionário (pelo


menos para o perı́odo de observação do mesmo!).
1.5

0.5
Amplitude do Sinal

−0.5

−1

−1.5
0 100 200 300 400 500 600 700 800 900 1000
tempo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-8)

A figura anterior mostra uma realização do seguinte processo


estocástico, simulado no Matlab/Octave:

X(t) = sin(ωt) + ε(t) (10)

em que ε(t) é uma variável aleatória gaussiana de média zero e


variância σε2 =0,1, ω = 2π/T é a freqüência angular constante
e T = 50 unidades de tempo é o perı́odo da senóide.
O sinal gerado obedece todas as três condições de
estacionariedade fraca.
O tipo de sinal estocástico mostrado na Eq. (10) simula um
fenômeno comumente encontrado na prática: um sinal
determinı́stico contaminado com ruı́do branco.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-9)

A parte senoidal do sinal corresponderia a uma onda de


tensão/corrente gerada por determinado equipamento elétrico,
enquanto a variável aleatória ε(t) corresponderia ao ruı́do que
interfere na medição desta onda de tensão/corrente.

Na prática, mede-se apenas o sinal ruidoso X(t).

Muitas vezes o nı́vel de ruı́do é tão elevado que não temos


certeza absoluta que o sinal medido possui uma componente
senoidal.

Mais adiante estudaremos uma técnica baseada na FAC para


detectar sinais perı́odicos imersos em ruı́do.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-10)

A figura abaixo mostra um sinal aleatório não-estacionário na


média (por quê?).
3.5

2.5

2
Amplitude do Sinal

1.5

0.5

−0.5

−1

−1.5
0 100 200 300 400 500 600 700 800 900 1000
tempo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-11)

A figura abaixo mostra um sinal aleatório não-estacionário na


variância (por quê?).
2.5

1.5

1
Amplitude do Sinal

0.5

−0.5

−1

−1.5

−2

−2.5
0 100 200 300 400 500 600 700 800 900 1000
tempo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-12)

A figura abaixo mostra um sinal aleatório não-estacionário na


FAC (por quê?).
1.5

0.5
Amplitude do Sinal

−0.5

−1

−1.5
0 100 200 300 400 500 600 700 800 900 1000
tempo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-13)

A estacionariedade fraca permite simplificar as expressões da


FAC, FACV e CAC, escrevendo-as em função de τ = t2 − t1 .
Por exemplo, a FAC passa ser escrita como:

RX (t1 , t2 ) = RX (τ ) = E[X(t)X(t + τ )] (11)

A FACV, por sua vez, passa ser escrita como:

CX (t1 , t2 ) = CX (τ ) = E[(X(t)−mX )(X(t+τ )−mX )] (12)

Por fim, ao CAC passa ser escrito como:

CX (τ )
ρX (t1 , t2 ) = ρX (τ ) = 2 (13)
σX
2 são constantes.
em que mX e σX

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-14)

Como a FAC de um processo fracamente estacionário depende


apenas de τ (τ > 0), podemos escrever a FAC de duas
maneiras equivalentes:

RX (τ ) = E[X(t)X(t + τ )] (14)

ou
RX (τ ) = E[X(t − τ )X(t)] (15)

Note que em ambas definições temos t2 − t1 = τ .

A mesma observação vale para a definição da FACV e do CAC.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-15)

Propriedades Gerais da FAC

(1) RX (0) é o valor quadrático médio do processo X(t):

E[x2 (ti )] = RX (ti , ti ) = RX (ti − ti ) = RX (0).


2 se o processo tiver média nula.
(2) RX (0) = σX
(3) RX (τ ) é uma função par de seu argumento:
RX (τ ) = RX (−τ ). Assim, para fins de análise consideramos
apenas os valores correspondentes a τ > 0.
(4) |RX (τ )| ≤ RX (0), para todo τ .
(5) Se X(t) contém uma componente periódica, RX (t) também
conterá uma componente de mesmo perı́odo.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estacionariedade de um Processo Estocástico (cont.-16)

Propriedades Gerais da FAC (cont.)

(6) Se a componente periódica é do tipo senoidal, então RX (t)


perderá informação sobre a fase da componente senoidal.
(7) Se X(t) não contém componentes periódicas, RX (τ ) tende a
zero, à medida que τ → ∞.
(8) Se para um determinado processo estocástico X(t) obtivermos
RX (∞) = 0 implica dizer que o processo tem média zero.
(9) A transformada de Fourier de RX (τ ) é real (não é um número
complexo), simétrica e não-negativa.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico

Definição
Um processo estocástico é ergódico, se seus momentos
estatı́sticos, calculados ao longo de várias realizações do processo,
forem equivalentes aos momentos temporais, calculados a partir de
uma única realização do processo.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-1)

Definição
Um processo é ergódico na média, se e somente se:
Z ∞
E[X(ti )] = xi fXi (xi )dxi
−∞
1 k
 R
 k 0 x(t)dt, k → ∞ (sinal contı́nuo)
≡ (16)
 1 Pk
k i=1 x(ti ), k → ∞ (sinal amostrado)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-2)

Definição
Um processo é ergódico na variância, se e somente se:
Z ∞
V ar[X(ti )] = (xi − µX )2 fXi (xi )dxi
−∞
1 k
− µX )2 dt, k → ∞
 R
 k 0 (x(t) (contı́nuo)
≡ (17)
 1 Pk 2
k i=1 (x(ti ) − µX ) , k → ∞ (amostrado)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-3)

Definição
Um processo é ergódico na correlação, se e somente se:

RX (τ ) = E[X(t)X(t + τ )]
Z ∞Z ∞
= xt xt+τ fXt Xt+τ (xt , xt+τ )dxt dxt+τ
−∞ R −∞
k
 k1 0 x(t)x(t + τ )dt, k → ∞
 (contı́nuo)
≡ (18)
 1 Pk−τ x(t )x(t + τ ), k → ∞ (amostrado)

k−τ i=1 i i

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-4)

O conceito de ergodicidade é de fundamental importância


prática para a teoria de processos estocásticos.

Dizer que um processo é ergódico implica em assumir que


podemos inferir todas as informações estatı́sticas sobre o
processo estocástico a partir de uma única realização do
mesmo.

Na prática, é muito difı́cil verificar a estacionariedade no


sentido estrito e a ergodicidade de um processo estocástico.

Assim, para facilitar a nossa vida, o que se faz é assumir que o


processo é estacionário no sentido amplo e ergódico.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-5)

Dica Prática para Verificar Estacionariedade!


(1) Dividir o sinal original em um número finito K de sub-sinais
de mesmo comprimento N .
(2) Para um certo ti fixo, estimar a média (mx (ti )) e variância
(σx (ti )) ao longo das K pseudo-realizações:
K
1 X (k)
m̂X (ti ) ≈ x (ti ), (19)
K
k=1
K
2 1 X (k)
σ̂X (ti ) ≈ (x (ti ) − m̂X (ti ))2 , (20)
K
k=1

para i = 1, . . . , N .

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-6)

Dica Prática para Verificar Estacionariedade! (cont.)


(3) Calcular a média das médias e das variâncias do Item (2):
PN PN 2
i=1 m̂X (ti ) i=1 σ̂X (ti )
M̄ = e V̄ = (21)
N N
(4) Calcular a média e a variância das amplitudes da realização
original completa:
N ·K
1 X
X̄ ≈ x(ti ), (22)
N ·K
i=1
N ·K
1 X
s2X ≈ (x(ti ) − X̄)2 . (23)
N ·K
i=1

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-7)

Dica Prática!
(5) Analisar a plausibilidade das seguintes hipóteses:
A média é constante, ou seja, M̄ ≈ X̄.
A variância é constante, ou seja, V̄ ≈ s2X .

(6) Se as hipóteses forem verdadeiras, então pode-se assumir com


relativa segurança que o processo é ergódico e estacionário.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-8)

Exercı́cio Resolvido
Considere o seguinte processo estocástico:

X(t) = A sin ωt (24)

em que A é uma variável aleatória gaussiana de média zero e


2 , ω é uma constante de valor conhecido e t
variância σA
corresponde ao tempo contı́nuo.

Suponha que obtemos um valor amostral para A, denotado


por A1 . Assim, a realização correspondente de X(t) para esse
valor de A1 é dada por:

XA (t) = A1 sin ωt (25)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-9)

Exercı́cio Resolvido
Assim, usando a Eq. (18) para um sinal contı́nuo, obtemos:

1 k
Z
RXA (τ ) = lim x(t)x(t + τ )dt
k→∞ k 0

1 k
Z
= lim A1 sin ωt · A1 sin ω(t + τ )dt
k→∞ k 0
A21
= cos ωτ
2
Para resolver a integral acima usar a seguinte identidade
trigonométrica:

1 1
sin(a) · sin(b) = cos(a − b) − cos(a + b)
2 2

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Ergodicidade de um Processo Estocástico (cont.-10)

Exercı́cio Resolvido
Por outro lado, usando a definição teórica da FAC (Eq. (1)),
chegamos ao seguinte resultado:

RX (t1 , t2 ) = E[X(t1 )X(t2 )] = E[A sin ωt1 · A sin ωt2 ]


= E[A2 ] sin ωt1 · A sin ωt2 ]
2
= σA sin ωt1 · A sin ωt2 (26)

Como os resultados são diferentes, concluı́mos que este


processo não é ergódico.
Além disso, como a expressão da FAC dada na Eq. (26) não
pode ser reduzida a uma simples função de τ = t2 − t1 , o
processo também não é estacionário.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Função de Correlação Cruzada (FCC) - Sinais Contı́nuos

Definição 1
Sejam X(t) e Y (t) dois sinais aleatórios estacionários de tempo
contı́nuo. A Função de Correlação Cruzada (FCC) entre X(t) e
Y (t) pode ser definida como:

RXY (τ ) = E[X(t)Y (t + τ )], τ = 0, 1, 2, ... (27)


Z ∞Z ∞
= xt yt+τ fXt Yt+τ (xt , yt+τ )dxt dyt+τ ,
−∞ −∞

em que fXt Yt+τ (xt , yt+τ ) é a FDP conjunta de X(t) e Y (t + τ ).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Função de Correlação Cruzada (FCC) (cont.-1)

Definição 2
A FCC entre X(t) e Y (t) também pode ser definida como:

RY X (τ ) = E[Y (t)X(t + τ )], τ = 0, 1, 2, ... (28)


Z ∞Z ∞
= yt xt+τ fYt Xt+τ (yt , xt+τ )dyt dxt+τ ,
−∞ −∞

em que fYt Xt+τ (yt , xt+τ ) é a FDP conjunta de Y (t) e X(t + τ ).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Propriedades da FCC

Propriedade 1
A definição de RY X (τ ) dada na Eq. (28) é invariante a uma
translação de −τ .
Desta forma, RY X (τ ) é também dada por:

RY X (τ ) = E[Y (t − τ )X(t)] (29)

Comparando a Eq.(29) com a definição de RXY (τ ) dada na


Eq.(27), percebemos que:

RXY (τ ) = RY X (−τ ) (30)

Logo, trocar a ordem dos ı́ndices da FCC tem o efeito de


mudar o sinal do seu argumento.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Propriedades da FCC

Propriedades 2 e 3
O valor máximo de RXY (τ ) e RY X (τ ) geralmente não
ocorrem para τ = 0.
Porém, pode-se mostrar que
p
|RXY (τ )| ≤ RX (0)RY (0) (31)

Para dois processos estocásticos independentes temos que:

RXY (τ ) = RY X (τ ) (32)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Função de Correlação Cruzada (FCC) - Sinais Discretos

Definição
Sejam X(t) = {..., x(−2), x(−1), x(0), x(1), x(2), ...} e
Y (t) = {..., y(−2), y(−1), y(0), y(1), y(2), ...} dois sinais aleatórios
estacionários e de tempo discreto. Neste caso, as FCCs são
definidas como:

X
RXY (τ ) = x(t)y(t + τ ) (33)
t=−∞
e

X
RY X (τ ) = y(t)x(t + τ ), (34)
t=−∞

para τ = 0, 1, 2, ...

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estimação da FCC - Sinais Discretos

Definição 1
Sejam X(t) = {x(1), x(2), ..., x(N )} e
Y (t) = {y(1), y(2), ..., y(N )} duas seqüências aleatórias
finitas (e.g. sinais amostrados).
Neste caso, as FCCs podem ser estimadas por meio das
seguintes expressões:
PN −τ
t=1 x(t)y(t + τ )
rXY (τ ) = (35)
N −τ
e
PN −τ
t=1 y(t)x(t + τ )
rY X (τ ) = , (36)
N −τ
para τ = 0, 1, 2, ...

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estimação da FCC - Sinais Discretos (cont.-1)

Exemplo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Estimação da FCC - Sinais Discretos (cont.-2)

Exemplo (continuação)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do

Na prática, é comum a ocorrência de combinações aditivas de


sinais estocásticos.
Por exemplo, seja um processo Z(t) dado pela soma de dois
outros processos estacionários X(t) e Y (t):

Z(t) = X(t) + Y (t) (37)

Pode-se mostrar (exercı́cio!) que a FAC do processo Z(t) é


dada por:

RZ (τ ) = E[Z(t)Z(t + τ )]
= RX (τ ) + RY X (τ ) + RXY (τ ) + RY (τ ) (38)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-1)

Se X(t) e Y (t) são processos não-correlacionados e ambos


têm média zero, os termos RY X (τ ) = RXY (τ ) são nulos,
resultando em

RZ (τ ) = RX (τ ) + RY (τ ) (39)

Assim, concluı́mos a FAC de um sinal formado pela soma de


dois sinais não-correlacionados é equivalente soma das FACs
dos sinais individuais.

Este resultado pode ser estendido para a soma de mais de dois


processos estocásticos não-correlacionados.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-2)

A Eq. (39) provê um procedimento muito interessante para


ser utilizado na prática; por exemplo, na detecção de sinais
determinı́sticos em um meio ruidoso, tal como um canal de
comunicação.

Nesta aplicação supõe-se que um determinado sinal


estocástico é formado por componentes determinı́sticas
(informação transmitida pelo meio) distorcidas por ruı́do e que
o ruı́do e a informação desejada são não-correlacionados.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-3)

Seja o sinal senoidal de amplitude unitária e perı́odo T = 50


unidades de tempo, cujo gráfico está mostrado na figura
abaixo.

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 20 40 60 80 100 120 140 160 180 200

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-4)

De acordo com o exposto na teoria, a FAC de um sinal


periódico é também periódica e possui o mesmo perı́odo do
sinal.

Sample Autocorrelation Function (ACF)


1

0.8

0.6

0.4
Sample Autocorrelation

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 10 20 30 40 50 60 70 80 90 100
Lag

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-5)

Considere agora um sinal totalmente aleatório (ruı́do branco),


gaussiano, de média 0 e variância 1.

Ruido Branco N(0,1)


3

−1

−2

−3
0 20 40 60 80 100 120 140 160 180 200

Tempo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-6)

De acordo com a teoria, a FAC do ruı́do branco é nula, exceto


para τ = 0. A FAC estimada a partir do sinal mostrado na
figura anterior é mostrado abaixo.

Sample Autocorrelation Function (ACF)


1

0.5
Sample Autocorrelation

−0.5
0 10 20 30 40 50 60 70 80 90 100
Lag

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-7)

Considere agora um sinal formado pela soma da senóide com


o ruı́do branco. Este sinal é mostrado abaixo.

−1

−2

−3

−4
0 20 40 60 80 100 120 140 160 180 200

Tempo

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-9)

Pergunta Desafio
Você poderia confirmar só no “olhômetro”, que este sinal
estocástico é uma senóide contaminada com ruı́do branco?

De acordo com a teoria, a FAC de dois sinais


não-correlacionados é a soma das FACs dos sinais individuais.
Vamos ver se isto se confirma?
A FAC do sinal ruidoso estimada diretamente a partir do sinal
observado é mostrada no próximo slide.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FAC na Detecção de Sinais em Meio ao Ruı́do (cont.-10)

Sample Autocorrelation Function (ACF)


1

0.5
Sample Autocorrelation

−0.5
0 10 20 30 40 50 60 70 80 90 100
Lag

Assim, concluı́mos que a FAC pode ser usada para detectar


estruturas determinı́sticas periódicas imersas em sinais
estocásticos, podendo inclusive estimar o perı́odo do sinal
determinı́stico.
c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Função Densidade Espectral de Potência

Definição
Seja um processo estocástico X(t) contı́nuo, estacionário e de
média nula. A Função Densidade Espectral de Potência (FDE) de
X(t) é definida como:
Z ∞
SX (jω) = F[RX (τ )] = RX (τ )e−jωτ dτ (40)
−∞

em que
F[·] é a transformada de Fourier do sinal.
RX (τ ) = E[X(t)X(t − τ )] é a FAC de X(t).
ω = 2πf (rad/s) é a freqüência angular.

A Eq. (40) é conhecida como relação de Wiener-Khinchin em


homenagem aos seus proponentes.
c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Função Densidade Espectral de Potência (cont.-1)

Seja a transformada de Fourier inversa de SX (jω) dada por:



1
Z
F −1
[SX (jω)] = SX (jω)ejωτ dω = RX (τ ) (41)
2π −∞

Então, é possı́vel definir o valor quadrático médio de um


processo estacionário, dada sua FDE.

Para isto, basta fazer τ = 0 na Eq. (41), ou seja:


Z ∞
2 1
RX (0) = E[X (t)] = SX (jω)dω (42)
2π −∞

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Função Densidade Espectral de Potência (cont.-2)

A Eq. (42) sugere que a potência do sinal está distribuı́da em


freqüência de acordo com SX (jω).
É nesta interpretação que está a origem dos termos densidade
e potência na nomenclatura adotada para a Eq. (40).
Com base na Eq. (41), pode-se obter a potência média P̄ em
uma banda-passante finita integrando SX (jω) na faixa
apropriada de freqüências:
Z −ω1 Z ω2
1 1
P̄ω1 ≤ω≤ω2 [X(t)] = SX (jω)dω + SX (jω)dω
2π −ω2 2π ω1

para ∀ω1 , ω2 > 0.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Função Densidade Espectral de Potência (cont.-3)

Pode-se fazer os seguintes comentários sobre a relação entre FDE


e a FAC:
⇒ As funções RX (τ ) e SX (jω) são pares transformados. Assim,
ambos contém a mesma informação estatı́stica sobre o
processo.
⇒ Visto que se pode ir e vir entre os domı́nios do tempo e da
freqüência, a escolha de uma das formas é apenas uma
questão de conveniência!
⇒ Devido aos atributos de RX (τ ), a sua transformada de
Fourier dada por SX (jω) será sempre uma função real,
não-negativa e simétrica de ω.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Definições
A FDE Cruzada (FDEC) entre dois processos estacionários
contı́nuos, X(t) e Y (t), pode ser definida de duas formas:
Z ∞
SXY (jω) = F[RXY (τ )] = RXY (τ )e−jωτ dτ (43)
−∞
Z ∞
SY X (jω) = F[RY X (τ )] = RY X (τ )e−jωτ dτ (44)
−∞

em que RXY (τ ) e RY X (τ ) são as respectivas FCC cruzadas de


X(t) e Y (t).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FDE Cruzada de Dois Sinais Aleatórios (cont.-1)

Comentário Importante 1
As funções RXY (τ ) e RY X (τ ) não são necessariamente
funções pares de τ !!
Logo, as funções SXY (jω) e SY X (jω) correspondentes não
são, em geral, funções reais de ω.

Comentário Importante 2
De fato, mostrou-se anteriormente que RXY (τ ) = RY X (−τ ).
Neste caso, as funções SXY (jω) e SY X (jω) são pares
complexos conjugados, ou seja:

SXY (jω) = SY∗ X (jω)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FDE Cruzada de Dois Sinais Aleatórios (cont.-2)

Função Coerência
A FDE Cruzada Normalizada, chamada de Função
Coerência, de dois processos estacionários X(t) e Y (t) é
definida como:
SXY (jω)
γXY (jω) = p p . (45)
SX (jω) SY (jω)

O valor absoluto quadrático de γXY (jω) é dado por:

|SXY (jω)|2
|γXY |2 = , (46)
SX (jω)SY (jω)
2
tal que 0 ≤ γXY ≤ 1.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
FDE Cruzada de Dois Sinais Aleatórios (cont.-3)

Resultado Importante
Seja Z(t) um sinal aleatório dado pela soma de dois outros
sinais não-correlacionados, X(t) e Y (t).
A FDE de Z(t) é então dada por

SZ (jω) = F[RX+Y (τ )] = SX (jω) + SY (jω), (47)

visto que SXY (jω) = SY X (jω) = 0, ∀ω.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Periodograma

Definição: Periodograma
Seja F[XT (t)] a transformada de Fourier de uma versão
“truncada”, XT (t), de um processo estacionário X(t).

Define-se o periodograma de qualquer realização particular de


XT (t) como a seguinte quantidade:
1
Periodograma[XT (t)] = |F[XT (t)]|2 (48)
T

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Periodograma (cont.-1)

O interesse prático no cálculo do periodograma está no fato


de que seu valor esperado, para T → ∞, fornece uma
estimativa não-paramétrica da FDE de XT (t).

Numericamente,tem-se que:
  Z ∞
1 2
E lim |F[XT (t)]| = RX (τ )e−jωτ dτ (49)
T →∞ T −∞

A Eq. (49) é de fundamental importância pois é ela que faz a


conexão da função SX (jω) com o conceito de “espectro” no
sentido clássico.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Transformada Discreta de Fourier

Considere um sinal de banda-passante na faixa 0 a W Hz.


O teorema de Nyquist/Shannon diz que a taxa de amostragem
do sinal deve ser de pelo menos 2W amostras/segundo.
Seja o número N de amostras do sinal. Assim, o intervalo de
tempo T varrido pelas amostras é
N
T =
2W
Seja o sinal truncado XT (t) representado agora por g(t).
Assim, sua transformada de Fourier é dada por:
Z T
G(jω) = g(t)e−jωt dt (50)
0

em que assume-se que g(t) ∈ ℜ, ∀t ∈ [0, T ].

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Transformada Discreta de Fourier (cont.-1)

Considere agora uma discretização de G(jω) dada por:


N
X −1
G(jn2π∆f ) ≈ gk e−jn2π∆f k∆T ∆T (51)
k=0

em que

gk = g(tk ), k = 0, 1, . . . , N − 1
1
∆T = = espaço entre amostras no domı́nio do tempo
2W
2W
∆f = = espaço entre amostras no domı́nio da freqüência
N

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Transformada Discreta de Fourier (cont.-2)

1
Nota-se que ∆f · ∆T = N. Assim, a Eq. (51) pode ser
reescrita como:
N −1  
1 X 2πnk
G(jn2π∆f )∆f ≈ gk exp −j (52)
N N
k=0

Dada a seqüência g0 , g1 , ..., gN −1 , o lado direito da Eq. (52)


gera uma outra seqüência G0 , G1 , ..., GN −1 , dada por:
N −1  
1 X 2πnk
Gn = gk exp −j , n = 0, 1, ..., N − 1 (53)
N N
k=0

em que Gn não são valores exatos de G(jω), mas sim boas


aproximações destas.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Transformada Discreta de Fourier (cont.-3)

Dada a seqüência {Gn }N −1


n=0 , pode-se mostrar que existe a
seguinte relação inversa exata:
N −1  
X 2πnk
gk = Gn exp j , k = 0, 1, ..., N − 1 (54)
n=0
N

As seqüências {Gn } e {gk } formam um par-transformado de


Fourier, ou seja, dado uma delas pode-se achar a outra.
A seqüência {Gn } é chamada de Transformada Discreta de
Fourier de gk , enquanto {gk } é a transformada inversa {Gn }.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Transformada Discreta de Fourier (cont.-4)

Comentários Importantes sobre DFT


(1) A seqüência |G0 |2 , |G1 |2 , ..., define uma aproximação da FDE
do sinal, pois envolve apenas uma única realização.
(2) A DFT foi responsável pela popularização do método do
periodograma. Quanto maior N maior a resolução e a
confiabilidade do resultado.
(3) A implementação algorı́tmica da DFT exige um número de
multiplicações da ordem de N 2 .

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Transformada Discreta de Fourier (cont.-5)

Comentários Importantes sobre DFT (cont.)


(4) Implementações computacionalmente eficientes da DFT,
chamadas de Transformadas Rápidas de Fourier (FFT),
requerem multiplicações da ordem de N log2 N .
(5) Todos os algoritmos do tipo FFT exigem que o número de
amostras N seja uma potência inteira de 2.
(6) Se N é pequeno e uma boa resolução no domı́nio da
freqüência é requerida, então é melhor usar a DFT da
Eq. (53).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Periodograma no Matlab/Octave

Exemplo Computacional

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Periodograma no Matlab/Octave

Exemplo Computacional (cont.-1)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Periodograma no Matlab/Octave

Exemplo Computacional (cont.-2)


80

70
Power Spectral Density (Power/Hz)

60

50

40

30

20

10

0
0 50 100 150 200 250 300 350 400 450
Frequency (Hz)

O mesmo gráfico com eixo vertical em dB pode ser


conseguido usando o seguinte comando: periodogram(y).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Parte III

Gráfico de Dispersão (lagplot)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Definição
Técnica qualitativa (gráfica) que avalia a correlação serial das
amplitudes do sinal através do gráfico de dispersão.

Implementação
Considere o seguinte sinal de tempo discreto:
X = {x(1), x(2), x(3), ...., x(N )}.
O lagplot consiste em gerar o gráfico de um conjunto de
pares ordenados:

[x(n), x(n − τ )], n = τ + 1, . . . , N (55)

em que a constante τ (τ > 1) é chamada de lag e define ao


distanciamento temporal entre as amplitudes do sinal.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Definição
Técnica qualitativa (gráfica) que avalia a correlação serial das
amplitudes do sinal através do gráfico de dispersão.

Implementação
Considere o seguinte sinal de tempo discreto:
X = {x(1), x(2), x(3), ...., x(N )}.
O lagplot consiste em gerar o gráfico de um conjunto de
pares ordenados:

[x(n), x(n − τ )], n = τ + 1, . . . , N (56)

em que a constante τ (τ > 0) é chamada de lag e define ao


distânciamento temporal entre as amplitudes do sinal.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Comentários
Em geral, é necessário plotar lagplots para vários lags para se
ter uma idéia da persistência da memória.

Em outras palavras, vários lagplots são necessários para


avaliar quanto tempo dura a influência dos valores passados
sobre o valor atual do sinal.

A influência pode ser dos valores passados sobre o valor atual


pode ser positiva, negativa ou nula.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Exemplo 1
Considere um sinal de tempo discreto X, de comprimento
N = 1000.

Lagplot (τ = 1)
Os pares ordenados que formam o lagplot para τ = 1 são definidos
como:
[x(n), x(n − 1)], n = 2, ...., 1000. (57)
Ou seja,

[x(2), x(1)], [x(3), x(2)], · · · , [x(1000), x(999)]. (58)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Exemplo 2
Considere novamente um sinal de tempo discreto X, de
comprimento N = 1000.

Lagplot (τ = 2)
Os pares ordenados que formam o lagplot para τ = 2 são definidos
como:
[x(n), x(n − 2)], n = 3, ...., 1000. (59)
Ou seja,

[x(3), x(1)], [x(4), x(2)], · · · , [x(1000), x(998)]. (60)

E assim sucessivamente para outros lagplots do mesmo sinal


(i.e.τ = 3, ..., 1000).

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráficos de Tı́picos

Lagplot (τ = 1) - correlação positiva


O lagplot de um sinal cujas as amplitudes distanciadas de τ = 1
estão positivamente correlacionadas é mostrado a seguir.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráficos de Tı́picos (cont.-1)

Lagplot (τ = 1) - correlação nula


O lagplot de um sinal cujas as amplitudes distanciadas de τ = 1
não são correlacionadas é mostrado abaixo.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráficos de Tı́picos (cont.-2)

Lagplots (τ = 1, 2) - Processo AR(1):x(n) = 0.6x(n − 1) + v(n)


Os lagplots para τ = 1 e 2 de um processo AR(1) são mostrados
abaixo. O ruı́do é branco gaussiano com variância 1.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Gráficos de Tı́picos (cont.-2)

Lagplots (τ = 3, 4) - Processo AR(1):x(n) = 0.6x(n − 1) + v(n)


Os lagplots para τ = 3 e 4 de um processo AR(1) são mostrados
abaixo. O ruı́do é branco gaussiano com variância 1.

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI
Função de Autocorrelação
Código Matlab/Octave - Lagplots Processo AR(1)

c G. A. Barreto
Função de Autocorrelação e Aplicações em ETI

S-ar putea să vă placă și