Sunteți pe pagina 1din 128

Universit degli studi di Roma

TOR VERGATA
Corso di Laurea in Fisica
TESI DI LAUREA
SINGULAR SPECTRUM ANALYSIS
APPLICATA A SEGNALI CEREBRALI
LAUREANDO: RELATORI:
Roberto Gaeta Prof. Roberto Benzi
N. di matricola Dott. Livio Narici
F 000060
Universit degli studi di Roma
TOR VERGATA
Corso di Laurea in Fisica
TESINE
TECNICHE STRUMENTALI PER LA RIVELAZIONE
DI SEGNALI IMMERSI NEL RUMORE
RELATORE:
Prof. Sergio Cantarano
MISURE DINAMICHE DI CAMPI CRITICI IN
GIUNZIONI TUNNEL
RELATORE:
Prof. Matteo Cirillo
Introduzione
Una definizione ostensiva di ci che sia la fisica afferma: la fisica tutto ci che
studiano i fisici. Nel passato tutto ci che era vivente non veniva studiato dai fisici,
semplicemente perch lenorme complessit che mostra anche la pi semplice
struttura biologica, non permetteva alle conoscenze passate di formulare una teoria, o
anche un semplice modello matematico su tali sistemi. Ma negli ultimi tre decenni
levoluzione delle prestazioni dei calcolatori da una parte e della ricerca matematica
dallaltra, ha portato sempre pi i fisici allo studio di strutture biologiche.
Attualmente i sistemi fisici possono essere classificati in tre categorie
1
:
1) Sistemi fisici descritti da teorie matematiche conosciute, relativamente
insensibili a piccole variazioni dei dati iniziali, i quali permettono alla teoria
matematica di fornire previsioni sul comportamento del sistema su lunghi o
lunghissimi periodi di tempo.
2) Sistemi fisici descritti da teorie matematiche conosciute, sensibili a piccole
variazioni dei dati iniziali, i quali permettono alla teoria matematica di fornire
previsioni sul comportamento del sistema solo su brevi o brevissimi periodi
di tempo.
3) Sistemi fisici senza alcuna teoria matematica che l descriva.
Nella terza categoria rientrano certamente la grandissima parte dei sistemi biologici.
Per arrivare ad una teoria matematica che descriva un sistema, bisogna prima di tutto
ottenere dati sperimentali in modo che sia possibile confutare o meno le previsioni
1
R. Vautard, P. Yiou e M. Ghil, Physica D58 (1992) 95
fornite dalla teoria. Ma vi sono dei sistemi biologici, per i quali non solo difficile
formulare una teoria, ma persino difficile ottenere dati sperimentali che possano
essere interpretati anche da un modesto modello matematico. Il pi complesso fra
questi forse il cervello. Esistono molti modi per studiare questo sistema, la biologia
ha descritto i suoi componenti fondamentali : i neuroni; la psicologia ne ha studiato
le sue funzioni cognitive,, ma che sono anche le pi evanescenti dal punto di vista
della metodologia scientifica. Il fisico invece vede il sistema cervello come una
scatola nera con determinati ingressi e uscite, dove per ingressi si intendono
stimoli fisici quantitativamente misurabili che stimolano in qualche modo tutto ci
che esiste dentro questa scatola nera , mentre per uscite si intendono di nuovo
quantit fisiche misurabili che sono prodotte da questa scatola nera. Una volta
ottenuti i dati sperimentali, il fisico cercher di trovare un modello o meglio ancora
una teoria che descriva (e preveda) i dati ottenuti (i dati futuri). evidente che il
fisico rispetto allo psicologo, si pone problemi misurabili, anche se pu essere
affascinante parlare della creativit o della timidezza esse non sono propriet
misurabili; invece rispetto al biologo, il fisico si pone in una visione olistica,
trascurando completamente che cosa ci sia dentro la scatola nera. Il problema iniziale
dunque avere gli appropriati strumenti matematici che permettano di ottenere delle
informazioni interpretabili dalle misure ottenute. Nel caso di misure
neuromagnetiche il segnale che si ottiene estremamente complicato.
Questa tesi vuole dimostrare lapplicabilit su segnali cos complessi e rumorosi,
come quelli del cervello, di una nuova tecnica matematica non lineare detta SSA
(acronimo di Singular Spectrum Analysis), usata gi da anni per lanalisi di segnali
digitali, introdotta in oceanografia da Colebrook
2
, e in dinamica non lineare da
Broomhead e King
3
e da Fraedrich
4
. Questa tecnica permette di riconoscere
oscillazioni in un segnale rumoroso e di studiarne landamento temporale. Il concetto
base della SSA pu essere ricavato dalla pi classica PCA (acronimo di Principal
Component Analysis)(vedi 2.1). La PCA usata nel caso di M segnali, provenienti
da M punti dello spazio differenti, ed ogni segnale viene espanso in un sottospazio di
dimensione M dalla PCA, mentre nella SSA si ha un solo segnale che viene espanso
in modo opportuno in un sottospazio di dimensione M. La differenza sostanziale
che nella PCA il numero M fissato dal numero di segnali che si analizzano, mentre
nella SSA il numero M arbitrario. Sia la PCA che la SSA sono delle applicazioni
del pi generale teorema matematico di espansione bi-ortogonale di Karhunen-
Love
5
. Vautard e Ghil hanno dimostrato che quando nel segnale sono presenti delle
oscillazioni persistenti, nello spettro degli autovalori della matrice di autocovarianza
del segnale sono presenti delle coppie di autovalori quasi uguali
6
. Sempre Vautard e
Ghil hanno introdotto una tecnica ad hoc per riconoscere la frequenza di queste
oscillazioni
7
, una volta riconosciuta si procede con la ricostruzione tramite la tecnica
delle componenti ricostruite (vedi 2.2), della oscillazione. Il problema maggiore
deriva dal fatto che Vautard e Ghil nel loro articolo applicano questi algoritmi su
2
J.M. Colebrook, Oceanol. Acta 1 (1978) 9.
3
D.S. Broomhead e G.P. King, On the qualitative analysis of experimental dynamical systems, in:
Nonlinear Phenomena and Chaos, ed S. Sarkar (Adam Hilger, Bristol, 1986)
4
K. Fraedrich, J. Atmos. Sci. 43 (1986) 419
5
M. Love, Probability Theory, 3rd ed. (Van Nostrand, Princeton, 1962).
6
R. Vautard e M. Ghil, Physica D35 (1989) 395
7
R. Vautard, P. Yiou e M. Ghil, Physica D58 (1992) 95
segnali di prova che, nel peggiore dei casi, erano composti da unoscillazione e da un
rumore con la stessa varianza. Se supponiamo che il rumore sia rumore bianco, il
quale ha uno spettro di Fourier con uguale intensit su tutte le frequenze, mentre
unoscillazione di una data frequenza, anche se modulata in ampiezza ha uno spettro
puntuale, allora tenendo conto di questo e del teorema di Parseval (Thm 1.12.9),
concludiamo che gli spettri di Fourier dei segnali utilizzati come esempi da Vautard e
Ghil sono sufficientemente puliti. Nel nostro caso invece ci troviamo con segnali che
hanno uno spettro di Fourier tipo fig.27. Nulla quindi ci permetteva di affermare se la
tecnica ad hoc introdotta da Vautard e Ghil potesse ritenersi valida anche nel caso
di segnali siffatti. La tesi consistita nel continuo sviluppo del programma per
lanalisi SSA, lultima versione, (la 37-esima) riportata in App. A. Le versioni sono
state tante per il fatto che larticolo su cui si basa lintera costruzione della procedura
(R. Vautard - P. Yiou - M. Ghil, Physica D58 1992 95) omette una caratteristica
essenziale della SSA (vedi 2.3 e 2.4). Questo fatto unito allincertezza della
validit della tecnica introdotta ad hoc da V. e G. nel caso di segnali molto
rumorosi, non permetteva di capire cosa andava modificato nella tecnica di
riconoscimento delle oscillazioni. In unaltro articolo degli stessi autori si trova la
descrizione di questa caratteristica (formula 2.3.1). Nella tesi si propone una nuova
tecnica di riconoscimento delle oscillazioni (def.2.4.2) che permette lapplicazione
della SSA a segnali molto rumorosi, (prima di arrivare alla def.2.4.2 la nuova
proposta era la def.2.4.1). Utilizzando sempre gli stessi parametri per lanalisi SSA, i
risultati ottenuti con le varie definizioni, rappresentati in fig. 74 (con la def.2.4.2) e in
fig.73 (con la def.2.4.1) sono riportati in tabella:
Oscillazioni trovate con
la tecnica di Vautard e
Ghil def.2.3.2
Con la def.2.4.1 Con la def.2.4.2
2 33 58
Tab. a I risultati si riferiscono allanalisi SSA del canale 1(uno dei
gradiometri che rilevava il campo magnetico cerebrale) i parametri dellanalisi
sono M=700 (numero di autovalori) e RR=10 (vedi def.2.3.3)
La fig.74 importante perch conferma i risultati ottenuti, dagli studiosi di
neuromagnetismo, ed in pi mostra che la SSA permette di ottenere dei risultati pi
raffinati rispetto alle tecniche precedenti (vedi 3.4). La tesi dunque dimostra che la
nuova proposta (def.2.4.2) per riconoscere le oscillazioni, permette lapplicabilit
della tecnica SSA anche nel caso di segnali estremamente rumorosi.
La stesura della tesi consiste essenzialmente in 4 capitoli. Nel primo capitolo si
riassumono tutti gli elementi teorici che sono di base per la comprensione della SSA.
Nel secondo capitolo si descrive come si arriva alla SSA
8
, le caratteristiche della
tecnica e infine la nuova proposta per il riconoscimento delle oscillazioni. Il capitolo
tre si apre con dei cenni sul cervello e sulla tecnica utilizzata per lacquisizione dati,
poi si dilunga sulla discussione dei risultati ottenuti. Nel capitolo 4 si descrivono le
conclusioni e possibili prospettive future per la SSA.
8
La formalizzazione in definizioni e teoremi della PCA, della SSA e la dimostrazione della formula
2.2.1 sono elaborazioni personali.
Capitolo 1
Elementi teorici
1.1 Spazi lineari
Linsieme non vuoto si dice spazio lineare se soddisfa le seguenti condizioni:
1
2
0 0
5
7
) :
)
:
) ( ) :
)
, = +
+ = +
3) + ( + ) = ( + ) +
4)
+ (- ) = 0
6)
a( ) = ( ) a , b
8) 1 =
9) (a + b) = a + b
10) a( + ) = a + a

+


a a
b ab
Definizione 1.1.1 Sia uno spazio lineare. Si dice che gli N vettori

1 2
, , ... ,
N

sono linearmente dipendenti se esistono N numeri {c
i
} non tutti
nulli tali che: c
i i
i
N

0
1
. In caso contrario gli N vettori sono detti linearmente
indipendenti.
Nota 1 Da adesso sar sottinteso che lo spazio lineare.
Definizione 1.1.2 Uno spazio
N
si dice N-dimensionale se contiene N vettori
linearmente indipendenti e se N+1 vettori sono sempre linearmente dipendenti.
Definizione 1.1.3 Ogni insieme di N vettori linearmente indipendenti in

si dice
costituire una base.
Assegnata una base esiste una corrispondenza biunivoca tra i vettori dello spazio
N
e lo spazio delle N-ple ordinate di numeri.
Teorema 1.1.1 Sia {e
i
} una base di
N
e A una matrice reale NN tale che det
A 0 i vettori {e
j
} definiti da:
e
e
e
A
e
e
e
N
T
N
1
2
1
2
'
'
'

|
.

`
,

|
.

`
,

(1.1.1)
sono una base.
Dimostrazione Si ha ( ) e c e a c e a c
s
s
N
s k ks
k
N
s k ks s
s
N
k
N
s
N
'

|
.

`
,

|
.

`
,

1 1 1 1 1
0 dato che {e
i
}
una base si deve avere a c
ks s
s
N

0
1
ma essendo A non singolare segue che tutti i c
s
sono nulli, dunque {e
i
} una base. c.v.d.
Teorema 1.1.2 Siano {e
i
} ed {e
i
} due basi di
N
. Sia

N
e siano {c
i
} e {c
i
} le
N-ple ordinate di numeri che rappresentano il vettore nelle rispettive basi. Allora
vale la relazione:
c
c
A
c
c
1
2
1
2

c

c
N N

|
.

`
,

|
.

`
,

'
'
'
(1.1.2)
dove A la matrice di trasformazione da una base allaltra come in (1.1.1).
Dimostrazione

|
.

`
,

|
.

`
,


c e c e a e a c e c a c
i i i k ki
k
N
k ki i
i
N
k
N
i
N
i
N
k k
k
N
ki i
i
N
' ' ' ' '
1 1 1 1 1 1 1
dunque c c.v.d.
k
1.2 Spazi Euclidei
Definizione 1.2.1 Uno spazio dicesi metrico se in esso definita una funzione
reale d(,) definita
,
e che soddisfi le seguenti propriet: 1)
d( , ) 0
(il
segno di uguaglianza vale se e solo se ) ; 2)
d d ( , ) ( , )
;
3)
d d d ( , ) ( , ) ( , ) +
.
Definizione 1.2.2 Sia uno spazio lineare. Si abbia unapplicazione
:
che
soddisfi le seguenti propriet: 1)
( ) ( ) ( ) + +
; 2)
( ) ( ) a a a
;
allora lapplicazione si dice funzionale lineare.
Definizione 1.2.3 Uno spazio reale dicesi normato se in esso definito un
funzionale lineare : detto norma che soddisfi le seguenti propriet:
1) 0 0 = 0 ; 2) + + , ;
3) a a a .
Nota 2 Uno spazio normato anche metrico; sufficiente introdurre la distanza
d( , ) .
Definizione 1.2.4 Si definisce prodotto scalare in uno spazio lineare complesso
lapplicazione bilineare
(, ) : c
(con c si intende linsieme dei numeri
complessi), tale che
,
soddisfi le seguenti propriet:
1) ( , ) ( , ) ; 2) ( + , ) ( , ) + ( , ) ; 3) (a , ) a ( , ) ; 4
) ( , a) a( , ) ; 5) ( , )

0.
Un prodotto scalare molto utilizzato il seguente
i i
N
i
N
,

c
1
si pu
verificare che esso soddisfa la def. 1.2.4.
Definizione 1.2.5 Si definisce spazio euclideo uno spazio lineare con un prodotto
scalare fissato in esso.
Nota 3 Uno spazio euclideo anche normato se si definisce
( , )
1
2 . Quindi
anche metrico (vedi nota 2).
Definizione 1.2.6 Due vettori , si dicono ortogonali se ( , ) 0
Dato uno spazio euclideo
N
il prodotto scalare di due vettori in una data base {e
i
}
data da:
( ) ( ) , ,
|
.

`
,

a e e a b e e
i i s
i
N
i s i s
s i
, b
s
s=1
N
1

Definizione 1.2.7 Si dice matrice metrica la matrice N x N che ha come elementi i
prodotti scalari ( ) h e e
is i s
,
Definizione 1.2.8 Una base si dice ortonormale se h
is
=
is
In una base ortonormale il prodotto scalare dato semplicemente da ( ) ,

a b
i i
i
N
1
Ogni base pu essere ortonormalizzata usando il metodo di Gram-Schmidt.
9
1.3 Matrici diagonalizzabili
Definizione 1.3.1 Siano A e B due matrici N x N. Si dice commutatore di A e B la
matrice [A , B] definita come:
[ ] A B A B B A ,
Le matrici A e B si dice che commutano se [ ] A B ,
Definizione 1.3.2 Sia A una matrice N x N. Si dice aggiunta hermitiana la matrice
A
+
che verifica la relazione ( ) ( ) , , A A
+
,
N
9
Vedi G. Strang Algebra lineare e sue applicazioni Liguori Editore pag.161
Definizione 1.3.3 Sia A una matrice N x N. La matrice A si dice hermitiana
(autoaggiunta hermitiana) se A=
A
+
.
Definizione 1.3.4 Sia un numero complesso. Si dice che un autovalore della
matrice A se det(A - I) = 0. Dove con I si intende la matrice unitaria.
Definizione 1.3.5 Per ciascuno autovalore della matrice A associato uno spazio
di vettori {, detti anche autovettori i quali soddisfano la relazione A .
Teorema 1.3.1 Gli autovalori di una matrice hermitiana sono reali
Dimostrazione
( ) ( ) ( ) ( ) ( ) ( ) A A A A A
+
, , , , , , c.v.d.
Teorema 1.3.2 Siano
1

2
due autovalori distinti della matrice hermitiana A, e
siano
1

2
gli autovettori associati. Allora ( )
1 2
0 , .
Dimostrazione Si ha ( ) ( ) A A

1 1 1 2 1 1 2 1

prodotto scalare con
2
, , (*) in modo
simile si ha ( ) ( ) A A

2 2 2 1 2 2 1 2

prodotto scalare con
1
, , (**) ora sfruttando
le propriet del prodotto scalare e che A hermitiana si ha:
( ) ( ) ( ) ( )
2 1 1 2 1 2 1 2
, , , , A A A A
+
quindi sottraendo membro a membro la
(**) con la (*) si ottiene ( ) ( ) 0
2 1 1 2
, dato che gli autovalori sono distinti si
ha la tesi. c.v.d.
Teorema 1.3.3 Ogni matrice hermitiana A ammette una base di autovettori
ortonormali
Dimostrazione Sia
1
unautovettore di A. Linsieme V
1
definito da
( ) { V
N
1 1
0 : , ha dimensione N-1. Questo sottospazio ortogonale a
1

lasciato invariante da A; infatti si ha:
( ) ( ) ( ) ( ) ( )
1 1 1 1 1 1 1
0 , , , , , A A A A V
+
allora

1
A

dunque esister almeno unaltro autovettore
2
di A appartenente al sottospazio V
1
;
anche il sottospazio V
12
definito da ( ) ( ) { V
N
12 1 2
0 0 : , , , invariante
rispetto ad A e quindi esister almeno un altro autovettore di A appartenente a
questo sottospazio; si continua in modo simile fino ad esaurire tutto lo spazio. c.v.d.
Definizione 1.3.6 Una matrice si dice diagonalizzabile se esiste una matrice M tale
che:
MAM

(trasformazione di similitudine)
dove una matrice diagonale.
Teorema 1.3.4 Sia A una matrice hermitiana. A diagonalizzabile.
Dimostrazione Prendiamo come matrice M, la matrice composta dagli N autovettori
ortonormali ( )
i i i iN

1 2
, , ...... , di A, che sappiamo dal thm 1.3.3 formare una
base. Allora
M
N
N NN

]
]
]
]
]
]
]



11 12 13 1N
21 22 23 2
1




si verifica facilmente che M
-1
= M
T
. Ora il prodotto MAM
T
una matrice che ha sulla
diagonale gli autovalori di A e tutti gli altri elementi sono nulli. c.v.d.
Nota Si dimostra che le matrici pi generali che sono diagonalizzabili sono le matrici
cosiddette normali. Una matrice W si dice normale se [W , W
+
] = 0.
1.4 Definizione assiomatica della probabilit
Sia un insieme non vuoto, definiamo gli elementi di eventi , e spazio degli
eventi. Consideriamo inoltre linsieme nullo
{
e come eventi. Un esperimento
unoperazione che in determinate condizioni produce degli eventi. Linsieme
di tutti gli eventi possibili di si dice spazio degli eventi associato

. Siano
1
,
2
due spazi degli eventi associati agli esperimenti
1
,
2
e sottoinsiemi dello spazio
degli eventi . Lunione

1 2
definita come linsieme degli eventi prodotti da

1
o da
2
. Lintersezione

1 2

definita come linsieme degli eventi in comune


prodotti da
1
e da
2
.
1
e
2
si dicono incompatibili se

1 2

. Una
sequenza
1 2
, , ... ,
n
detta se
i
i=1
n
esaustiva . Consideriamo un
esperimento con spazio degli eventi associato . Ad ogni evento E
assegniamo un numero reale p(E) detta probabilit di E, la quale soddisfa i seguenti
assiomi (Kolmogorov):
Assioma 1
E p E 0 1 ( )
Assioma 2
p( ) 1
Assioma 3 Se gli eventi E
1
,E
2
,..., E
n
sono eventi incompatibili a due a due, allora
( ) p E p E
i
i
n
i
i
n

|
.

`
,

1 1
1.5 Variabili stocastiche
Quando abbiamo definito lo spazio degli eventi non abbiamo specificato che cosa o
come sono gli elementi ad esso appartenenti. Gli elementi dello spazio ovviamente
dipenderanno dallesperimento. Per esempio al lancio di una moneta associato uno
spazio degli eventi composto da testa e croce, ma possiamo sempre costruire una
funzione che associ a questi eventi dei numeri reali. Questa funzione si dice mappa.
Definizione 1.5.1 Una variabile stocastica , X una mappa X : tale che ad
ogni elemento E corrisponde un unico numero reale X(E).
Sia

. In questo caso si ha la mappa identit, ed quindi naturale pensare che la


variabile stocastica non la mappa ma bens gli stessi risultati numerici
dellesperimento. Ci rimane da definire la probabilit per le variabili stocastiche.
Definizione 1.5.2
{ definiamo dove e p X p E E X E ( ) ( ( )) ( ) ; ( )
Ovviamente se

questa definizione tautologica. Da adesso se non specificato


altrimenti sar sempre che

. Le variabili stocastiche possono essere discrete o


continue. Se non specificato per variabile stocastica intendiamo variabile stocastica
discreta.
1.6 Operatore di aspettazione
Definizione 1.6.1 Sia X una variabile stocastica con p
i
= p(X=x
i
). Per ogni funzione
g(X) di X definiamo loperatore di aspettazione da:
[ ] E g X g x p
i i
i
( ) ( )
Loperatore E un operatore lineare.
Definizione 1.6.2 Definiamo n-esimo momento sullorigine la quantit:
[ ]
n
n
E X '
(n=1,2,3,...)
Il momento sullorigine di ordine 1 anche definito come media
x p
i i
i
.
Definizione 1.6.3 Definiamo n-esimo momento sulla media la quantit:
( )
[ ]

n
n
E X
(n=2,3,4,...)
Il momento sulla media di ordine 2 anche definito come varianza
( )
2
2
p x
i i
i
. Mentre la radice quadrata della varianza si dice deviazione
standard.
1.7 Funzioni di distribuzione
Definizione 1.7.1 Data una variabile stocastica X, la funzione di distribuzione di X,
F(X) definita da:
( )
F x p X x ( )
Tutte le funzioni di distribuzione hanno le seguenti propriet:
1
0 1
3
0
)
( ) lim ( )
)
lim ( ) ( )
0 F(x) 1 x
2) lim ,
h 0, x F(x + h) F(x)
4) x
x - x



+

+
F x F x
F x h F x
h
1.8 Processi stocastici stazionari
Definizione 1.8.1 Un processo stocastico , {X
t
}, un insieme di variabili stocastiche
indicizzate dal simbolo t, dove t T Z dove con Z intendiamo linsieme dei
numeri relativi.
Ad ogni t il processo stocastico definisce una variabile stocastica.
Definizione 1.8.2 Un processo stocastico {X
t
}, si dice stazionario di ordine 1 se
[ ] E X
t
una costante indipendente da t.
Definizione 1.8.3 Un processo stocastico {X
t
}, si dice stazionario di ordine 2 se:
[ ]
( ) ( )
[ ]
[ ]
1
2
3
2
)
)
)
E
E
E
X
X X
X X
t
t t
t t

una costante indipendente da t


una costante indipendente da t
funzione solo di
1.9 La funzione di autocovarianza e di autocorrelazione
Definizione 1.9.1 Sia {X
t
} un processo stazionario di ordine 2. Si dice
autocovarianza
( )
C la funzione definita da:
( )
( ) ( )
[ ]
C E X X
t t


+
si definisce inoltre la funzione di autocorrelazione
( )
come:
( )
( )
( )

C
C 0
Da adesso in poi se non specificato altrimenti consideriamo solo processi stocastici
reali.
Teorema 1.9.1 Sia {X
t
} un processo stazionario di ordine 2. La funzione di
autocovarianza possiede le seguenti propriet:
( )
( ) ( )
( ) ( )
{
1 0
2 0
2
)
)
C
C
3) C X
t


C
C
Dimostrazione Si pu supporre che il processo stazionario abbia media nulla, ci
non diminuisce il grado di generalit del teorema.
1) Segue direttamente dalla def. 1.8.3 c.v.d.
2) Dati

1 2
,
costruiamo la combinazione lineare

1 2
X X
t t
+
+
allora:
**
( )
[ ]
[ ]
( ) ( ) ( )
E X X E X X X X C C C
t t t t t t

1 2
2
1
2 2
2
2 2
1 2 1
2
2
2
1 2
2 0 0 2 + + + + +
+ + +
dove abbiamo utilizzato la linearit delloperatore di aspettazione e che il processo
stazionario fosse di ordine 2. Ora la quantit ** una quantit maggiore o uguale a
zero. Se vediamo lultimo termine come unequazione di secondo grado, una volta in

1
e unaltra in
2
troviamo che la condizione per la quale la ** deve essere positiva
( )
[ ]
( )
[ ] C C 0
2 2
c.v.d.
3) ( )
[ ] [ ]
( )
C E X X E X X C
t t s s

+

pongo t- =s
c.v.d.
Teorema 1.9.2 Lautocovarianza un prodotto scalare
Dimostrazione Vediamo se lautocovarianza soddisfa la def. 1.2.4. Supponiamo che
la media del processo stocastico sia nulla. Si ha:
[ ] [ ]
( )
[ ] [ ] [ ]
[ ] [ ]
[ ] [ ]
[ ]
1
2
3
0
2
)
)
)
E
E
E a
4) E a
5) E
X X E X X
X X X E X X E X X
aX X aE X X
X aX aE X X
X X
t s s t
t r s t s r s
t s t s
t s t s
t t

+ +



C
C

c.v.d.
Il fatto che lautocovarianza sia un prodotto scalare ci permette di dire che il modulo
della deviazione standard la norma di {X
t
}. Ed inoltre ci permette di introdurre il
concetto di ortogonalit (def.1.2.6).
Definizione 1.9.2 Si dice processo puramente stocastico di ordine 2, un processo
stocastico {X
t
} che soddisfi le seguenti condizioni:
[ ]
( )
[ ]
( )
1
2
2
2
) E X t = costante
2) E X t costante
3) C
= 0
0 0
t
t
2

'

Un processo puramente stocastico comunemente conosciuto come rumore


bianco. Dal punto di vista dellautocorrelazione si dice anche non correlato. Dal
punto di vista dellautocovarianza come prodotto scalare si dice che {X
s
}
ortogonale a {X
t
} per s t (qui s e t vanno intese come diverse sequenze ordinate
di indici).
Definizione 1.9.3 La matrice simmetrica N x N
( ) ( ) ( )
( ) ( ) ( )
( ) ( ) ( )
( ) ( )
T
C C C n
C C C
C C C
C n C

]
]
]
]
]
]
]
0 1 1
1 0 1
2 1 0
1 0





si dice matrice di autocovarianza.
Teorema 1.9.3 La matrice di autocovarianza T ha le seguenti propriet:
1 0
0
)
1) i = 1,..., N
N
i




T
i i
T semi - definita positiva
Siano gli autovalori di T. Allora ,
Dimostrazione 1) Sia {a
i
} una N-pla di numeri reali. Definiamo la variabile
stocastica
a X
i i
i
allora abbiamo
[ ]
( )
0
2

]
]
]


E E a a X X a a C i s
i s i s
s i
i s
s i
c.v.d.
2) Gli autovalori di T sono reali perch una matrice simmetrica hermitiana (vedi
Thm 1.3.1).
Ora essendo la matrice di autocovarianza semi-definita positiva si ha:
T T
T T T
ora essendo 0 0 c.v.d.
1.10 Stime della funzione di autocovarianza
Sia {X
t
} un processo stazionario di ordine 2, e siano dati i valori di X
t
per t=1,2,...,N.
Definizione 1.10.1 Si dice stima imparziale della media la quantit:
Infatti abbiamo:
[ ] [ ] E X
N
E X
N
N
t
t
N

1 1
1

Ora dobbiamo verificare per la consistenza che la varianza di questa stima sia finita.
( ) ( )
E
N
X
N
X
N
t s
N
r
N
r
s
s
N
t
t
N
t
N
s
N
r N
N
1 1
1
1 1
2
2
1 1
2
1
1
+


|
.

`
,

|
.

`
,

]
]
]

|
.

`
,

X
N
X
t
t
N

1
1
dove abbiamo posto r=t-s e poi invece di sommare una volta per t e poi per s,
sommiamo per le diagonali del reticolo formato dal quadrato t per s. Ora se il limite:
( )
lim
N
r N
N
r
N
r

|
.

`
,

'

'

1
1
1

finito allora la varianza della stima della media tende a zero come N tende ad
infinito.
Definizione 1.10.2 Si dice stima imparziale dellautocovarianza la funzione:
Per vedere le propriet di questa funzione facciamo prima questa osservazione:
( ) ( )
[ ]
( ) ( )
{ ( )
( )
{
[ ]
( ) ( )
[ ]
( ) ( ) ( )
X X X X X X X X
X X X X N X X
t t t t
t
N
t
N
t t
t
N
+ +
+
+ +



1 1
2
1
0 dove abbiamo assunto che X
t
t
allora possiamo scrivere:
( )
( ) ( )
[ ]
( )
~

C
N
X X X
t t
t
N

1 2
1
dunque:
( )
[ ] ( ) ( )
[ ]
( )
[ ]
( ) ( )
[ ]
( )
E C
N
E X X E X
N
C E X
C
te
N
t t
t
N
t
N
~

cos tan


1 1
2
2
1 1
2
2
( )
( ) ( )
( )
~

C
N
X X X X
t t
t
N

t t t
+

1
1
= 0, 1, 2, .... , N - 1
Allora la differenza fra ( ) ( )
~
C e C di ordine 1/N e come prima approssimazione
possiamo trascurare questo termine di ordine 1/N.
Esiste unaltra stima in letteratura data da:
(1.10.1)
Questa stima della autocovarianza, nonostante sia usata nella maggior parte delle
librerie di statistica per computer, ha la propriet che al tendere di verso il modulo
di N-1 la stima data dalla 1.10.1 diverge in modo notevole dalla covarianza; infatti
trascurando il termine di ordine 1/N si ha:
( )
[ ]
( ) ( )
E C
N
C
N
C
t
N


|
.

`
,

1
1
1
comunque se <<N allora le due stime sono praticamente coincidenti. Si pu inoltre
dimostrare che la varianza della stima data dalla def. 1.10.2 di ordine 1/(N-) e che
la varianza della stima data dalla formula 1.10.1 di ordine 1/N.
10
Inoltre si dimostra anche che la matrice di autocovarianza formata con la stima data
dalla 1.10.1 semi-definita positiva, mentre la matrice di autocovarianza formata con
la stima data dalla def. 1.10.2 non necessariamente semi-definita positiva.
1.11 La funzione di covarianza
10
vedi pag.325-328 di Spectral analysis and time series M.B. Priestley - Academic Press 1981
( )
( ) ( )

C
N
X X X X
t t
t
N

1
1
Definizione 1.11.1 Siano
X X X
t t M t 1 2 , , ,
, ,...,
processi stocastici. Essi sono detti
reciprocamente stazionari di ordine 2 se:
[ ]
1 1 2
2
) , ,...,
)
,
, ,
un processo stocastico stazionario di ordine 2
una funzione che dipende solo da
X s M
E X X
s t
s t k t

+

Definizione 1.11.2 Siano
X X X
t t M t 1 2 , , ,
, ,...,
dei processi reciprocamente stazionari
di ordine 2. Si dice covarianza
( ) C
s k ,

la funzione definita da:
evidente che la covarianza si riduce allautocovarianza del processo s-esimo se
s=k. Inoltre se i processi sono reali si ha
( ) ( )
C C
s k k s , ,

e lo si dimostra in modo
simile al thm 1.9.1.
Definizione 1.11.3 La matrice M x M
( )
( ) ( ) ( ) ( )
( ) ( ) ( )
( ) ( )
R
C C C C
C C C
C C
M
M M M

]
]
]
]
]
]
]
1 1 1 2 1 3 1
2 1 2 2 2 3
1
, , , ,
, , ,
, ,





( )
( ) ( ) C E X X
s k s t s k t k , , ,

]
]
+
si dice matrice di covarianza di ritardo .
Questa matrice in generale non simmetrica, ma la matrice di covarianza di ritardo
= 0 simmetrica.
Le stime della funzione di covarianza si definiscono in modo analogo alle stime
dellautocovarianza cio si ha:
per la stima imparziale della covarianza, e cambiando
1
N
con
1
N
otteniamo
laltra stima della covarianza.
1.12 La trasformata di Fourier discreta
Definizione 1.12.1 Sia X un vettore di
C
N
. Loperatore D
N
N N
: C C che agisce su
X nel seguente modo:
{ G D X
N

rappresentato dalla matrice N x N
( )
( ) ( )
( )
~

, , ,
C
N
X X X X
s k s t s k t k
t
N

t t t
+

1
1
= 0, 1, 2,...., N - 1
D
W W W W
W W W W
W W W W
W W W W
N
N
N N N N

]
]
]
]
]
]
]


0 0 0 0
0 1 2 1
0 2 4 2 1)
0 1 2 1) 1)( 1)

(
( (
dove W e
j N

2/
j = -1 . Loperatore D
N
si dice trasformata di Fourier discreta .
Possiamo dunque riscrivere la trasformazione nel seguente modo:
G D X G X e
k i
jik N
i
N

2
0
1
/
k=0,1,...,N-1
Teorema 1.12.1 Loperatore inverso della trasformata di Fourier discreta
D
N
N N

1
: C C rappresentato dalla matrice:
D
N
D

1
1
Dimostrazione Dobbiamo dimostrare che il prodotto
1
N
D D la matrice unitaria.
Per far ci sufficiente far vedere che
1
0
1
2
0
1
N
e
jk i v N
k
N
( ) /



'

se v i
se v = i
se v = i la dimostrazione immediata. Sia ora v i ; ricordiamo che a
a
a
k
N
k
N

1
1
1
1

che pu essere modificata nel seguente modo ( ) a
a
a
a
k N
k
N

1
1
1
ora poniamo
a e
j i v N

( ) / 2
1

chiaro che a
N
allora possiamo scrivere
( )
1 1 1
1
1 0 1
2
0
1
0
1
1
N
e
N
a
N
a
a
N a
a
jk i v N
k
N
k
k
N
k
k
N
N ( ) /
( )

dato che a
N
c.v.d.
Possiamo scrivere allora X
N
D G X
N
G e
i k
jik N
k
N

1 1
2
0
1
/
i = 0,....,N-1.
Teorema 1.12.2 La trasformata di Fourier discreta e la sua inversa definiscono
rispettivamente le sequenze periodiche
X X
G
i i N
k N
t t
t t
+
+

= 0, 1, 2,....
G = 0, 1, 2,....
k
Questo teorema deriva direttamente dalla definizione 1.12.1
Teorema 1.12.3 La trasformata di Fourier discreta lineare
Teorema 1.12.4 La trasformata inversa pu essere espressa come la complessa
coniugata della trasformata diretta applicata al complesso coniugato dellimmagine
G
k
e il tutto per 1/N. Viceversa la trasformata diretta pu essere espressa come la
complessa coniugata della trasformata inversa applicata alla complessa coniugata
di X
i
e il tutto per N. Cio:
X
N
G e
G
N
NX e
i k
jik N
k
N
k i
jik N
i
N

|
.

`
,

|
.

`
,

1
1
2
0
1
2
0
1

/
/
Questa propriet molto importante nella implementazione della trasformata in
quanto permette di usare la medesima procedura sia per la trasformata diretta sia per
quella inversa.
Sia
X X G
i N i N k
e G
-k
.
Teorema 1.12.5 Limmagine di una sequenza coniugata X
i
uguale a G
k
e la
trasformata inversa di G
k
uguale a X
i
Deriva direttamente dalla def. 1.12.1
Essendo ( ) ( ) ( ) ( ) Re Im X X X X
j
X X
i i i i i i
+
1
2
1
2
e il Thm. 1.12.5 comporta
che
( )
[ ]
( ) ( )
[ ]
( ) Re Im
.
X G G X
j
G G
G
i
i
N
k k i
i
N
k k
k

0
1
0
1
1
2
1
2
e e da quest' ultima si deduce che se X reale
allora si ha G
-k
Definizione 1.12.2 Si dice sequenza traslata la sequenza
x X
i i v


dove
( )
v N t t t 1 2 1 , ,...,
In modo analogo si definisce la sequenza traslata per limmagine.
Teorema 1.12.6 Limmagine di una sequenza
X
i
traslata da v, uguale
allimmagine della sequenza
X
i
moltiplicata da
e
jvk N 2/
X W G W
i v
ik
i
N
k
vk


0
1
Dimostrazione (**)
( )
X e X e e X e X e
i v
jik N
i
N
j v k N
v
N v
jvk N
N v
j k N
v
j k N


+
|
.

`
,

2
0
1
2
1
2
0
1
2
1
2

/ / / / /
per
il Thm 1.12.2 possiamo dire che
X X
s s N


ora sia
s N +
allora si ha
( )
X e X e X e
v
j k N
s N
s N v
N
j s N k N
s
s N v
N
jsk N



1
2
1
2
1
2 / / /
ora cambiamo di nuovo il
simbolo dellindice s e poniamo che sia i. E dunque dalla (**) si dimostra
lasserzione del teorema. c.v.d.
In modo analogo si dimostra che
1
0
1
N
G W X W
k
k
N
ik
i
i

Definizione 1.12.3 Sia


X
i
e
Y
i
due sequenze periodiche e
G
k
e
H
k
le rispettive
immagini. Si dice convoluzione periodica discreta la sequenza:
Z X Y X Y
i v i v i v
v
N
v
v
N


0
1
0
1
i =0,1,..., N - 1
Teorema 1.12.7 Limmagine di una convoluzione periodica discreta
Z
i
uguale al
prodotto delle immagini G
k
e H
k
.
Z W G H
i
i
N
ik
k k


0
1
Dimostrazione X Y W X Y W
v i v
v
N
ik
i
N
v
v
N
i v
i
N
ik


|
.

`
,

|
.

`
,

0
1
0
1
0
1
0
1
ora per il Thm 1.12.6
possiamo scrivere X W H G H
v
v
N
vk
k k k

|
.

`
,

0
1
c.v.d.
Teorema 1.12.8 Limmagine della sequenza
i v
v
N
v i
X X

0
1
i=0,1,...,N-1 data da
G
k
2
dove
X
v
reale
Dimostrazione X X W X X W G X W
v
v
N
v i
ik
i
N
v
v
N
v i
i
N
ik
k v
v
N
vk


|
.

`
,

|
.

`
,

0
1
0
1
0
1
0
1
0
1

( )

G X W G G
k v
i k
v
N
k k
0
1
ma essendo la sequenza reale si ha G G
k k
e quindi
X X W G
v
v
N
v i
i
N
ik
k


|
.

`
,

0
1
0
1
2
c.v.d.
Teorema 1.12.9 Sia
2
0
1

N
la varianza della sequenza
X
v
reale allora si ha la
seguente relazione (Parsevals):
1 1 2
0
1
2
2
0
1
N
X
N
G
v
v
N
k
k
N

Dimostrazione Ricordiamo che


1
0
1
0
N
k
k
N

dove
k i
i
N
ik
W

0
1
ma dal thm
1.12.8 sappiamo che

k k
G
2
quindi
1 1
0
1
2
0
1
2
0
1
0
N N
G X
k
k
N
k
k
N
v
v
N


c.v.d.
Bibliografia 1
[1] G. Strang Algebra lineare e sue applicazioni Liguori Editore 1981
[2] A. N. Kolmogorov - S. V. Fomin Elementi di teoria delle funzioni e di analisi
funzionale Edizioni Mir 1980
[3] B. V. Gnedenko Teoria della probabilit Editori Riuniti 1987
[4] M. B. Priestley Spectral analysis and time series Academic Press 1981
[5] G. M. Jenkins - D. G. Watts Spectral Analysis Holden-Day 1968
[6] T. W. Anderson The statistical analysis of time series John Wiley & Sons
1971
[7] E. J. Hannah Multiple time series John Wiley & Sons 1970
[8] V. Cizek Discrete fourier transforms and their applications Adam Hilger
1986
Capitolo 2
Dalla P.C.A. alla S.S.A.
2.1 Analisi in componenti principali (P.C.A.)
Siano
X X X
t t M t 1, 2
, ,... ,
, ,
dei processi reali reciprocamente stazionari di ordine 2. Sia
R(0) la matrice di covarianza per = 0. Essa simmetrica e dunque i suoi autovalori
sono reali e i suoi autovettori sono ortogonali e formano una base di
M
.
Supponiamo che t vari fra 1 e N e che i processi considerati siano a media nulla.
Introduciamo in
N
il prodotto scalare
1
1
N
X X
s t k t
t
N
, ,

. Possiamo scrivere la stima di


R(0) (non importa se imparziale o meno in quanto per R(0) indifferente) come il
prodotto di due matrici:
( )
~
, , , , ,
, , , , ,
, , ,
, , ,
, , ,
,
, ,
R
N
X X X X X
X X X X X
X X X
X X X
X X X
X
X X
N
N
M M M N
M
M
N M N
0
1
1 1 1 2 1 3 1 4 1
2 1 2 2 2 3 2 4 2
1 2
1 1 2 1 1
1 2 2 2 2
1 3
1

]
]
]
]
]
]

]
]
]
]
]
]
]
]
]
]
]
]









oppure
( )
~
R
N
T
0
1

( )
Sia ora S R la matrice degli autovettori ortonormali di cos fatta:
i

~
, 0
S = allora in virt del thm 1.3.4 possiamo scrivere



1 1 1 2 1
2 1 2 2 2
1 2
, , ,
, , ,
, , ,

M
M
M M M M

]
]
]
]
]
]
( ) ( ) ( )
= S R S
N
S S
N
S S
N
T T T
T
T
0
1 1 1
dove
S
M


una matrice diagonale degli autovalori, che possiamo supporre messi in
ordine decrescente cio e dove una matrice M x N
cos fatta:

1 2
......

]
]
]
]
]
]
]
]
]









1, 1
1
1, 2
1
1, 3
1
1, 4
1
1,
1
2 1
1
2 2
1
2 3
1
1
1
2
1 1
q q
q
M
q q
q
M
q q
q
M
q q
q
M
q q N
q
M
q q
q
M
q q
q
M
q q
q
M
M q q
q
M
M q q
q
M
M q q N
q
M
X X X X X
X X X
X X X
, , , , ,
, , , , , ,
, , , , , ,




( )
dunque l' elemento di riga h e colonna f della matrice se interpretiamo la riga
h - esima della matrice come un vettore di , allora abbiamo trovato dei vettori in che sono
fra loro ortogonali, e ci deriva dal fatto che
tori si dicono
Dalla conoscenza della matrice si ritrova che = che in forma di elementi di matrice
,
,





h f h q q f
q
M
N N
T
h h h h N
T
h f q h q f
q
M
X
N
Questi vet
S

, ,
, , ,
, ,
.
, ,....,
1
1 2
1
1
componenti principali.
Cerchiamo di riassumere quanto detto in definizioni e teoremi formali.
Definizione 2.1.1 Siano X
i
N
i =1,..., M dei processi stocastici
reciprocamente stazionari di ordine 2. Si definisce la matrice M x N avente per
righe i vettori X
i

Teorema 2.1.1 Sia la matrice come da def. 2.1.1. Allora la stima della matrice di
covarianza R(0) data da:
( )
~
R
N
T
0
1

Definizione 2.1.2 Siano

i
i =1,..., M
gli autovalori e
i
M
i =1,..., M
gli autovettori di ( )
~
R 0 . Definiamo S la matrice M x M aventi per righe gli
autovettori

i
Definizione 2.1.3 Sia la matrice M x N data da:
S
I vettori riga
i
N
della matrice si dicono componenti principali (PCs)
Teorema 2.1.2 Si prenda lo spazio euclideo definito da
N
e il prodotto scalare
1
1
N
X X
i q j q
q
N
, ,

allora in le componenti principali sono ortogonali.



Teorema 2.1.3 Il processo h-esimo dato da
h f q h q f
q
M
,

, ,
1
Dimostrazione Si ha:

S S S
T 1
c.v.d.
Questo teorema ci dice che M vettori di
N
sono rappresentati completamente in un
opportuno sottospazio di
N
di dimensione M avente come base le componenti
principali. Non solo ma possiamo limitarci ad analizzare P < M componenti
principali, se esse rappresentano unalta percentuale della varianza totale.
2.2 Analisi spettrale singolare (S.S.A.)
Definizione 2.2.1 Sia ( ) X X X X
N

1 2
, ,..., un processo stazionario di ordine 2 a
media nulla. Definiamo loperatore
U
N N M
:
+1
come loperatore che agisce
su X nel seguente modo:
( ) ( ) U X Y Y Y Y X X X M
N M N M



+ + + + + , , ,
, , ... , , , ... ,
1 2 1 1 2 1
0 1 =
Definizione 2.2.2 Sia Y la matrice M x (N-M+1) avente la riga h-esima il vettore
U X
h1
, o pi esplicitamente:

]
]
]
]
]
]
]
]

]
]
]
]
]
]
]

+
+
+
U X
U X
U X
U X
Y Y Y Y
Y Y Y Y
Y Y Y Y
M
N M
N M
M M M M N M
0
1
2
1
0 1 0 2 0 3 0 1
1 1 1 2 1 3 1 1
1 1 1 2 1 3 1 1






, , , ,
, , , ,
, , , ,
Teorema 2.2.1 Sia T la matrice di autocovarianza M x M del processo stazionario X
di ordine 2 a media nulla. Allora la stima parziale di T data da:

T
N
T

1

Dimostrazione Usando la def . 2.2.1 e svolgendo i prodotti riga per colonna
troviamo

T
N
X X X X X X
X X X X
X X X X
i i
i
N M
i i
i
N M
i i M
i
N M
i i
i
N M
i i
i
N M
i M i
i
N M
i M i M
i
N M

]
]
]
]
]
]
]
]

+
+

+
+

+
+

+
+ +

+
+

+
+ +

+



1
1
1
1
1
1
1
1
1
1
1
1
1 1
1
1
1
1
1
1 1
1
1





notiamo che
( )

C
N
X X
N
X X
N
X X
N
X X
i i i i
i
N M
i i
i N M
N
i
N
i i
i
N M

+
+ +

+
+
+

+

1 1 1 1
1
1
2 1 1
1
se N >> M
dove sfruttando la stazionariet, si vede che proprio la stima parziale della matrice
di autocovarianza. c.v.d.
Definizione 2.2.3 Siano

i
i M 1, .... ,
gli autovalori e
i
M
i M 1, ... ,
gli autovettori di

T
. Definiamo S la matrice M x M aventi per righe gli autovettori

i
Definizione 2.2.4 Sia la matrice M x (N-M+1) data da: S Y
In modo analogo alla P.C.A. le righe
i
della matrice sono dette componenti
principali, ed anchesse hanno la propriet di essere ortogonali, e la dimostrazione
identica al caso della P.C.A.
Possiamo pensare di usare un teorema analogo al thm 2.1.3 per la ricostruzione del
segnale, ma per la S.S.A. vi sono M modi differenti di ricostruzione, i quali non tutti,
in generale danno il medesimo risultato, ma problema pi grave che queste
ricostruzioni hanno solo N-M+1 elementi, mentre a noi interessa una ricostruzione
completa, cio con N elementi. Il seguente metodo detto delle componenti
ricostruite (RCs) permette la ricostruzione in modo ottimale.
Definizione 2.2.5 Sia Q la quantit
( )
Q
i j q i q j
j
M
i
N M

+



, ,
2
1 0
si dice q-esima RCs il vettore
q N

che minimizza la quantit Q.


Si trova che la q-esima RCs data da:
q
s
q s j q j
j
s
q s j q j
j
M
q s j q j
j s N M
M
s
s M
M
s N M
N s
N M s N


+
+
+

'

1
1 1
1
1
1
1
2
1
1

, ,
, ,
, ,
se
se M M<
N +1
2
se
Inoltre si dimostra che il processo X espanso come somma delle sue RCs, pi
esplicitamente si ha:
(2.2.1)
E opportuno puntualizzare come stata trovata la q-esima RCs; prima di tutto
calcoliamo la derivata parziale di Q:
( )


Q
i j
i j q i q j
j
M
i
N M
+
+



2
1 0

, ,
abbiamo dunque N derivate parziali, e per trovare il minimo sufficiente porle tutte
uguali a zero cio:

Q
i j +
0
vediamo pi in dettaglio cosa rappresenta questo sistema; prima di tutto notiamo che
fissato il valore di i+j si ha:
( )
q
q q
q
q q q q


1 0 1
2 0 2 1 1
0
2 0


, ,
, , , ,
per i + j =1
per i + j = 2

X
q
q
M


1
e come si vede in questo modo si giustifica il risultato che si ottiene per la q-esima
RCs.
Ora bisogna dimostrare che la somma di tutte le RCs X, per fare ci notiamo che
Y S Y
T
h f q h q f
q
M


, , ,

1
ma
Y X
h f h f ,

+
allora si ha:
X
s s s
X X
M M M
X X
N s N s N
s
q
s
q s j q j
j
s
q
M
q s j q j s s
j
s
q
M
j
s
q s j q j
j
M
q
M
q s j q j
q
M
j
M
s s
j
M
q s j q j q s j q j



+

+




1 1 1
1 1 1
1
1
1
1
1
1 1 1 1 1
1 1 1 1 1



, , , ,
, , , ,
, , , ,
se 1 s M-1
se M s N- M+1
+

'

+ + +

s
X X
s s
j s N M
M
q
M
j s N M
M
j s N M
M
q
M
q
M
1
1 1
1
se N- M+2 s N
c.v.d.
Nonostante la formula 2.2.1 abbia un aspetto lineare, essa in realt non lineare in
quanto gli autovettori dipendono in modo non lineare da X.
Ci domandiamo ora cosa cambia in tutto questo discorso se invece della stima
parziale dellautocovarianza usiamo la stima imparziale? Le definizioni 2.2.1 e 2.2.2
rimangono invariate, non abbiamo per lanalogo del thm 2.2.1 perch non abbiamo
la possibilit di costruire la stima imparziale della matrice di autocovarianza
~
T
da Y,
ma la costruiremo direttamente usando la def. 1.10.2 , allora la matrice S della def.
2.2.3 avr per righe gli autovettori di
~
T
, e tutta la parte per trovare le componenti
ricostruite sar identica, con lunica differenza che le righe della matrice non
avranno pi la propriet di essere ortogonali, (sono ora quasi ortogonali) ma
tenderanno sempre pi allortogonalit, per N molto maggiore di M, ma ci non
inficia il metodo delle RCs in quanto la propriet di ortogonalit delle righe di non
viene utilizzata.
2.3 Le caratteristiche peculiari della SSA
Abbiamo visto che la SSA espande un processo X come somma di M RCs, iniziamo
a puntualizzare che M scelto arbitrariamente ed usualmente denominato
embedding dimension infatti al contrario della PCA dove M rappresenta il numero
dei processi considerati, nel caso della SSA, dove si ha un solo processo, M non
stabilita a priori. Come si vedr la scelta di M fondamentale per ci che si vorr
ottenere dalla SSA. R. Vautard e M. Ghil [1] hanno dimostrato che quando nel
processo X presente una oscillazione periodica, allora una coppia di autovalori
quasi uguali sono presenti nello spettro della matrice di autocovarianza e che gli
autovettori ad essi associati sono ortogonali. In [2] Vautard e Ghil hanno proposto un
criterio per decidere quale frequenza associata alloscillazione trovata. Si
prendano i due autovettori associati alla coppia di autovalori, e gli si applichi la
trasformata di Fourier discreta (oppure la FFT), si trovino i massimi degli spettri dei
due autovettori, allora se il modulo della differenza fra i due massimi cos trovati
piccola allora alla coppia di autovalori associata unoscillazione di frequenza
uguale alla media delle frequenze corrispondenti ai due massimi. Formuliamo quanto
appena detto in termini formali:
Definizione 2.3.1 Sia X
N
un processo stazionario di ordine 2 a media nulla.
Sia

T
( )
~
T la stima parziale (imparziale) della matrice di autocovarianza M x M del
processo X. Siano

i
M i 1,...,
gli autovalori di

T
( )
~
T disposti in ordine
decrescente

1 2
.....
M
. Sia [ ] 01 , . Diremo che due autovalori successivi
formano una coppia di autovalori quasi uguali se:
( )
i i i i
+
+ + 1 1
1 i M- 1
La definizione 2.3.1 dipende fortemente dal valore di alfa. Se alfa uguale a zero la
condizione data soddisfatta solo se i due autovalori sono uguali. Se alfa uguale ad
uno allora ogni autovalore e il suo successivo soddisfano la condizione. Dunque se
alfa tende ad essere troppo piccolo, la condizione tender ad essere pi restrittiva, e il
contrario se alfa tende ad uno. Dopo varie prove il valore di alfa nel programma
SSA37a (App. A) stato posto uguale a 0.05. La condizione della def.2.3.1 pu
essere riscritta nel seguente modo:
1
1
0
1

+

+


i
i
i

allora se 0 05 . la condizione sar soddisfatta se
[ ]
i i i +

1
0905 . , .
Definizione 2.3.2 (Tecnica ad hoc di Vautard e Ghil) Siano

i i
,
+1
una coppia
di autovalori quasi uguali. Siano
i i
M
,
+

1
gli autovettori associati a

i i
,
+1
.
Siano
i i
,
+1
i rispettivi spettri di Fourier dei due autovettori. Siano
i i N
,
+

1
le
rispettive RCs. Siano
[ ] [ ] A
i i

+
max max ; B
1
e
f
i i
; f
+1
. le rispettive
frequenze associate ad A e B. Si definisce oscillazione il vettore
+
+ i i 1
di
frequenza f
f f n
M
i i

+
t
+1
2 2
se la condizione:
f f
n
M
i i

+1
soddisfatta. Dove n il numero di punti per secondo del processo X.
Il valore res=n/M corrisponde al potere risolutivo permesso dallo spettro di Fourier.
Se vogliamo un determinato potere risolutivo, pi n grande e pi grande dovr
essere M, ma il tempo t impiegato dagli algoritmi per trovare gli autovalori e gli
autovettori di una matrice M x M segue una legge di tipo logaritmica (Tab.1),
dunque opportuno in alcuni casi trovare il modo per diminuire n.
res (Hz) n (punti/secondo) M (punti) t (ore)
1 100 100 ~ 0.1
1 1000 1000 ~ 2
1 10000 10000 ~ 5
Tabella 1 (Il tempo t riferito ad un HP 715/33)
Uno dei possibili modi per diminuire n consiste nellutilizzo di una media mobile di
finestra RR e di prendere poi un punto ogni RR.
Definizione 2.3.3 Sia X
N
. Sia RR Ntale che mod
N
RR
|
.

`
,
0. Sia

X
N RR

+1

il vettore di componenti
X
X
RR
i N RR
i
i j
j
RR
+
+

0
1
1 1
. Si definisce il vettore
X
N
RR

come il vettore di componenti X X


s
s RR

1 1 ( )
1 s
N
RR
.
Il vettore
X

ha
n
RR
punti per secondo. Inoltre si pu dimostrare che a basse
frequenze [0,n/RR] Hz, lo spettro del vettore
X

praticamente identico allo spettro


di X. Allora, fissato un potere risolutivo, e se lanalisi SSA del segnale X la
limitiamo alle basse frequenze possiamo, se i valori di N e n lo permettono,
analizzare il segnale
X

al posto di X.
res (Hz) n RR M
1 500 5 100
1 1000 10 100
Tabella 2 Fissata res possiamo variare RR invece di M ed in questo modo si
risparmia tempo macchina.
Se il processo X composto da unoscillazione di una data frequenza pi rumore la
SSA permette di ricostruire loscillazione senza il rumore. Vediamo degli esempi
concreti tratti dal programma SSA37a. In fig.1 vediamo
Figura 1 Sinusoide a 10 Hz sommata a rumore bianco.
una sinusoide di frequenza 10 Hz e di ampiezza picco-picco 2 sommata a rumore
bianco di ampiezza 1, questo segnale stato analizzato dal programma SSA37a
scegliendo il valore di M uguale a 70, dove stiamo considerando n=1000. In fig.2 si
ha la ricostruzione ottenuta da SSA37a e la frequenza trovata dal programma di
100.71 Hz.
Figura 2 Risultato dellanalisi SSA. 100 punti = 1 secondo
In fig.3 abbiamo il grafico dei primi 6 autovalori (linearmente proporzionali alla
varianza) e come si vede i primi due che insieme hanno il 94% della varianza sono la
coppia di autovalori che il programma ha trovato corrispondere alla frequenza
sinusoidale di 10 Hz:
Varianza
0
5
10
15
20
25
30
35
40
45
50
1 2 3 4 5 6
Figura 3
Vediamo ora cosa si ottiene analizzando un segnale leggermente pi complicato, in
fig.4 abbiamo un segnale sinusoidale di frequenza 10 Hz modulato in ampiezza ad
una frequenza di 1 Hz sommato a rumore bianco:
Figura 4
In fig.5 abbiamo lo stesso segnale senza rumore e in fig.6 il risultato ottenuto dalla
SSA
Figura 5
Figura 6
Come si vede dalla fig.6 la ricostruzione del segnale quasi perfetta, la traslazione
sullasse y dovuta alla media del segnale di fig.4 che il programma somma alla
ricostruzione, la frequenza fornita dal programma di 9,95 2,8 Hz, possiamo
notare che la ricostruzione perfettamente in fase con il segnale originale, la
ricostruzione in ampiezza in questo caso quasi esatta, infatti come vedremo in
seguito la ricostruzione dellampiezza di un segnale dipende dal valore di M e
dallampiezza del rumore presente. Prendiamo dunque sempre una sinusoide a 10 Hz
di ampiezza 1 e un rumore molto elevato per esempio di ampiezza 50, e in fig.7 e in
fig.8 abbiamo rispettivamente il segnale pi rumore e il suo spettro di Fourier
Figura 7
Figura 8
Le seguenti figure mostrano la ricostruzione del segnale e il suo spettro per differenti
valori di M nel primo caso abbiamo M=70 poi M=300 e M=700
Figura 9 Ricostruzione SSA, 70 autovalori, RR=10, freq. trovata 10 0.71 Hz
Nonostante la frequenza fornita dal programma sia quella giusta, la ricostruzione in
ampiezza totalmente falsata, infatti guardando il suo spettro di Fourier (fig.10)
notiamo che molto rumore stato preso
Figura 10
Vediamo ora cosa accade aumentando M
Figura 11 300 autovalori, RR=10, freq. trovata 10,3 0,19 Hz
Figura 12
Figura 13 700 autovalori, RR=10, freq. trovata 10 0.07 Hz
Figura 14
Come si vede dagli spettri di Fourier delle ricostruzioni ottenute per vari valori di M
(fig.10 -12 -14) allaumentare del valore di M si restringe la finestra di frequenze
intorno alla frequenza trovata che nel nostro esempio di 10 Hz, infatti Vautard e
Ghil [1] dimostrano, trovata una oscillazione di frequenza f
0
che la ricostruzione del
segnale avr uno spettro di Fourier dato da
(2.3.1)
( )
( )
( )
( )
S f
f f M
n
f f M
n
S f
0
0
0
2
2

]
]
]
]

]
]
]
]
sen


dove S(f) lo spettro di Fourier del segnale da analizzare (nel nostro esempio
loscillazione pi il rumore), M il numero degli autovalori, n il numero di punti
per secondo, f
0
la frequenza trovata dallanalisi SSA ed infine S
0
(f) lo spettro di
Fourier del segnale ricostruito. Dunque se dobbiamo analizzare segnali molto
rumorosi abbiamo davanti un problema nellinterpretazione della variazione
dellampiezza del segnale ricostruito. Se pensiamo di aumentare M otterremo al
limite una sinusoide pura, se al contrario M tende ad essere piccolo la variazione
dellampiezza del segnale ricostruito sar modulato dal rumore. Un buon esempio
dato da un segnale sinusoidale modulato non al 100%. Supponiamo che il segnale
Y=X+W sia formato da segnale sinusoidale X di frequenza 10 Hz e che la sua
ampiezza (non modulata al 100%) vari con una frequenza di 0.5 Hz e da un rumore
bianco W; allora avremo uno spettro del tipo seguente:
Figura 15 Disegno schematico
Analizziamo tutti i casi possibili di questo semplice esempio:
1) Lampiezza massima A
w
nello spettro di Fourier di W molto minore delle
ampiezze nello spettro di Fourier di A e C, cio A
w
<<C o (A
w
<<A) allora come
dipender la ricostruzione della variazione dellampiezza del segnale ricostruito al
variare di M ? In questo caso avendo supposto A
w
molto piccola avremo che la
ricostruzione esatta avverr ai due estremi possibili di M, ma in modo diverso, per M
il pi piccolo possibile, (e il valore di M minimo per rilevare una frequenza dipende
da due parametri, e sono il numero di punti per secondo n del segnale Y e il valore
della frequenza f
0
vedi def. 2.3.2), allora per il minimo di M la finestra sullo spettro
di Fourier sar la massima possibile, e quindi il segnale X sar ricostruito
esattamente, se invece M tende al massimo che al limite N, cio il numero di punti
totali del segnale da analizzare, allora avremo una finestra sullo spettro di Fourier la
pi piccola possibile, e nel nostro caso la SSA ricostruir tre segnali sinusoidali ad
ampiezza quasi costante (ci dipender dal rapporto di A,B e C con A
w
) che
chiameremo X
1
,X
2
, e X
3
rispettivamente di frequenze 10 Hz, 9.5 Hz e 10.5 Hz, allora
in questo caso il segnale X sar dato dalla somma dei tre ottenuti cio X=X
1
+X
2
+X
3
ed anche in questo caso la ricostruzione dellampiezza sar molto buona. Nel caso
invece di M intermedio la ricostruzione della variazione dellampiezza, dipender
fortemente da M. Cerchiamo di andare ancora pi nel dettaglio per far capire meglio
questo punto che ritengo cruciale per la successiva interpretazione della variazione
dellampiezza. Prima di tutto ricordiamo che la trasformata di Fourier discreta
lineare (Thm 1.12.3), dunque per il nostro esempio possiamo considerare la Y come
sommatoria di tre frequenze (9.5-10-10.5 Hz) e del rumore cio Y= X
1
+X
2
+X
3
+W,
ora possiamo scrivere usando la def. 1.12.1
(2.3.2)
G D Y D X D X D X D W G G G G
w
+ + + + + +
1 2 3 1 2 3

supponiamo che lanalisi SSA, con un M intermedio abbia ricostruito la frequenza a
10 Hz, ma come abbiamo visto la convoluzione del tipo sen(x)/x (vedi 2.3.1)
determiner la finestra di frequenze che saranno presenti nella ricostruzione, si avr
uno spettro del segnale ricostruito del tipo:
Figura 16 Disegno schematico
Dove A* e C* sono le nuove ampiezze dovute alla convoluzione. Abbiamo che
lanalisi SSA ha trovato una coppia di autovalori, alla quale sono associati due
autovettori, che hanno il massimo del loro spettro di frequenza a 10 Hz, e applicando
il metodo delle componenti ricostruite otteniamo due RCs la cui somma fornisce un
segnale ricostruito di frequenza 10 Hz che ha uno spettro di Fourier dato dalla fig.16.
Dalla linearit della trasformata di Fourier discreta possiamo dunque scrivere che
A=A*+A** e C=C*+C** , (dove A** e C** sono le intensit residue dello spettro di
Fourier tali che la somma con A* e C* sia A e C) possiamo dunque immaginare che
la SSA possa ricostruire le frequenze a 9.5 e 10.5 Hz ma con ampiezza nello spettro
A** e C** . Questo in effetti ci che accade in pratica. Dunque si potrebbe
concludere dicendo che la somma dei tre segnali ricostruiti fornisce nuovamente il
segnale X, ci vero fino ad un certo punto perch tutto dipende ora dal rapporto
C** con A
w
, nonostante siamo partiti da una situazione favorevole dal punto di vista
del rapporto segnale rumore, una scelta di M intermedia pu fare in modo che il
rapporto C** con A
w
non permetta alla SSA di riconoscere le frequenze residue.
Dunque in conclusione del primo caso si deve tendere ad usare o il pi piccolo M
possibile (relativamente alla frequenza cercata ) o il pi grande M possibile. Ma vi
sono dei casi in cui ci non possibile, e si dovr per forza usare M intermedi.
2) Prendiamo ora in considerazione il caso che A
w
sia paragonabile ad A e C, in
questo caso utilizzare un M piccolo (finestra grande) un controsenso, in quanto la
ricostruzione in ampiezza sar modulata da una quantit elevatissima di rumore, ed
otterremmo un qualcosa di simile alla fig.9, dunque in questo caso lunica soluzione
logica di usare il pi grande M possibile, ma dovremo abbandonare lidea di
ottenere una ricostruzione valida della variazione dellampiezza. A meno che non si
trovi il modo di attenuare il rumore.
Tutto questo lungo discorso si pu riassumere nel seguente modo: 1)la tecnica SSA
permette di riconoscere quali oscillazioni sono presenti in un segnale qualsiasi; 2)la
frequenza fornita dalla ricostruzione affidabile; 3)la variazione dellampiezza del
segnale ricostruito dipende fortemente dal valore di M, ci dovuto alla
convoluzione, nel caso di rumore debole si pu utilizzare il minimo M possibile di
solito si ottiene il segnale ricostruito perfettamente, oppure si pu utilizzare il
massimo M possibile e sommare le ricostruzioni ottenute. Nel caso di rumore forte si
utilizzi solo il pi grande M possibile.
Ma il discorso ancora pi sottile quando vogliamo dare uninterpretazione dei
risultati ottenuti dalla SSA, supponiamo che ora il segnale Y sia formato dalla
somma di tre frequenze sinusoidali, che prendiamo proprio a 9.5-10-10.5 Hz e con
ampiezze nello spettro di Fourier uguali ad A-B-C. Qual la differenza rispetto a
prima? La differenza solo nellinterpretazione, prima consideravo il segnale
modulato X come un processo fisico indipendente, ora invece considero tre segnali
X
1
,X
2
, e X
3
come tre processi fisici indipendenti (fig.17) pu la SSA darci
informazioni sullinterpretazione da dare ai risultati che essa fornisce?
Figura 17 Due sistemi forniscono la stessa uscita Y
La risposta no!. I risultati delle analisi SSA sui due diversi sistemi di fig.17 sono
identici e ci troviamo dunque di fronte a unambiguit. Lambiguit potr essere
superata se vi sono ragionevoli congetture per poter decidere quale interpretazione
fornire. Ma vi sono sistemi fisici, molto complessi, per i quali difficile capire quali
siano le ragionevoli congetture. Quindi nel nostro esempio prima di dire che la
SSA ha trovato una frequenza a 10 Hz modulata in ampiezza ad una frequenza di 0.5
Hz, oppure ha trovato tre frequenze sinusoidali di 9.5-10-10.5 Hz dobbiamo avere
delle informazioni supplementari per decidere quale delle due versioni pu essere
ragionevolmente esatta.
2.4 Una proposta alternativa per il riconoscimento delle
oscillazioni
Nel paragrafo 2.3 ho descritto la tecnica introdotta ad hoc da Vautard e Ghil, che
consiste nel prendere gli autovettori associati alle coppie di autovalori, farne gli
spettri e prenderne i massimi e confrontarli, se la differenza di questi due massimi
piccola allora si procede alla ricostruzione delle due RCs associate. Le molteplici
prove da me effettuate, nel provare questa tecnica, hanno mostrato la validit della
scelta dei massimi quando il rumore non troppo elevato, ma il grado di fallimento
direttamente proporzionale al rumore presente. Per questo propongo un modo
alternativo per trovare il valore della frequenza da associare a un autovettore. Si
consideri la seguente formula:
( ) Z p
f I
I
p
i i
p
i
i
p
i
<

1
dove con f
i
intendo la frequenza i-esima e I
i
lintensit associata alla frequenza i-
esima dello spettro di Fourier dellautovettore. Come varia la quantit Z(p) in
funzione di p? Per p=1 abbiamo una media pesata per le frequenze, inoltre se I
max

lintensit massima dello spettro si ha che per p che tende allinfinito la quantit Z(p)
tender ad f
max
(cio la frequenza associata a I
max
). Supponiamo di avere uno spettro
di questo genere:
il massimo corrisponde al picco B, quindi la tecnica di riconoscimento proposto da
V. e G. fornisce B come responso. Il problema che i fallimenti derivano proprio da
ci. Per osservare cosa accadeva allo spettro degli autovettori, ho scelto un segnale
sinusoidale di data frequenza, ho sommato ad ogni prova unintensit di rumore pi
elevata rispetto alla prova precedente, ed ho visto che allaumentare del rumore lo
spettro degli autovettori
11
presentava sempre pi picchi spuri, la presenza di un picco
di ampiezza spurio, non permette il riconoscimento della reale frequenza. La quantit
Z(p) per p intermedi fra 1 ed infinito (nel programma stato scelto il valore p=200)
11
Ci si pu domandare come ho potuto stabilire, nel caso di elevato rumore, e quindi di fallimento
della tecnica della def.2.3.2 scegliere la coppia di autovalori giusti. La risposta consiste nel fatto che
dato che conosco il segnale che la SSA analizza, io so che la prima coppia di autovalori deve essere
per forza la sinusoide. Si pu capire ci ragionando un attimo sul Teorema di Parseval (Thm 1.12.9).
permette un riconoscimento ottimale. In questo modo il programma ha migliorato
notevolmente le sue prestazioni di riconoscimento delle oscillazioni, per fare
unesempio i risultati ottenuti dallanalisi SSA con i parametri M=700 e RR=10 (vedi
fig.73), non sono possibili con la tecnica dei soli massimi. Ripeto che non sono
possibili, nel senso che il grado di fallimento in quel caso raggiungeva quasi il 100%.
Con questa tecnica di riconoscimento, i fallimenti sono relegati al caso che la
larghezza del picco spurio con intensit massima, sia paragonabile alla larghezza del
picco di frequenza reale.
Definizione 2.4.1 Siano

i i
,
+1
una coppia di autovalori quasi uguali. Siano

i i
M
,
+

1
gli autovettori associati a

i i
,
+1
. Siano

i i
,
+1
i rispettivi spettri di
Fourier dei due autovettori. Siano
i i N
,
+

1
le rispettive RCs. Sia p
+
. Siano
( ) ( ) Z p
f
p
f
i
s i s
p
s
i s
p
s
i
s i s
p
s
i s
p
s

+
+
+

,
,
,
,
Z
1
1
1
. Si definisce oscillazione il vettore
+
+ i i 1
di frequenza
( ) ( )
f
Z p Z p n
M
i i

+
t
+1
2 2
se la condizione:
( ) ( ) Z p Z p
n
M
i i

+1
soddisfatta. Dove n il numero di punti per secondo del processo X.
Come ho gi detto questa nuova definizione permette notevoli miglioramenti, nel
riconoscimento delle oscillazioni. Ma non esente da critiche. La maggiore critica
pu essere nellintroduzione di un nuovo parametro libero p, che va definito
empiricamente. Ci ha stimolato la ricerca di un ulteriore raffinamento della tecnica
di riconoscimento. Dato che opportuno utilizzare il numero di autovalori M pi
grande possibile, per evitare i problemi descritti nel paragrafo 2.3, e dato che
allaumentare di M le RCs tendono ad essere delle sinusoidi, si pensato di fare il
confronto direttamente con lo spettro di Fourier delle RCs. In questo modo si evitano
completamente i problemi dovuti agli autovettori. Diamone una definizione formale:
Definizione 2.4.2 Siano

i i
,
+1
una coppia di autovalori quasi uguali. Siano
i i N
,
+

1
le rispettive RCs. Siano

i i
,
+1
gli spettri di Fourier delle rispettive
RCs. Siano
[ ] [ ] A
i i

+
max max ; B
1
i massimi dei due spettri e
f
i i
; f
+1
le
frequenze associate ad A e B. Si definisce oscillazione il vettore
+
+ i i 1
di
frequenza f
f f n
N
i i

+
t
+1
2 2
se la condizione:
f f
n
N
i i

+1
soddisfatta. Dove n il numero di punti per secondo del processo X.
I vantaggi sono:
1) Lo spettro di Fourier si effettua su un vettore di N punti rispetto ad uno lungo M.
2) La risoluzione n/N migliore di n/M
3) La risoluzione non dipende pi dal numero di autovalori scelto.
4) indipendente dalleffetto del rumore sugli autovettori.
Gli svantaggi sono:
1) La ricostruzione delle RCs per ogni coppia di autovalori quasi uguali e la
successiva analisi di Fourier aumenta il tempo di esecuzione del programma.
Inoltre la larghezza della finestra di convoluzione rimane inalterata ed sempre
n
M
.
Non stato facile arrivare alla def.2.4.2, in quanto nellarticolo [2] dove viene
descritta la SSA e la tecnica ad hoc per il riconoscimento delle oscillazioni non era
presente la descrizione della formula 2.3.1, relativa alla convoluzione. Stranamente
non cera una delle caratteristiche fondamentali della SSA, che permettesse di capire
profondamente limportanza del valore di M, di capire la relazione intercorrente fra
spettri di Fourier delle RCs e spettro di Fourier del segnale da analizzare e capire
cosa andava modificato nella tecnica ad hoc. La formula 2.3.1 descritta in un
diverso articolo [1] sempre degli stessi autori.
Da prove effettuate la tecnica data nella def.2.4.2 permette un miglioramento nel
riconoscimento delle oscillazioni di quasi il 76% rispetto alla tecnica della def.2.4.1.
Nel seguito si consideri la def.2.4.2 come la tecnica che permette il riconoscimento
delle oscillazioni, al posto della tecnica proposta da V. e G.
Bibliografia 2
[1] R. Vautard - M. Ghil, Physica D 35 (1989) 395
[2] R. Vautard - P. Yiou - M. Ghil, Physica D 58 (1992) 95
Capitolo 3
Analisi S.S.A. di segnali neuromagnetici
3.1 Il cervello
Il cervello umano caratterizzato da due grandi emisferi quasi simmetrici, ricoperti
dalla corteccia cerebrale, spessa in media un paio di millimetri. La complessit del
cervello data dalla forte interconnetivit, dallincredibile numero di neuroni (le
cellule del cervello) che sono circa 100 miliardi, dal fatto che vi sono molti tipi
diversi di neuroni, (e dalla presenza di circa cinquanta tipi di neurotrasmettitori). I
neuroni sono cellule polarizzate che ricevono segnali su estensioni del corpo
cellulare fortemente ramificate i dendriti, e inviano informazioni lungo estensioni
non ramificate, gli assoni.
Figura 48 Due diversi tipi di neuroni
I neuroni che svolgono una funzione simile sono raggruppati in colonne, o bande,
che si estendono per tutto lo spessore della corteccia. Una semplificazione in questa
incredibile complessit, data dal fatto che i neuroni trasportano linformazione pi
o meno nello stesso modo. Linformazione si propaga lungo i neuroni sotto forma di
brevi impulsi elettrici detti potenziali dazione.
Figura 19
I potenziali dazione, di ampiezza pari a circa 10
-1
Volt e di durata pari a circa 1-2
millisecondi, sono prodotti dal movimento di ioni sodio, a carica positiva, che
passano, attraverso la membrana cellulare, dal fluido extracellulare allinterno della
cellula, nel citoplasma. La concentrazione di sodio nello spazio extracellulare circa
10 volte superiore a quella intracellulare. La membrana nello stato di riposo mantiene
una differenza di potenziale di circa -70 millivolt; il citoplasma carico
negativamente rispetto allesterno, ma il sodio non entra con rapidit perch la
membrana a riposo ostacola lingresso di questi ioni. Stimoli fisici o chimici
depolarizzano la membrana e fanno aumentare la permeabilit al sodio, dunque
lafflusso dello ione depolarizza ulteriormente la membrana, accrescendo ancor pi
la permeabilit al sodio.
A un potenziale critico detto di soglia, la retroazione positiva produce una
rigenerazione che provoca uninversione di segno nel potenziale di membrana:
linterno della cellula diventa positivo rispetto allesterno. Dopo circa un
millisecondo, la permeabilit al sodio diminuisce e il potenziale di membrana torna a
-70 millivolt. Il meccanismo di permeabilit al sodio rimane refrattario per alcuni
millisecondi dopo ciascun impulso, limitando la frequenza a cui possono essere
generati i potenziali dazione a 200, o anche meno, al secondo.
Nella maggior parte dei casi, la comunicazione tra neuroni mediata da trasmettitori
chimici emessi a livello di contatti specializzati chiamati sinapsi. Quando un
potenziale dazione arriva allestremit di un assone, i trasmettitori contenuti in
piccole vescicole sono liberati in una fessura larga 20 nanometri che separa la
membrana presinaptica da quella postsinaptica.
Fig. 20 Sinapsi
Gli ioni calcio entrano nella terminazione del neurone durante il picco del potenziale
dazione, e il loro movimento d il via allesocitosi sincronizzata, la liberazione
coordinata delle molecole di neurotrasmettitore.
Una volta liberati, i trasmettitori si legano ai recettori postsinaptici, innescando una
modificazione nella permeabilit della membrana. Ogni sinapsi produce solo un
piccolo effetto. Per regolare la frequenza dei potenziali dazione della sua uscita,
ciascun neurone deve continuamente integrare fino a 1000 ingressi sinaptici, che si
sommano in modo non lineare [1].
I neurofisiologi hanno da tempo scoperto lesistenza di ritmi cerebrali, che sono
classificati in base al range di frequenza, da una diversa distribuzione spaziale e dalle
funzioni a cui appaiono correlati. Il ritmo (8-13 Hz) si presenta nella regione
occipitale del cervello (fig.21)
Fig.21 Suddivisione in regioni del cervello (vista laterale)
una caratteristica del ritmo che la sua intensit raggiunge i valori massimi ad
occhi chiusi, mentre allaumentare dellattenzione visiva la sua intensit diminuisce.
I campi magnetici osservabili [2] sono prodotti soltanto quando un grande numero di
neuroni agiscono insieme. Per esempio nella corteccia cerebrale, si pensa che le
cellule piramidali, diano il maggiore contributo ai campi magnetici generati. Queste
cellule sono relativamente larghe, e le loro dendriti sono ortogonali alla superficie
della corteccia. Leccitazione sinaptica delle cellule piramidali fornisce una corrente
primaria che scorre perpendicolarmente alla corteccia [2]. In contrasto alle cellule
piramidali, strutture con simmetria simmetrica radiale o orientate casualmente,
generano campi magnetici estremamente deboli. Il fatto che le sorgenti ortogonali
alla superficie della testa siano magneticamente silenti per i sensori posti
ortogonalmente allo scalpo, potrebbe apparire come un limite alla possibilit di
estrarre informazioni sulle sorgenti tramite misure di campo magnetico. In realt si
osservato che nei sistemi sensoriali la maggior parte dellattivit concentrata nelle
fessure cerebrali.
Fig.21/a Orientazione delle sorgenti allinterno di una fessura corticale
Le sorgenti corticali allinterno delle fessure sono orientate lungo la direzione della
tangente allo scalpo e la loro attivit pu pertanto essere rivelata da misure
neuromagnetiche [4]. Ma in ogni caso lintensit dei campi neuromagnetici non
supera i 100 fT, ed per questo che la tecnica di acquisizione dei dati deve essere la
pi sensibile possibile.
3.2 Tecnica dellacquisizione dati
Dato che lintensit dei campi neuromagnetici cos debole, la strumentazione si
basa su sensori detti SQUID (acronimo di Superconducting Quantum Interference
Devices). Un dc-SQUID costituito da due giunzioni Josephson posizionate su un
anello superconduttore (fig.23). Per capire come funziona uno SQUID quindi
opportuno dare alcuni cenni sulla giunzione Josephson. Nel 1962 Josephson previde
per la prima volta il comportamento di una giunzione di due superconduttori separati
da uno strato sottile (3-4 ) di isolante. Sperimentalmente si ottiene, per una simile
giunzione, un comportamento debolmente superconduttivo: se si collegano ad una
batteria i capi della giunzione, questa viene percorsa da una supercorrente
fintantoch lintensit della corrente non supera un valore critico I
c
; per I>I
c
il
comportamento cambia bruscamente, smette di essere superconduttivo ed ai capi
della giunzione si presenta una differenza di potenziale; da questo punto in poi,
allaumentare della corrente fornita, il comportamento della giunzione diviene
sempre pi di tipo ohmico. Se ora si diminuisce nuovamente la corrente fornita alla
giunzione non si torna ad ottenere la supercorrente: intorno al valore critico V
g
, al
diminuire della corrente, la differenza di potenziale resta praticamente costante
finch, per ulteriori diminuzioni di I, si ha nuovamente un comportamento di tipo
ohmico ma con resistenza minore (vedi fig.22).
Fig.22 Caratteristica I-V per una giunzione Josephson a T=0.
Le due equazioni che descrivono leffetto Josephson sono
12
:
J J
t
e
V

0
2
sen

12
T. Van Duzer - C.W. Turner Principles Superconductive Devices and Circuits Elsevier North
Holland 1981
Dove J la densit di corrente, J
0
una costante, V la differenza di potenziale ai
capi della giunzione e una differenza di fasi
13
.
Consideriamo ora il caso di due giunzioni Josephson in parallelo attraversate da un
flusso magnetico (vedi fig.23), si dimostra
1
che la corrente totale che scorre nel
circuito :
J J
0 0
0
sen cos

dove
0
2

c
e
il quanto di flusso, il flusso concatenato con lanello formato
dalle due giunzioni Josephson in parallelo. In generale non sappiamo quanto vale
sen
0
si pu dire per che la corrente massima data da:
J J
max
cos
0
0

La corrente totale attraverso le due giunzioni Josephson in parallelo quindi


periodica nel campo applicato, con periodo
n
0
.
13
La superconduttivit si basa sul concetto di coppia di Cooper che un bosone. I bosoni al di sotto di
una certa temperatura cadono nello stesso stato quantico, e possono essere descritti da una stessa
funzione donda macroscopica. Dunque rappresenta la differenza delle fasi delle due funzioni
donda che descrivono i superconduttori a destra e a sinistra della giunzione.
Fig.23 SQUID
Lo SQUID viene accoppiato induttivamente con un amplificatore lock-in; un
oscillatore fornisce allo SQUID un flusso magnetico, di ampiezza

0
4
, a frequenza
nota f (maggiore di quella da misurare) e al lock-in lo stesso oscillatore fornisce la
stessa frequenza di riferimento. Se il flusso da misurare un multiplo di

0
luscita
del lock-in non contiene nessuna componente di frequenza f (vedi fig.23/a).
Fig.23/a
Se al contrario il flusso da misurare uguale a n +
|
.

`
,

1
4
0
il lock-in legge una perfetta
sinusoide di frequenza f (vedi fig. 23/b). La componente di frequenza f quindi una
misura di quanto il flusso misurato differisce da
n
0
.
Fig. 23/b
Il flusso applicato allo SQUID pu assumere qualsiasi valore, a differenza del flusso
contenuto in un anello superconduttore chiuso, che deve essere un numero intero. In
pratica, non si misura la corrente, ma la tensione ai capi dello SQUID. Lo SQUID
essenzialmente un trasduttore flusso-tensione, che converte in tensione una
minuscola variazione di campo magnetico. Con un trasformatore di flusso lo SQUID
pu raggiungere una sensibilit del femtotesla [3]. La strumentazione basata sugli
SQUID hanno solitamente bisogno di componenti ausiliari. Un magnetometro
(fig.24) include un trasformatore di flusso, che consiste di un circuito di rivelazione
connesso alla bobina di ingresso dello SQUID. Quando viene applicato un campo
magnetico, si sviluppa nellanello una corrente persistente che, scorrendo nella
bobina di ingresso, produce un flusso nello SQUID.
Fig.24
In un gradiometro (fig.25) vi sono due circuiti di rivelazione avvolti in direzioni
opposte per misurare simultaneamente il campo magnetico in luoghi diversi. Nello
SQUID si produce un flusso solo se il campo nei due punti non ha lo stesso valore.
Fig. 25 Gradiometro a prima derivata
I sensori utilizzati nella strumentazione di acquisizione sono dei gradiometri verticali
a prima derivata. I gradiometri permettono di attenuare il rumore di fondo dovute a
sorgenti lontane, dal punto di misurazione, perch in quanto lontane tendono a essere
quasi uniformi. Ma per ottenere una forte attenuazione dei rumori magnetici
ambientali necessario luso di cabine schermate. Le cabine pi comunemente in uso
sono costituite da strati alterni di materiali con buona conducibilit e di materiali
ferromagnetici con alta permeabilit relativa. I materiali conduttori schermano i
campi magnetici grazie alle correnti superficiali indotte che si oppongono ad ogni
variazione di campo; il fattore di schermaggio determinato dalla profondit di
penetrazione

0
f
dove f la frequenza del campo e r la resistivit del
materiale. Lo schermaggio causato dai materiali ferromagnetici con alta permeabilit
relativa, quali il mumetal, spiegabile per campi a bassa frequenza in termini di un
circuito magnetico: il materiale agisce come un conduttore parallelo per il flusso
magnetico, con resistenza molto minore di quella dellaria racchiusa; quindi gran
parte del flusso si concentra nelle pareti di schermaggio e solo una piccola parte
penetra nella cabina.
3.3 I segnali acquisiti
Dal punto di vista dellanalisi SSA, potevo iniziare il capitolo 3, trascurando
completamente i due paragrafi precedenti. Ponendomi in una visione olistica,
immagino il cervello come una scatola nera che ha i suoi ingressi e le sue uscite,
del quale interno non conosco nulla, ma che emette allesterno dei campi magnetici,
e che in qualche modo vengono misurati, fornendo dei files numerici, la SSA
analizzer questi numeri. Immaginiamo di avere questa scatola nera che emette i
suoi campi magnetici, la domanda allora : come variano questi campi magnetici
quando viene stimolato uningresso ? Gli stimoli potranno essere, luminosi, sonori,
elettrici... ecc. e ognuno stimoler uningresso differente. I dati che analizzer sono
misure che hanno utilizzato come stimolo dei flash luminosi a varie frequenze. Tali
segnali hanno uno spettro di Fourier del tipo che si vede in fig.26. Come si pu
notare lintensit dei 50 Hz e delle sue armoniche dispari notevole, dovute alla rete
elettrica. Ma la parte pi interessante per lanalisi SSA quella compresa fra qualche
hertz e qualche decina di hertz (fig. 27), che corrisponde alla parte del segnale a
maggiore varianza (vedi thm. 1.12.9).
Fig.26 Spettro di Fourier di un segnale neuromagnetico
Fig.27 Ingrandimento fra 0-50 Hz dello spettro di Fourier di fig.26
Gli stimoli luminosi hanno una struttura temporale , detta a treni, con 10 lampi che si
susseguivano alla frequenza scelta, seguiti da un periodo silente, in modo che lintera
epoca avesse la durata di circa 2 secondi (fig.28).
Fig. 28 Esempio di treno di impulsi
2000 ms
Pi esattamente lepoca non fissa per tutte le frequenze di stimolazioni, varia da
2793 ms (per la frequenza a 6 Hz) a 1973 ms (per la frequenza a 13.5 Hz) (il periodo
silente sempre di 1.3 secondi). I segnali neuromagnetici raccolti da 16 gradiometri
a prima derivata, disposti in posizioni spaziali diverse, generano 16 files diversi per
ogni misura. Ogni misura dura 65 secondi quindi, essendo il segnale campionato a
1000 punti al secondo, ogni file avr 65000 punti, e dato che le misure sono state 18
(17 stimolazioni in frequenza e una misura senza stimolazioni) i files totali generati
sono 288.
3.4 Analisi e risultati
Come prima analisi abbiamo scelto di prendere i 18 files provenienti da un solo
gradiometro, (il canale 1) scegliendo i seguenti parametri: M = 700 RR =10. Con
questi valori si ha una finestra di convoluzione di
n
M RR
014 . Hz (n=1000
punti/secondo). Prima di iniziare lanalisi SSA, ho filtrato i files tramite un
passabanda (App. C) utilizzando come frequenza di passa-alto 1 Hz e di passa-basso
45 Hz. Questo filtraggio essenziale, perch da come si pu vedere dalla fig.27 i
segnali hanno delle variazioni molto elevate a bassissima frequenza, e a frequenze
sopra i 45 Hz troviamo i 50 Hz e le sue armoniche. Allinizio delle analisi non si era
ben compreso, ci che ho descritto nel paragrafo 2.3, e quindi avevamo analizzato i
file senza alcun filtro, utilizzando degli M intermedi. Ora avendo ben chiaro in mente
il problema della convoluzione, ci rendiamo conto che non solo possibile filtrare un
segnale prima dellanalisi SSA bens necessario.
opportuno precisare che i risultati rappresentati dalle figure 29-73 sono stati
ottenuti utilizzando la def.2.4.1 per il riconoscimento delle oscillazioni, e soltanto
la fig.74 ottenuta utilizzando la def.2.4.2, e ci per il solo fatto di essere giunto alla
def.2.4.2 verso la conclusione della tesi. Quindi per la discussione dei risultati mi
riferir soprattutto alla fig.74 (dove sullasse x abbiamo le frequenze di stimolazioni,
sullasse y le frequenze delle RCs ed infine la dimensione dei cerchi proporzionale
allampiezza delle RCs; Inoltre vi sono tre linee: una parallela allasse x che
rappresenta la frequenza del ritmo alfa senza stimolazioni, una corrisponde a y=x e
laltra a y=2x). Le figure che vanno dal n 29 al n 60, mostrano landamento
temporale e il rispettivo spettro di Fourier dei files di tipo B**%%%%%@
(vedi App. A) che contengono la somma di tutte le RCs ricostruite dalla SSA (con la
def.2.4.1). Il valore delle frequenze riportate sugli spettri hanno una tolleranza di +/-
0.02 Hz . La tabella seguente mostra i risultati ottenuti con la def.2.4.2 e raffigurati in
fig.74.
Frequenza di
stimolazione
Frequenza
dellintera epoca
(+/- 0.02 Hz)
Frequenze trovate
dalla SSA (+/- 0.02
Hz)
Alcune differenze
in frequenza
6 0.36 a) 5.48
b) 9.79*
c) 11.82
d) 12.18
d-c=0.36
6.5 0.37 a) 6.33
b) 9.19*
c) 12.67
d) 13.03
d-c =0.36
7 0.38 a) 6.98
b) 9.52*
c) 13.95
#
7.5 0.39 a) 7.62
b) 9.57*
c) 14.41
d)14.82
e) 15.22
f) 15.62
f-e=0.40
e-d=0.40
d-c=0.39
8 0.40 a) 9.50*
b) 15.66
#
8.5 0.41 a) 8.49
b)9.78*
#
9 0.42 a) 9.42* #
9.5 0.43 a) 9.35**
b) 9.78**
b-a=0.43
10 0.44 a) 9.56**
b) 10.00**
b-a=0.44
10.5 0.45 a) 9.18*
b) 10.20
c) 10.66
d) 11.12
e) 11.58
e-d=0.46
d-c=0.46
c-b=0.46
11 0.46 a) 8.90* c-b=0.47
b) 10.38
c) 10.85
11.5 0.47 a) 9.39*
b) 11.05
c) 11.-53
c-b=0.48
12 0.48 a) 9.73*
b) 11.23
c) 11.72
d)12.21
d-c=0.49
c-b=0.49
12.5 0.49 a) 9.66*
b) 11.89
c) 12.39
c-b=0.50
13 0.50 a) 9.36*
b) 10.59
c) 12.05
d) 12.55
e) 13.05
f) 13.55
f-e=0.50
e-d=0.50
d-c=0.50
13.5 0.51 a) 9.50
b) 9.79
c) 11.70
d) 12.20
e) 12.71
f) 13.22
g) 13.73
h) 14.24
h-g=0.51
g-f=0.51
f-e=0.51
e-d=0.51
d-c=0.50
Tab. 3 Risultati dellanalisi SSA del canale 1 (* Intorno alla frequenza del ritmo
alfa la SSA ha ricostruito varie RCs con frequenze molto ravvicinate e nella
tabella per concisione stato posto il valore in frequenza associata alla RCs di
maggiore varianza). (** Nel caso della frequenza di stimolazione prossima al
ritmo alfa, esiste sempre lo stesso discorso fatto in * ma in questo caso abbiamo
preso il primo e il secondo massimo)
Confrontando la tabella 3 e la fig.74 possiamo dire le seguenti cose:
1) Che lintensit del ritmo alfa durante le stimolazioni attenuata rispetto allo
spontaneo (confronta le fig. 30-32-34-....-58 con la fig.60)
2) Sembra che la frequenza del ritmo alfa diminuisca durante le stimolazioni, ma
questa affermazione molto delicata. Prima di tutto non molto chiaro che cosa sia
il ritmo alfa. Lanalisi SSA ha trovato per lo spontaneo 4 RCs rispettivamente di
frequenze 9.54 Hz, 9.71 Hz, 9.90 Hz e 10.33 Hz. La fig.60 raffigura lo spettro di
Fourier della somma delle RCs trovate, e la fig.59 lo sviluppo temporale. Ora
abbiamo un problema di interpretazione, che si ricollega alla discussione fatta nel
2.3 ed esemplificata dalla fig.17. Non avendo ulteriori informazioni, la SSA non mi
permette di dare uninterpretazione definitiva su ci che sia il ritmo alfa. quindi
opportuno elencare le due possibilit:
Il ritmo alfa originato da un solo
sottosistema del cervello, e lo spettro del
ritmo alfa quando non presente la
stimolazione visiva raffigurato in
fig.60. In questo caso non si pu parlare
di frequenza in senso stretto. Ma
potremmo arbitrariamente prendere come
frequenza del ritmo alfa il picco di
intensit maggiore che corrisponde a 9.71
Hz. Dunque se accettiamo questa
definizione arbitraria possiamo dire che
durante la stimolazione si ha in effetti
oltre allattenuazione dellintensit anche
una diminuzione della frequenza.
Il ritmo alfa non originato da un solo
sottosistema del cervello, ma da pi
sottosistemi indipendenti o quasi
indipendenti. Diventa dunque
inopportuno continuare ad usare la
dicitura ritmo alfa. Se supponiamo che
i sottosistemi indipendenti siano 4 come
le RCs trovate dalla SSA nel caso dello
spontaneo, allora avremmo 4 ritmi alfa
che potremmo definire ritmo 1 (9.54 Hz),
ritmo 2 (9.71 Hz), ritmo 3 (9.90 Hz)e
ritmo 4 (10.33 Hz). Ed in questo caso,
guardando gli spettri di Fourier dei
risultati ottenuti dalla SSA (da fig.30 a
fig.58), linterpretazione sarebbe quella di
una maggiore o minore attenuazione dei 4
ritmi suddetti. Per esempio nel caso della
stimolazione a 8 Hz (fig. 36) si ha
unattenuazione maggiore per i ritmi 2,3
e 4 rispetto allattenuazione del ritmo 1.
Nei recenti lavori di neurofisiologia spesso per banda alfa si intende un intervallo di
frequenze pi ampio (~ 8 13 Hz). Nel seguito con ritmi alfa verranno considerati
solo quei ritmi di frequenza compresa nellintervallo 9.5 10.5 Hz.
3) Il ritmo alfa (o i ritmi alfa) non mai in correlazione con gli stimoli tranne
forse nel caso della stimolazione a 10 Hz e a 9.5 Hz. Infatti nel caso della
stimolazione a 10 Hz le intensit maggiori sono a 9.56 Hz e !0.0 Hz e la loro
differenza 0.44 Hz corrisponde alla frequenza dellepoca di stimolazione, e per la
stimolazione a 9.5 Hz le intensit maggiori sono a 9.35 Hz e 9.78 Hz e la loro
differenza 0.43 Hz.
4) Per frequenze di stimolazione comprese fra 6 Hz e 9 Hz lintensit della
fondamentale (intendo per fondamentale il valore uguale alla frequenza di
stimolazione!) trovata dalla SSA minore rispetto alle RCs di frequenza quasi
doppia (seconda armonica). Le intensit maggiori si hanno per le frequenze delle
RCs che si raggruppano lungo la retta y=x (vedi fig.74) nell intervallo di
stimolazione 9.5 Hz-13.5 Hz .
5) La differenza di frequenza delle varie RCs adiacenti che si raggruppano lungo la
retta y=x e y=2x sempre uguale alla frequenza dellepoca di stimolazione (vedi
quarta colonna della tabella 3).
Inoltre il confronto tra la fig.73 e la fig.74 mostra la differente efficienza nel
riconoscimento delle oscillazioni tra la def.2.4.1 e la 2.4.2.
Nella figura 74 sono evidenziati in neretto le oscillazioni che la def.2.4.1 non
permetteva di riconoscere.
Fino ad ora abbiamo analizzato il solo canale 1 rispetto a tutte le stimolazioni, adesso
vogliamo analizzare tutti i canali (cio prendiamo i dati ottenuti da tutti i
gradiometri) rispetto a una singola stimolazione. La frequenza di stimolazione
prescelta di 12.5 Hz. Per fare questa analisi si utilizza la PCA utilizzando il
programma PCA2 descritto in App. B. Trovate le componenti principali, ho
analizzato quelle che hanno la maggiore varianza, tramite la SSA. Le frequenze
trovate dalla SSA, indicheranno o meno se i risultati trovati sul canale 1,
relativamente al caso della stimolazione prescelta, siano da considerarsi risultati
localizzati spazialmente. Nel caso della stimolazione a 12.5 Hz avevo trovato (fig.54)
tre frequenze: 9.66 Hz - 11.89 Hz - 12.39 Hz. Ora se lanalisi SSA delle componenti
principali di maggiore varianza ritrova queste frequenze, allora significa che queste
oscillazioni non sono localizzate ma estese a gran parte della porzione di corteccia
cerebrale misurata. In fig.75 abbiamo un grafico, dove sullasse x abbiamo lindice
associato alle componenti principali, e sullasse y abbiamo la varianza relativa.
V
a
r
i
a
n
z
a
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
PCs
n1
PCS
n2
PCs
n3
PCs
n4
PCs
n5
Fig.75
La prima PCs ha una varianza percentuale del 92% quindi analizzeremo con la SSA
solo la prima componente principale. In fig.76 abbiamo lo spettro di Fourier della
prima PCs ed in fig.77 lo spettro di Fourier della somma di tutte le RCs trovate
dallanalisi SSA. Nella fig.77 troviamo le seguenti frequenze 9.67 Hz - 10.95 Hz -
11.10 Hz - 11.89 Hz e 12.38 Hz. Posso allora affermare che le oscillazioni a 9.67 Hz
- 11.89 Hz e 12.38 Hz sono estese spazialmente. Inoltre la presenza del doppio picco
ravvicinato intorno a 11 Hz ci indica che nel canale 1 questa oscillazione
praticamente assente, ed presente in quasi tutti gli altri canali.
Dunque quello che abbiamo osservato non un effetto locale ma spazialmente
significativo.
Bibliografia 3
[1] Gerald D. Fischbach Mente e cervello Le Scienze n 291, Novembre 1992,
Anno XXV, Volume XLIX
[2] R. Hari - R. J. Ilmoniemi Cerebral Magnetic Fields CRC Critical Reviews in
Biomedical Engineering, Vol. 14, Issue 2, Pag. 93-126, 1986
[3] J. Clarke Gli SQUID Le Scienze n 314, Ottobre 1994, Anno XXVII, Volume
LIII
[4] G. Iori Strumentazione e misure neuromagnetiche Tesi di Laurea in fisica.
Universit di Tor Vergata A.A. 1988-89
[5] F. Incardona Sistema di posizionamento realtivo soggetto-sensore per misure
biomagnetiche Tesi di Laurea in fisica. Universit di Tor Vergata
Capitolo 4
Conclusioni e prospettive future
4.1 Conclusioni
La tesi dimostra che la tecnica ad hoc (def.2.3.2) introdotta da Vautard e Ghil, per
il riconoscimento delle oscillazioni, deve essere modificata se si vuole applicare la
SSA allanalisi di segnali molto rumorosi. La mia proposta (def.2.4.2) permette un
notevole miglioramento nel riconoscimento delle oscillazioni (vedi tab.a
nellintroduzione).
Ritorniamo ora al discorso affrontato nel 2.3, dove affermavo tre cose
sullarbitrariet della scelta di M (il numero degli autovalori): la prima di non
utilizzare mai M intermedi; la seconda di utilizzare il pi piccolo M possibile solo
nel caso di segnali che presentano un rumore debole e la terza di utilizzare il pi
grande M possibile nel caso di segnali molto rumorosi. Ritengo in conclusione della
tesi che la seconda affermazione sia estremamente delicata, perch non solo il
segnale deve essere poco rumoroso, ma lo spettro del segnale deve per forza essere
contenuto tutto entro la finestra di convoluzione prescelta. Dunque per evitare
interpretazioni fallaci o ambigue, credo che in ogni caso la tecnica SSA vada usata
con il massimo numero di autovalori possibili
14
. Come ho gi scritto nel 2.3 non ha
14
opportuno dunque decidere quale sia il massimo numero M possibile degli autovalori da
utilizzare. La formula per le componenti ricostruite richiede che M
N
<
+1
2
dove N il numero di
senso guardare le singole componenti ricostruite o la somma di un sottoinsieme di
esse, se non si hanno ulteriori informazioni o ragionevoli ipotesi per farlo.
Per quanto riguarda i risultati della analisi SSA per i segnali neuromagnetici, la
fig.74 fornisce i dati che dovranno servire per la modellizzazione matematica, si
notano le seguenti particolarit:
1) Il ritmo alfa rappresenta una ben definita linea di separazione, le stimolazioni a
frequenze superiori del ritmo alfa inducono nel segnale neuromagnetico una
risonanza sulla fondamentale di intensit elevata, mentre le stimolazioni a
frequenze inferiori al ritmo alfa inducono una risonanza di seconda armonica e la
fondamentale ha intensit basse. Con metodi tradizionali la fondamentale non
misurabile sotto il ritmo alfa. La soppressione del ritmo alfa sembra legata a processi
attenzionali e quindi la sua misura potr permettere una comprensione maggiore di
questi processi e del loro legame con le stimolazioni.
2) Sembra che la frequenza del ritmo alfa diminuisca durante le stimolazioni (vedi
3.4). Questo effetto, gi osservato in precedenza sembra anche essere legato a
processi attenzionali.
3) Il ritmo alfa non entra mai in correlazione con gli stimoli tranne (forse) che nella
stimolazione a 9.5 Hz e 10 Hz.
punti del segnale da analizzare (in realt questa una limitazione fittizia, in quanto la def. 2.2.5 pone
un solo limite per M ed proprio N; solo che per M
N

+1
2
bisogna modificare la formula per le
componenti ricostruite), e credo che sia accettabile come massimo valore possibile per M:
M
N

'

1
2
1
se N dispari
N
2
se N pari
che ritengo un valore ottimale anche tenendo conto dei problemi che possono nascere con le stime
dellautocovarianza (vedi 1.10). Nel nostro caso si scelto un valore di M minore dellottimale per
ragioni di tempo macchina.
4) Le stimolazioni di frequenza 11.5 Hz, 12 Hz e 12.5 Hz generano le risonanze di
intensit maggiore.
5) La stimolazione di frequenza 11 Hz provoca la massima attenuazione del ritmo
alfa (vedi fig.48 oppure fig. D12 in App. D).
Lo stabilire quali delle oscillazioni (o ritmi) presenti siano correlati con gli stimoli e
quali no di estrema importanza per la comprensione dei correlati funzionali degli
stessi ritmi ed, in particolare, della loro relazione coi sistemi sensoriali. La tecnica
SSA che permette il riconoscimento delle oscillazioni e lo studio dellandamento
temporale delle stesse quindi anche particolarmente adatta a questo scopo.
Recenti lavori hanno utilizzato altre tecniche non lineari nellanalisi dei segnali
cerebrali (esponenti di Lyapunov- dimensione di correlazione- ecc.), la tecnica SSA
pu essere vista come un approccio non lineare alternativo nello studio di tali
processi.
4.2 Prospettive future
Il prossimo passo consiste nel cercare un modello matematico (oscillatore
anarmonico o altro) che possa descrivere il comportamento ottenuto in fig.74, e che
possa prevedere i risultati di eventuali segnali neuromagnetici ottenuti con stimoli
diversi e frequenze diverse. Infatti la fig.74, pu forse essere interpretata come la
somma di due oscillatori non lineari, del quale uno quasi indipendente dalle
stimolazioni e laltro dipendente. Successivamente si pu supporre che ulteriori
informazioni neurofisiologiche permettano un raggruppamento corretto delle RCs.
Inoltre si dovr estendere lanalisi a tutti i canali ed a tutte le frequenze. Per questo
scopo si utilizzer la MSSA una nuova tecnica che si basa sulla SSA, ma che
permetter di analizzare pi canali contemporaneamente come la PCA. La MSSA
permetter di osservare come le oscillazioni trovate variano nel tempo e nello spazio;
maggiori saranno i canali, maggiore sar la risoluzione spaziale.
Una delle limitazioni della SSA quella di non riconoscere un segnale che varia in
frequenza. Da prove effettuate, la SSA fallisce nel riconoscimento di unoscillazione
gi per una variazione in frequenza di circa 0.3-0.4 Hz. Una possibile soluzione
quella di utilizzare la seguente tecnica cos definita:
Def.4.2.1 Sia X
N
. Sia r
+
la risoluzione in frequenza desiderata. Sia n N
il numero di punti per secondo del segnale X. Sia M INT
n
r

|
.

`
,
. Sia N M 2 . Sia

|
.

`
,
INT
N
N
. Si applichi la SSA ai vettori cos definiti:
( )

,
X X
i i N

+ 1
1 1 i N
. Allora diremo che loscillazione di
frequenza f trovata dallanalisi SSA del vettore

X
s
N


la prosecuzione
delloscillazione di frequenza g trovata dallanalisi SSA del vettore

X
s
N

1

se: f g 0 0.5 e se:

{ 095 115
1
. . ,


N
= min
N N-1 2 1
Questa tecnica stata applicata con successo ad un segnale di prova costituito da un
segnale sinusoidale modulato in frequenza sommato a del rumore. Ma ancora da
verificare la validit generale della tecnica. Sicuramente da definire meglio il
valore di , e ci si pu fare soltanto approfondendo lanalisi dei fallimenti della
SSA per un segnale variabile in frequenza, inoltre un raffinamento possibile di
spezzare il segnale X in modo che i nuovi vettori siano parzialmente sovrapposti, e in
questo modo si potranno confrontare pi punti rispetto alla definizione precedente.
C*******************************************************************
************
C PRINCIPAL COMPONENT ANALYSIS
C
C SCOPO - CALCOLO DELLE COMPONENTI PRINCIPALI
C NOME - PCA2.F
C VERSIONE - 2.0
C AUTORE - ROBERTO GAETA
C MAIL - GAETA@VAXTOV.ROMA2.INFN.IT
C - GAETO@MEGTOV.ROMA2.INFN.IT
C PRECISIONE - DOPPIA
C SUBROUTINES - EHOUSSRG; EQRT2SRG; EHOBKSRG
C ARGOMENTI - N1 (INTERO) = NUMERO DI CANALI DA ANALIZZARE
DEVE ESSERE
C MINORE DI 700
C - FILE (CARATTERI) = I PRIMI 8 CARATTERI DEI
NOMI DEI FILE
C CHE DEVONO AVERE TASSATIVAMENTE LA
LUNGHEZZA DI 15
C CARATTERI
C - N2 (INTERO) = E IN PUNTI LA LUNGHEZZA
MINIMA COMUNE DEI
C FILE DA ANALIZZARE
C
C NOTA - IL NOME DEI FILE DA ANALIZZARE DEVE ESSERE
COSI COMPOSTO
C I CARATTERI DA 1 A 8 DEVONO ESSERE UGUALI PER
TUTTI I FILE
C IL CARATTERE 9 E UN UNDERSCORE _ , I
CARATTERI 10 E 11
C RAPPRESENTA IL NUMERO DEL FILE , QUINDI PER
IL FILE 1 SI AVRA
C 01, PER IL FILE 2 SI AVRA 02 E COSI VIA FINO
AL FILE N1, INFINE
C I CARATTERI DAL 12 AL 15 DOVRANNO ESSERE
SEMPRE .txt
C*******************************************************************
************
PROGRAM PCA2
IMPLICIT DOUBLE PRECISION (A-H,O-Z)
CHARACTER*20 FILE
DOUBLE PRECISION S(245350),EVAL(700),EVEC(700,700)
DOUBLE PRECISION VAR(700)
INTEGER N1,N2
PRINT *,' PCA VERSIONE 2'
PRINT *
PRINT *,'DIMMI IL NUMERO DI CANALI'
READ(*,*) N1
IF (N1 .EQ. 1) GOTO 10
PRINT *,'DIMMI IL NOME DEL FILE SENZA CANALE'
PRINT *,'ESEMPIO mape7113_01.txt --> mape7113'
READ(*,*) FILE
PRINT *,'DIMMI IL NUMERO DI PUNTI PER CANALE'
READ(*,*) N2
CALL COMP(FILE,N1,S,EVAL,EVEC,VAR,N2)
10 PRINT *,'PROGRAMMA TERMINATO'
END

SUBROUTINE COMP(FILE,N1,S,EVAL,EVEC,VAR,N2)
IMPLICIT DOUBLE PRECISION (A-H,O-Z)
CHARACTER*20 FILE
INTEGER IDAT,NA,NB,N1,N2,K,I,J,NBOH
DOUBLE PRECISION S(N1*(N1+1)/2),EVAL(N1),EVEC(N1,N1),VAR(N1)
DOUBLE PRECISION D1,D2,DW,MEDIA,DIDAT,MAXIM,DIVISOR,FLAG
REAL SIDAT

PRINT *,'I DATI SONO INTERI(1,REALI(2 O IN DOPPIA PRECISIONE(3?'
READ(*,*) NBOH

DO MLOOP=1,N1

IF (MLOOP .LT. 10) THEN
NA=0
NB=MLOOP
ENDIF
IF (MLOOP .GE. 10) THEN
NB=MOD(MLOOP,10)
NA=(MLOOP-NB)/10
ENDIF

OPEN(26,FILE=FILE(1:8)//'_'//CHAR(48+NA)//CHAR(48+NB)//'.txt'
+ ,ACCESS='SEQUENTIAL')

MEDIA=0D0
MAXIM=0D0
FLAG=0D0
DO I=1,N2
IF (NBOH .EQ. 1) THEN
READ(26,*,END=10) IDAT
MAXIM=DMAX1(MAXIM,DABS(DFLOAT(IDAT)))
FLAG=DMAX1(FLAG,DFLOAT(IDAT))
MEDIA=MEDIA+DFLOAT(IDAT)
ELSEIF (NBOH .EQ. 2) THEN
READ(26,*,END=10) SIDAT
MAXIM=DMAX1(MAXIM,DABS(DBLE(SIDAT)))
FLAG=DMAX1(FLAG,DBLE(SIDAT))
MEDIA=MEDIA+DBLE(SIDAT)
ELSE
READ(26,*,END=10) DIDAT
MAXIM=DMAX1(MAXIM,DABS(DIDAT))
FLAG=DMAX1(FLAG,DIDAT)
MEDIA=MEDIA+DIDAT
ENDIF
ENDDO

10 CLOSE(26)
IF(FLAG .EQ. 0D0) THEN
FLAG=-1D0
ENDIF
IF(FLAG .GT. 0D0) THEN
FLAG=1D0
ENDIF
PRINT *,'FLAG = ',FLAG
MEDIA=MEDIA/N2
DIVISOR=(DABS(FLAG*MAXIM-MEDIA)/10)

OPEN(40+MLOOP,ACCESS='DIRECT',RECL=8,STATUS='SCRATCH')

OPEN(26,FILE=FILE(1:8)//'_'//CHAR(48+NA)//CHAR(48+NB)//'.txt'
+ ,ACCESS='SEQUENTIAL')
DO I=1,N2
IF (NBOH .EQ. 1) THEN
READ(26,*,END=20) IDAT
WRITE(40+MLOOP,REC=I) (DFLOAT(IDAT)-MEDIA)/DIVISOR
ELSEIF (NBOH .EQ. 2) THEN
READ(26,*,END=20) SIDAT
WRITE(40+MLOOP,REC=I) (DBLE(SIDAT)-MEDIA)/DIVISOR
ELSE
READ(26,*,END=20) DIDAT
WRITE(40+MLOOP,REC=I) (DIDAT-MEDIA)/DIVISOR
ENDIF
ENDDO

20 CLOSE(26)

ENDDO

DO K=1,N1
KOUNT=0
DO KI=1,K
KOUNT=KOUNT+KI
ENDDO
DW=0D0
DO J=0,(K-1)
DO JH=1,N2
READ(40+K,REC=JH) D1
READ(40+K-J,REC=JH) D2
DW=D1*D2+DW
ENDDO
S(KOUNT-J)=DW/N2
ENDDO
ENDDO

DO I=1,N1
DO J=1,N1
EVEC(I,J)=0D0
ENDDO
EVEC(I,I)=1D0
ENDDO

CALL EHOUSSRG (S,N1,EVAL,VAR)
CALL EQRT2SRG (EVAL,VAR,N1,EVEC)
DW=0D0
DO II=1,N1
IF (EVAL(II) .LT. 0D0) THEN
EVAL(II)=0D0
ENDIF
DW=DW+EVAL(II)
ENDDO
OPEN(26,FILE='EVAL_PCA.TXT',ACCESS='SEQUENTIAL')
DO II=1,N1
WRITE(26,*) EVAL(N1-II+1)/DW
ENDDO
CLOSE(26)
CALL EHOBKSRG (S,N1,1,N1,EVEC)

DO J=1,N1

IF (J .LT. 10) THEN
NA=0
NB=J
ENDIF
IF (J .GE. 10) THEN
NB=MOD(J,10)
NA=(J-NB)/10
ENDIF
OPEN(26,FILE='EVEC'//'_'//CHAR(48+NA)//CHAR(48+NB)
+ //'.TXT',ACCESS='SEQUENTIAL')
DO II=1,N1
WRITE(26,*) EVEC(II,N1-J+1)
ENDDO
CLOSE(26)
OPEN(27,FILE='pca_'//FILE(5:8)//'_'//CHAR(48+NA)
+ //CHAR(48+NB)//'.txt',ACCESS='SEQUENTIAL')

DO K=1,N2

DW=0D0

DO I=1,N1

READ(40+I,REC=K) D1
DW=DW+D1*EVEC(I,N1-J+1)

ENDDO

WRITE(27,*) DW*DIVISOR

ENDDO

CLOSE(27)

ENDDO

DO JKK=1,N1
CLOSE(40+JKK)
ENDDO


RETURN
END
Appendice B
Il programma PCA2
Questo programma consente di trovare le componenti principali come descritto nel
paragrafo 2.1. I nomi dei files da analizzare devono seguire la codificazione descritta
nellappendice A. Il massimo numero di files analizzabili 700. Le subroutine
richiamate dal programma e cio EHOUSSRG ; EQRT2SRG ; EHOBKSRG ; sono
descritte in appendice A.
PROGRAM PCA2
IMPLICIT DOUBLE PRECISION (A-H,O-Z)
CHARACTER*20 FILE
DOUBLE PRECISION S(245350),EVAL(700),EVEC(700,700)
DOUBLE PRECISION VAR(700)
INTEGER N1,N2
PRINT *,' PCA VERSIONE 2'
PRINT *, by Roberto Gaeta
PRINT *,'DIMMI IL NUMERO DI CANALI'
READ(*,*) N1
IF (N1 .EQ. 1) GOTO 10
PRINT *,'DIMMI IL NOME DEL FILE SENZA CANALE'
PRINT *,'ESEMPIO MAPE7113_01.TXT --> MAPE7113'
READ(*,*) FILE
PRINT *,'DIMMI IL NUMERO DI PUNTI PER CANALE'
READ(*,*) N2
CALL COMP(FILE,N1,S,EVAL,EVEC,VAR,N2)
10 PRINT *,'PROGRAMMA TERMINATO'
END

SUBROUTINE COMP(FILE,N1,S,EVAL,EVEC,VAR,N2)
IMPLICIT DOUBLE PRECISION (A-H,O-Z)
CHARACTER*20 FILE
INTEGER IDAT,NA,NB,N1,N2,K,I,J,NBOH
DOUBLE PRECISION S(N1*(N1+1)/2),EVAL(N1),EVEC(N1,N1),VAR(N1)
DOUBLE PRECISION D1,D2,DW,MEDIA,DIDAT,MAXIM,DIVISOR,FLAG
REAL SIDAT

PRINT *,'I DATI SONO INTERI(1,REALI(2 O IN DOPPIA PRECISIONE(3?'
READ(*,*) NBOH

DO MLOOP=1,N1

IF (MLOOP .LT. 10) THEN
NA=0
NB=MLOOP
ENDIF
IF (MLOOP .GE. 10) THEN
NB=MOD(MLOOP,10)
NA=(MLOOP-NB)/10
ENDIF

OPEN(26,FILE=FILE(1:8)//'_'//CHAR(48+NA)//CHAR(48+NB)//'.txt'
+ ,ACCESS='SEQUENTIAL')

MEDIA=0D0
MAXIM=0D0
FLAG=0D0
DO I=1,N2
IF (NBOH .EQ. 1) THEN
READ(26,*,END=10) IDAT
MAXIM=DMAX1(MAXIM,DABS(DFLOAT(IDAT)))
FLAG=DMAX1(FLAG,DFLOAT(IDAT))
MEDIA=MEDIA+DFLOAT(IDAT)
ELSEIF (NBOH .EQ. 2) THEN
READ(26,*,END=10) SIDAT
MAXIM=DMAX1(MAXIM,DABS(DBLE(SIDAT)))
FLAG=DMAX1(FLAG,DBLE(SIDAT))
MEDIA=MEDIA+DBLE(SIDAT)
ELSE
READ(26,*,END=10) DIDAT
MAXIM=DMAX1(MAXIM,DABS(DIDAT))
FLAG=DMAX1(FLAG,DIDAT)
MEDIA=MEDIA+DIDAT
ENDIF
ENDDO

10 CLOSE(26)
IF(FLAG .EQ. 0D0) THEN
FLAG=-1D0
ENDIF
IF(FLAG .GT. 0D0) THEN
FLAG=1D0
ENDIF
PRINT *,'FLAG = ',FLAG
MEDIA=MEDIA/N2
DIVISOR=(DABS(FLAG*MAXIM-MEDIA)/10)

OPEN(40+MLOOP,ACCESS='DIRECT',RECL=8,STATUS='SCRATCH')

OPEN(26,FILE=FILE(1:8)//'_'//CHAR(48+NA)//CHAR(48+NB)//'.txt'
+ ,ACCESS='SEQUENTIAL')
DO I=1,N2
IF (NBOH .EQ. 1) THEN
READ(26,*,END=20) IDAT
WRITE(40+MLOOP,REC=I) (DFLOAT(IDAT)-MEDIA)/DIVISOR
ELSEIF (NBOH .EQ. 2) THEN
READ(26,*,END=20) SIDAT
WRITE(40+MLOOP,REC=I) (DBLE(SIDAT)-MEDIA)/DIVISOR
ELSE
READ(26,*,END=20) DIDAT
WRITE(40+MLOOP,REC=I) (DIDAT-MEDIA)/DIVISOR
ENDIF
ENDDO

20 CLOSE(26)

ENDDO

DO K=1,N1
KOUNT=0
DO KI=1,K
KOUNT=KOUNT+KI
ENDDO
DW=0D0
DO J=0,(K-1)
DO JH=1,N2
READ(40+K,REC=JH) D1
READ(40+K-J,REC=JH) D2
DW=D1*D2+DW
ENDDO
S(KOUNT-J)=DW/N2
ENDDO
ENDDO

DO I=1,N1
DO J=1,N1
EVEC(I,J)=0D0
ENDDO
EVEC(I,I)=1D0
ENDDO

CALL EHOUSSRG (S,N1,EVAL,VAR)
CALL EQRT2SRG (EVAL,VAR,N1,EVEC)
DW=0D0
DO II=1,N1
IF (EVAL(II) .LT. 0D0) THEN
EVAL(II)=0D0
ENDIF
DW=DW+EVAL(II)
ENDDO
OPEN(26,FILE='EVAL_PCA.TXT',ACCESS='SEQUENTIAL')
DO II=1,N1
WRITE(26,*) EVAL(N1-II+1)/DW
ENDDO
CLOSE(26)
CALL EHOBKSRG (S,N1,1,N1,EVEC)

DO J=1,N1

IF (J .LT. 10) THEN
NA=0
NB=J
ENDIF
IF (J .GE. 10) THEN
NB=MOD(J,10)
NA=(J-NB)/10
ENDIF
OPEN(26,FILE='EVEC'//'_'//CHAR(48+NA)//CHAR(48+NB)
+ //'.TXT',ACCESS='SEQUENTIAL')
DO II=1,N1
WRITE(26,*) EVEC(II,N1-J+1)
ENDDO
CLOSE(26)
OPEN(27,FILE='pca_'//FILE(5:8)//'_'//CHAR(48+NA)
+ //CHAR(48+NB)//'.txt',ACCESS='SEQUENTIAL')

DO K=1,N2

DW=0D0

DO I=1,N1

READ(40+I,REC=K) D1
DW=DW+D1*EVEC(I,N1-J+1)
ENDDO
WRITE(27,*) DW*DIVISOR
ENDDO
CLOSE(27)
ENDDO
DO JKK=1,N1
CLOSE(40+JKK)
ENDDO
RETURN
END
Appendice C
Il programma passabanda
Questo programma una versione da me modificata di un programma gi esistente il
lopass.f. La modifica consiste nel trasformarlo in un passabanda e di renderlo pi
interattivo con lutente.
program passabanda
c Calcolo lo smooth dei dati in un file
c mediante una operazione di filtraggio digitale passa-basso
c Va linkato con fourt.o.
implicit none
real*4 pippo
real*8 f,ff,jk,jjk,lowpass,hipass,fre,point,gg,g
integer i,k,ndati(1),nmez,ncol
character*50 nome1,nome2
real*4 a,b,c,d,e
real*8 data(2,100000)
real*8 x(100000),aaa(100000),work(100000)
write(*,*)'nome del file dati (1 colonne)'
read(*,'(a)')nome1
c write(*,*)'quale vuoi filtrare (1,2 o 3):'
c read(*,*)ncol
write(*,*)'nome del file con lo smooth'
read(*,'(a)')nome2
write(*,*)'numero di dati'
read(*,*)ndati(1)

write(*,*)'frequenza di passa-alto in hz'
read(*,*) hipass

777 write(*,*)'frequenza di passa-basso in hz'
read(*,*)lowpass

if(lowpass .LE. hipass) then
write(*,*)'la frequenza del passa-basso deve essere
+ maggiore della frequenza del passa-alto!!!'
goto 777
endif

write(*,*)'dimmi la frequenza di acquisizione'
read(*,*) fre

f=lowpass*ndati(1)/fre
g=hipass*ndati(1)/fre

jk=f+975
jjk=jk**2
ff = f**2
gg = g**2
open(11,file=nome1,status='old',err=999)
do i = 1,ndati(1)
read(11,*)x(i)
end do
goto 111
close(11)
111 write(*,*)'ho finito di leggere ',ndati,' dati'
do i = 1,ndati(1)
data(1,i) = x(i)
data(2,i) = 0.
end do
c calcolo dello spettro
call fourt(data,ndati,1,-1,0,work)
write(*,*)'ho trasformato'
nmez = ndati(1)/2
do k=1,nmez
if (k**2 .GE. ff) then
data(1,k) = 0D0
data(2,k) = 0D0
elseif (k**2 .LE. gg) then
data(1,k) = data(1,k)*exp((k-g)/25)
data(2,k) = data(2,k)*exp((k-g)/25)
else
data(1,k) = data(1,k)*exp(-k**2/jjk)
data(2,k) = data(2,k)*exp(-k**2/jjk)
end if
end do
do k= nmez+1,ndati(1)
if (k .LE. (ndati(1)-f+1)) then
data(1,k) = 0D0
data(2,k) = 0D0
elseif (k .GE. (ndati(1)-g+1)) then
data(1,k) = data(1,k)*exp((ndati(1)-g+1-k)/25)
data(2,k) = data(2,k)*exp((ndati(1)-g+1-k)/25)
else
data(1,k) = data(1,k)*exp(-(ndati(1)-k+1)**2/jjk)
data(2,k) = data(2,k)*exp(-(ndati(1)-k+1)**2/jjk)
endif
end do
call fourt(data,ndati,1,1,1,work)
write(*,*)'stampo su file'
open(22,file=nome2,status='unknown')
do i=1,ndati(1)
write(22,*)data(1,i)/ndati(1)
end do
close(22)
stop
999 write(*,*) 'errore in apertura del file'
end

C.1 Subroutine FOURT

SUBROUTINE FOURT(DATA,NN,NDIM,JSIGN,IFORM,WORK)
DIMENSION NN(*),IFACT(32),WORK(1)
real*8 data(*)
DATA WSTPR,WSTPI,W2R,W2I,W3R,WR/-2.,0.,-1.,0.,0.,0./
TWOPI=6.283185307
IF(NDIM-1)920,1,1
1 NTOT=2
DO 2 IDIM=1,NDIM
IF(NN(IDIM))920,920,2
2 NTOT=NTOT*NN(IDIM)
C
C MAIN LOOP FOR EACH DIMENSION
C
NP1=2
DO 910 IDIM=1,NDIM
N=NN(IDIM)
NP2=NP1*N
IF(N-1)920,900,5
C
C FACTOR N
C
5 M=N
NTWO=NP1
IF=1
IDIV=2
10 IQUOT=M/IDIV
IREM=M-IDIV*IQUOT
IF(IQUOT-IDIV)50,11,11
11 IF(IREM)20,12,20
12 NTWO=NTWO+NTWO
M=IQUOT
GOTO 10
20 IDIV=3
30 IQUOT=M/IDIV
IREM=M-IDIV*IQUOT
IF(IQUOT-IDIV)60,31,31
31 IF(IREM)40,32,40
32 IFACT(IF)=IDIV
IF=IF+1
M=IQUOT
GOTO 30
40 IDIV=IDIV+2
GOTO 30
50 IF(IREM)60,51,60
51 NTWO=NTWO+NTWO
GOTO 70
60 IFACT(IF)=M
C
C SEPARATE FOUR CASES:
C 1. COMPLEX TRANSFORM OR REAL TRANSFORM FOR THE 4TH,5TH,ETC
C DIMENSIONS.
C 2. REAL TRANSFORM FOR THE 2ND OR 3RD DIMENSION. METHOD:
C TRANSFORM HALF DATA, SUPPLYING THE OTHER HALF BY
C CONJUGATE SYMMETRY.
C 3. REAL TRANSFORM FOR THE 1ST DIMENSION, N ODD. METHOD:
C TRANSFORM HALF THE DATA AT EACH STAGE, SUPPLYING THE OTHER
C HALF BY CONJUGATE SYMMETRY.
C 4. REAL TRANSFORM FOR THE 1ST DIMENSION, N EVEN. METHOD:
C TRANSFORM A COMPLEX ARRAY OF LENGHT N/2 WHOSE REAL PARTS
C ARE THE EVEN NUMBERED REAL VALUES AND WHOSE IMAGINARY PARTS
C ARE THE ODD NUMBERED REAL VALUES. SEPARATE AND SUPPLY THE
C SECOND HALF BY CONJUGATE SYMMETRY.
C
70 NON2=NP1*(NP2/NTWO)
ICASE=1
IF(IDIM-4)71,90,90
71 IF(IFORM)72,72,90
72 ICASE=2
IF(IDIM-1)73,73,90
73 ICASE=3
IF(NTWO-NP1)90,90,74
74 ICASE=4
NTWO=NTWO/2
N=N/2
NP2=NP2/2
NTOT=NTOT/2
I=3
DO 80 J=2,NTOT
DATA(J)=DATA(I)
80 I=I+2
90 I1RNG=NP1
IF(IDIM-1)91,91,92
91 NP0=NP1
NPREV=N
92 IF(ICASE-2)100,95,100
95 I1RNG=NP0*(1+NPREV/2)
C
C SHUFFLE ON THE FACTORS OF TWO IN N. AS THE SHUFFLING
C CAN BE DONE BY SIMPLE INTERCHANGE, NO WORKING ARRAY IS NEEDED
C
100 IF(NTWO-NP1)600,600,110
110 NP2HF=NP2/2
J=1
DO 150 I2=1,NP2,NON2
IF(J-I2)120,130,130
120 I1MAX=I2+NON2-2
DO 125 I1=I2,I1MAX,2
DO 125 I3=I1,NTOT,NP2
J3=J+I3-I2
TEMPR=DATA(I3)
TEMPI=DATA(I3+1)
DATA(I3)=DATA(J3)
DATA(I3+1)=DATA(J3+1)
DATA(J3)=TEMPR
125 DATA(J3+1)=TEMPI
130 M=NP2HF
140 IF(J-M)150,150,145
145 J=J-M
M=M/2
IF(M-NON2)150,140,140
150 J=J+M
C
C MAIN LOOP FOR FACTORS OF TWO. PERFORM FOURIER TRASFORM OF
C LENGHT FOUR, WITH ONE OF LENGHT TWO IF NEEDED. THE TWIDDLE FACTOR
C W=EXP(JSIGN*2*PI*SQRT(-1)*M/(4*MMAX)). CHECK FOR W=JSIGN*SQRT(-1)
C AND REPEAT FOR W=JSIGN*SQRT(-1)*CONJUGATE(W).
C
NON2T=NON2+NON2
IPAR=NTWO/NP1
310 IF(IPAR-2)350,330,320
320 IPAR=IPAR/4
GOTO 310
330 DO 340 I1=1,I1RNG,2
DO 340 J3=I1,NON2,NP1
DO 340 K1=J3,NTOT,NON2T
K2=K1+NON2
TEMPR=DATA(K2)
TEMPI=DATA(K2+1)
DATA(K2+1)=DATA(K1+1)-TEMPI
DATA(K2)=DATA(K1)-TEMPR
DATA(K1)=DATA(K1)+TEMPR
340 DATA(K1+1)=DATA(K1+1)+TEMPI
350 MMAX=NON2
WI=SIGN(1.,FLOAT(JSIGN)+.1)
W3I=-WI
360 IF(MMAX-NP2HF)370,600,600
370 LMAX=MAX0(NON2T,MMAX/2)
IF(MMAX-NON2)405,405,380
380 THETA=-TWOPI*FLOAT(NON2)/FLOAT(4*MMAX)
IF(JSIGN)400,390,390
390 THETA=-THETA
400 WR=COS(THETA)
WI=SIN(THETA)
WSTPR=-2.*WI*WI
WSTPI=2.*WR*WI
405 DO 570 L=NON2,LMAX,NON2T
M=L
IF(MMAX-NON2)420,420,410
410 W2R=WR*WR-WI*WI
W2I=2.*WR*WI
W3R=W2R*WR-W2I*WI
W3I=W2R*WI+W2I*WR
420 DO 530 I1=1,I1RNG,2
DO 530 J3=I1,NON2,NP1
KMIN=J3+IPAR*M
IF(MMAX-NON2)430,430,440
430 KMIN=J3
440 KDIF=IPAR*MMAX
450 KSTEP=4*KDIF
DO 520 K1=KMIN,NTOT,KSTEP
K2=K1+KDIF
K3=K2+KDIF
K4=K3+KDIF
IF(MMAX-NON2)460,460,480
460 U1R=DATA(K1)+DATA(K2)
U1I=DATA(K1+1)+DATA(K2+1)
U2R=DATA(K3)+DATA(K4)
U2I=DATA(K3+1)+DATA(K4+1)
U3R=DATA(K1)-DATA(K2)
U3I=DATA(K1+1)-DATA(K2+1)
IF(JSIGN)470,475,475
470 U4R=DATA(K3+1)-DATA(K4+1)
U4I=DATA(K4)-DATA(K3)
GOTO 510
475 U4R=DATA(K4+1)-DATA(K3+1)
U4I=DATA(K3)-DATA(K4)
GOTO 510
480 T2R=W2R*DATA(K2)-W2I*DATA(K2+1)
T2I=W2R*DATA(K2+1)+W2I*DATA(K2)
T3R=WR*DATA(K3)-WI*DATA(K3+1)
T3I=WR*DATA(K3+1)+WI*DATA(K3)
T4R=W3R*DATA(K4)-W3I*DATA(K4+1)
T4I=W3R*DATA(K4+1)+W3I*DATA(K4)
U1R=DATA(K1)+T2R
U1I=DATA(K1+1)+T2I
U2R=T3R+T4R
U2I=T3I+T4I
U3R=DATA(K1)-T2R
U3I=DATA(K1+1)-T2I
IF(JSIGN)490,500,500
490 U4R=T3I-T4I
U4I=T4R-T3R
GOTO 510
500 U4R=T4I-T3I
U4I=T3R-T4R
510 DATA(K1)=U1R+U2R
DATA(K1+1)=U1I+U2I
DATA(K2)=U3R+U4R
DATA(K2+1)=U3I+U4I
DATA(K3)=U1R-U2R
DATA(K3+1)=U1I-U2I
DATA(K4)=U3R-U4R
520 DATA(K4+1)=U3I-U4I
KMIN=4*(KMIN-J3)+J3
KDIF=KSTEP
IF(KDIF-NP2)450,530,530
530 CONTINUE
M=MMAX-M
IF(JSIGN)540,550,550
540 TEMPR=WR
WR=-WI
WI=-TEMPR
GOTO 560
550 TEMPR=WR
WR=WI
WI=TEMPR
560 IF(M-LMAX)565,565,410
565 TEMPR=WR
WR=WR*WSTPR-WI*WSTPI+WR
570 WI=WI*WSTPR+TEMPR*WSTPI+WI
IPAR=3-IPAR
MMAX=MMAX+MMAX
GOTO 360
C
C MAIN LOOP FOR FACTORS NOT EQUAL TO TWO. APPLY THE TWIDDLE FACTOR
C W=EXP(JSIGN*2*PI*SQRT(-1)*(J2-J1)/(NP2*IFP1)), THEN
C PERFORM A FOURIER TRANSFORM OF LENGHT IFACT(IF), MAKING USE OF
C CONJUGATE SIMMETRIES.
C
600 IF(NTWO-NP2)605,700,700
605 IFP1=NON2
IF=1
NP1HF=NP1/2
610 IFP2=IFP1/IFACT(IF)
J1RNG=NP2
IF(ICASE-3)612,611,612
611 J1RNG=(NP2+IFP1)/2
J2STP=NP2/IFACT(IF)
J1RG2=(J2STP+IFP2)/2
612 J2MIN=1+IFP2
IF(IFP1-NP2)615,640,640
615 DO 635 J2=J2MIN,IFP1,IFP2
THETA=-TWOPI*FLOAT(J2-1)/FLOAT(NP2)
IF(JSIGN)625,620,620
620 THETA=-THETA
625 SINTH=SIN(THETA/2.)
WSTPI=SIN(THETA)
WSTPR=-2.*SINTH*SINTH
WR=WSTPR+1.
WI=WSTPI
J1MIN=J2+IFP1
DO 635 J1=J1MIN,J1RNG,IFP1
I1MAX=J1+I1RNG-2
DO 630 I1=J1,I1MAX,2
DO 630 I3=I1,NTOT,NP2
J3MAX=I3+IFP2-NP1
DO 630 J3=I3,J3MAX,NP1
TEMPR=DATA(J3)
DATA(J3)=DATA(J3)*WR-DATA(J3+1)*WI
630 DATA(J3+1)=TEMPR*WI+DATA(J3+1)*WR
TEMPR=WR
WR=WR*WSTPR-WI*WSTPI+WR
635 WI=TEMPR*WSTPI+WI*WSTPR+WI
640 THETA=-TWOPI/FLOAT(IFACT(IF))
IF(JSIGN)650,645,645
645 THETA=-THETA
650 SINTH=SIN(THETA/2.)
WSTPR=-2.*SINTH*SINTH
WSTPI=SIN(THETA)
KSTEP=2*N/IFACT(IF)
KRANG=KSTEP*(IFACT(IF)/2)+1
DO 698 I1=1,I1RNG,2
DO 698 I3=I1,NTOT,NP2
DO 690 KMIN=1,KRANG,KSTEP
J1MAX=I3+J1RNG-IFP1
DO 680 J1=I3,J1MAX,IFP1
J3MAX=J1+IFP2-NP1
DO 680 J3=J1,J3MAX,NP1
J2MAX=J3+IFP1-IFP2
K=KMIN+(J3-J1+(J1-I3)/IFACT(IF))/NP1HF
IF(KMIN-1)655,655,665
655 SUMR=0.
SUMI=0.
DO 660 J2=J3,J2MAX,IFP2
SUMR=SUMR+DATA(J2)
660 SUMI=SUMI+DATA(J2+1)
WORK(K)=SUMR
WORK(K+1)=SUMI
GOTO 680
665 KCONJ=K+2*(N-KMIN+1)
J2=J2MAX
SUMR=DATA(J2)
SUMI=DATA(J2+1)
OLDSR=0.
OLDSI=0.
J2=J2-IFP2
670 TEMPR=SUMR
TEMPI=SUMI
SUMR=TWOWR*SUMR-OLDSR+DATA(J2)
SUMI=TWOWR*SUMI-OLDSI+DATA(J2+1)
OLDSR=TEMPR
OLDSI=TEMPI
J2=J2-IFP2
IF(J2-J3)675,675,670
675 TEMPR=WR*SUMR-OLDSR+DATA(J2)
TEMPI=WI*SUMI
WORK(K)=TEMPR-TEMPI
WORK(KCONJ)=TEMPR+TEMPI
TEMPR=WR*SUMI-OLDSI+DATA(J2+1)
TEMPI=WI*SUMR
WORK(K+1)=TEMPR+TEMPI
WORK(KCONJ+1)=TEMPR-TEMPI
680 CONTINUE
IF(KMIN-1)685,685,686
685 WR=WSTPR+1.
WI=WSTPI
GOTO 690
686 TEMPR=WR
WR=WR*WSTPR-WI*WSTPI+WR
WI=TEMPR*WSTPI+WI*WSTPR+WI
690 TWOWR=WR+WR
IF(ICASE-3)692,691,692
691 IF(IFP1-NP2)695,692,692
692 K=1
I2MAX=I3+NP2-NP1
DO 693 I2=I3,I2MAX,NP1
DATA(I2)=WORK(K)
DATA(I2+1)=WORK(K+1)
693 K=K+2
GOTO 698
C
C COMPLETE A REAL TRANSFORM IN THE 1ST DIMENSION, N ODD, BY CONJUGATE
C SIMMETRIES AT EACH STAGE.
C
695 J3MAX=I3+IFP2-NP1
DO 697 J3=I3,J3MAX,NP1
J2MAX=J3+NP2-J2STP
DO 697 J2=J3,J2MAX,J2STP
J1MAX=J2+J1RG2-IFP2
J1CNJ=J3+J2MAX+J2STP-J2
DO 697 J1=J2,J1MAX,IFP2
K=1+J1-I3
DATA(J1)=WORK(K)
DATA(J1+1)=WORK(K+1)
IF(J1-J2)697,697,696
696 DATA(J1CNJ)=WORK(K)
DATA(J1CNJ+1)=-WORK(K+1)
697 J1CNJ=J1CNJ-IFP2
698 CONTINUE
IF=IF+1
IFP1=IFP2
IF(IFP1-NP1)700,700,610
C
C COMPLETE A REAL TRANSFORM IN THE 1ST DIMENSION, N EVEN, BY
C CONJUGATE SIMMETRIES.
C
700 GOTO(900,800,900,701),ICASE
701 NHALF=N
N=N+N
THETA=-TWOPI/FLOAT(N)
IF(JSIGN)703,702,702
702 THETA=-THETA
703 SINTH=SIN(THETA/2.)
WSTPR=-2.*SINTH*SINTH
WSTPI=SIN(THETA)
WR=WSTPR+1.
WI=WSTPI
IMIN=3
JMIN=2*NHALF-1
GOTO 725
710 J=JMIN
DO 720 I=IMIN,NTOT,NP2
SUMR=(DATA(I)+DATA(J))/2.
SUMI=(DATA(I+1)+DATA(J+1))/2.
DIFR=(DATA(I)-DATA(J))/2.
DIFI=(DATA(I+1)-DATA(J+1))/2.
TEMPR=WR*SUMI+WI*DIFR
TEMPI=WI*SUMI-WR*DIFR
DATA(I)=SUMR+TEMPR
DATA(I+1)=DIFI+TEMPI
DATA(J)=SUMR-TEMPR
DATA(J+1)=-DIFI+TEMPI
720 J=J+NP2
IMIN=IMIN+2
JMIN=JMIN-2
TEMPR=WR
WR=WR*WSTPR-WI*WSTPI+WR
WI=TEMPR*WSTPI+WI*WSTPR+WI
725 IF(IMIN-JMIN)710,730,740
730 IF(JSIGN)731,740,740
731 DO 735 I=IMIN,NTOT,NP2
735 DATA(I+1)=-DATA(I+1)
740 NP2=NP2+NP2
NTOT=NTOT+NTOT
J=NTOT+1
IMAX=NTOT/2+1
745 IMIN=IMAX-2*NHALF
I=IMIN
GOTO 755
750 DATA(J)=DATA(I)
DATA(J+1)=-DATA(I+1)
755 I=I+2
J=J-2
IF(I-IMAX)750,760,760
760 DATA(J)=DATA(IMIN)-DATA(IMIN+1)
DATA(J+1)=0.
IF(I-J)770,780,780
765 DATA(J)=DATA(I)
DATA(J+1)=DATA(I+1)
770 I=I-2
J=J-2
IF(I-IMIN)775,775,765
775 DATA(J)=DATA(IMIN)+DATA(IMIN+1)
DATA(J+1)=0.
IMAX=IMIN
GOTO 745
780 DATA(1)=DATA(1)+DATA(2)
DATA(2)=0.
GOTO 900
C
C COMPLETE A REAL TRANSDORM FOR THE 2ND OR 3RD DIMENSION BY
C CONJUGATE SYMMETRIES.
C
800 IF(I1RNG-NP1)805,900,900
805 DO 860 I3=1,NTOT,NP2
I2MAX=I3+NP2-NP1
DO 860 I2=I3,I2MAX,NP1
IMIN=I2+I1RNG
IMAX=I2+NP1-2
JMAX=2*I3+NP1-IMIN
IF(I2-I3)820,820,810
810 JMAX=JMAX+NP2
820 IF(IDIM-2)850,850,830
830 J=JMAX+NP0
DO 840 I=IMIN,IMAX,2
DATA(I)=DATA(J)
DATA(I+1)=-DATA(J+1)
840 J=J-2
850 J=JMAX
DO 860 I=IMIN,IMAX,NP0
DATA(I)=DATA(J)
DATA(I+1)=-DATA(J+1)
860 J=J-NP0
C
C END OF LOOP FOR EACH DIMENSION
C
900 NP0=NP1
NP1=NP2
910 NPREV=N
920 RETURN
END

S-ar putea să vă placă și