Dispensedi TeoriadeiSegnaliAleatori - PANACEE...

64

Transcript of Dispensedi TeoriadeiSegnaliAleatori - PANACEE...

Page 1: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

Università degli Studi di Siena

Dispense diTeoria dei Segnali Aleatori

Mauro BarniIlaria Sbragi

Giacomo Cancelli

Gennaio 2009

Page 2: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

Indice

Tabella dei Simboli iii

1 Teoria dei processi ergodici 11.1 Limiti di Successioni di Variabili Aleatorie . . . . . . . . . . . 3

1.1.1 Convergenza Ovunque . . . . . . . . . . . . . . . . . . 31.1.2 Convergenza Quasi Ovunque . . . . . . . . . . . . . . 31.1.3 Convergenza in Media . . . . . . . . . . . . . . . . . . 31.1.4 Convergenza in Probabilità . . . . . . . . . . . . . . . 41.1.5 Convergenza in Distribuzione . . . . . . . . . . . . . . 5

1.2 Ergodicità in Media . . . . . . . . . . . . . . . . . . . . . . . 51.3 Ergodicità in Potenza Media . . . . . . . . . . . . . . . . . . . 9

2 Processi gaussiani 102.1 Variabili aleatorie gaussiane . . . . . . . . . . . . . . . . . . . 10

2.1.1 Proprietà della variabile aleatoria gaussiana . . . . . . 102.1.2 La funzione caratteristica . . . . . . . . . . . . . . . . 132.1.3 Dimostrazione che la trasformata di Fourier di una

gaussiana è ancora una gaussiana . . . . . . . . . . . 142.1.4 Teorema del limite centrale . . . . . . . . . . . . . . . 17

2.2 Variabili aleatorie congiuntamente gaussiane . . . . . . . . . 192.2.1 Proprietà delle variabili aleatorie congiuntamente gaus-

siane . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.3 Processi gaussiani . . . . . . . . . . . . . . . . . . . . . . . . 24

3 Segnali e processi a banda stretta 253.1 Segnali deterministici (segnali a banda stretta) . . . . . . . . 26

3.1.1 Simulazione in banda base di un sistema a radiofre-quenza, sistemi LTI . . . . . . . . . . . . . . . . . . . . 30

3.1.2 Applicazioni sui segnali a banda stretta . . . . . . . . 323.2 Segnali aleatori complessi (processi a banda stretta) . . . . . 33

3.2.1 Cifra di rumore introdotta dal demodulatore DSB . . 38

i

Page 3: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

INDICE ii

4 Processi ciclostazionari 424.1 Modulazioni numeriche . . . . . . . . . . . . . . . . . . . . . 474.2 Modulazioni in banda base . . . . . . . . . . . . . . . . . . . 49

4.2.1 Modulazione NRZ . . . . . . . . . . . . . . . . . . . . 494.2.2 Modulazione RZ . . . . . . . . . . . . . . . . . . . . . 504.2.3 Codici duobinari . . . . . . . . . . . . . . . . . . . . . 53

4.3 Modulazioni in banda passante . . . . . . . . . . . . . . . . . 554.3.1 M-PAM . . . . . . . . . . . . . . . . . . . . . . . . . . 554.3.2 M-PSK . . . . . . . . . . . . . . . . . . . . . . . . . . 564.3.3 D-PSK . . . . . . . . . . . . . . . . . . . . . . . . . . 584.3.4 QAM . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

Page 4: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

Tabella dei Simboli

N insieme dei numeri naturaliR insieme dei numeri reali

Re{·} parte reale di un numero complessoIm{·} parte immaginaria di un numero complesso

x variabile deterministicas(t) segnale deterministicoF{·} Trasformata di Fourier­ relazione tra un segnale e la relativa Trasformata di Fourier| · | valore assoluto‖ · ‖ norma⊗ operatore di convoluzione

P{S} probabilità dell'insieme Sx variabile aleatoriaFx distribuzione di probabilitàfx densità di probabilità

E[·] operatore valore attesoµx valore medio di x

µT media temporaleσx deviazione standard di x

σ2x varianza di x

x(k, t) processo stocasticoHxx(τ) autocorrelazione di x(k, t)Cxx(τ) autocovarianza di x(k, t)Ex energia mediaPx potenza mediaSxx densità spettrale di potenza mediaCxx autocovarianzaScxx spettro dell'autocovarianza

s+(t) preinviluppo complesso di s(t)s(t) inviluppo complesso di s(t)si(t) componente in fase di s(t)sq(t) componente in quadratura di s(t)

iii

Page 5: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

Capitolo 1

Teoria dei processi ergodici

Nei processi stocastici si hanno a disposizione due possibili tipi di analisiche mettono in risalto di�erenti aspetti del processo: analisi temporale eanalisi d'insieme.

L'analisi temporale di un processo stocastico x(k, t) si e�ettua �ssan-do k; ci si concentra quindi su una particolare realizzazione e se ne studial'evoluzione temporale. Cambiando k si ottiene una nuova realizzazione equindi un diverso andamento temporale.Per e�ettuare un'analisi temporale bisogna calcolare:

limT→+∞

12T

∫ +T

−Tx(k, t) dt

limT→+∞

12T

∫ +T

−Tx(k, t + τ) · x(k, t) dt

Considerando l'esempio di una analisi della corrente che passa in una re-sistenza, è come avere in�niti circuiti `identici' (o più esattamente simili) estudiarne uno alla volta. Le correnti che si otterranno saranno simili, manon identiche (ad esempio a causa del rumore termico, dell'aleatorietà del-la resistenza e delle caratteristiche dello stesso amperometro utilizzato pere�ettuare la misura). La �gura di sinistra della tabella 1.1 mostra gra�ca-mente una particolare realizzazione di un processo stocastico. Il gra�co mettein risalto l'evoluzione temporale della particolare realizzazione del processo.Osservando altre realizzazioni si ottengono di�erenti andamenti.

L'analisi d'insieme di un processo stocastico x(k, t) si e�ettua �ssandol'istante temporale di osservazione. Si calcola:

µx(t) = E[x(k, t)] =∫

R

xfx(k,t)(x)dx

Hxx(t1, t2) = E[x(k, t1)x(k, t2)] =∫

R

R

x1x2fx(k,t1)x(k,t2)(x1, x2)dx1dx2

1

Page 6: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 1. 2

analisi temporale analisi d'insieme

Tabella 1.1: Analisi temporale (sinistra) e analisi d'insieme (destra).

In questo caso è come accendere tutti i circuiti contemporaneamente e, �s-sato t = t∗, andare a studiare gli in�niti valori ottenuti, da considerare piùsemplicemente come realizzazioni della variabile aleatoria x(k, t∗). La �guradi destra della Tabella 1.1 mostra più realizzazioni sovrapposte di uno stessoprocesso stocastico. Fissando l'indice temporale si ottiene una v.a. descrit-ta da una particolare funzione di densità di probabilità. Al variare di t∗ siottengono nuove v.a. con nuove fx.

Dunque e�ettuando la media d'insieme si ottiene una funzione dipen-dente da t, mentre con la media temporale si ottengono valori dipendentidalla speci�ca realizzazione k. In generale, quindi, non è possibile scambiarel'analisi temporale con quella d'insieme. Nei particolari casi in cui ciò risul-ta realizzabile (identici risultati per entrambe le analisi), il processo si diceergodico. Se ogni caratterizzazione d'insieme dà gli stessi risultati della cor-rispondente caratterizzazione temporale, allora il processo si dice ergodico insenso stretto. L'ergodicità in senso stretto è abbastanza di�cile da studiare,e risulta inutilmente restrittiva quando si è interessati ad una sola analisi delsecondo ordine tramite valori medi. Per questo motivo nel resto del capitoloci occuperemo solo dell'ergodocità in senso lato, e, ancora più in particolare,dell'ergodicità in media:

µx(t) = E[x(k, t)] = limT→+∞

12T

∫ +T

−Tx(k, t)dt = lim

T→+∞µT (1.1)

Osserviamo che µx(t) è un segnale, invece µT è una variabile aleatoriadunque, per essere uguali, µx(t) non deve dipendere dal tempo; allora con-dizione necessaria per l'ergodicità in media è che x(k, t) sia SSL (cioè lamedia non deve dipendere dal tempo).

Page 7: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 1. 3

Se la condizione necessaria è soddisfatta allora si può scrivere:

µx = limT→+∞

µT

Il termine a destra è il limite di una successione di variabili aleatorie, apriamodunque una parentesi su tale argomento.

1.1 Limiti di Successioni di Variabili AleatoriePer un'esposizione rigorosa del concetto di ergodicità in media è neces-

sario chiarire il concetto di limite di una successione di variabili aleatorie:

limn→+∞ xn. (1.2)

Il signi�cato di convergenza di una successione di v.a. può assumere di�erentisigni�cati a seconda del contesto, per questo motivo occorre speci�care ognivolta il signi�cato assunto dal termine convergenza.

1.1.1 Convergenza OvunqueSi dice che xn(k) converge a x(k) ovunque se:

limn→+∞ xn(k) = x(k) ∀ k, (1.3)

dove l'indice k è stato inserito per esplicitare in maniera più chiara il caratterealeatorio sia dei singoli termini della successione che del valore assunto dallimite. La 1.3 è la de�nizione di convergenza più restrittiva.

1.1.2 Convergenza Quasi OvunqueSi dice che xn(k) converge a x(k) quasi ovunque se:

P{

limn→+∞ xn(k) 6= x(k)

}= 0 oppure P

{lim

n→+∞ xn(k) = x(k)}

= 1

(1.4)È immediato veri�care che la convergenza ovunque ⇒ la convergenza

quasi ovunque.

1.1.3 Convergenza in MediaSi dice che xn(k) converge a x(k) in media e si scrive:

l.i.m.n→+∞

1 xn(k) = x(k)

1Limit In the Mean.

Page 8: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 1. 4

se:lim

n→+∞E[(xn(k)− x(k)

)2]

= 0 (1.5)

La convergenza ovunque ⇒ la convergenza in media, ma la convergenzain media non implica quella quasi ovunque, che, d'altra parte, non implicala convergenza in media.

È possibile quindi trovare dei processi che convergono in media ma nonquasi ovunque e viceversa2. Ad esempio se si hanno delle realizzazioni chesaltuariamente, ma �no all'in�nito, hanno dei picchi, la convergenza in medianon sarà veri�cata perché, a causa di tali picchi, nessuna delle realizzazioniconvergerà a zero. Invece la convergenza in media sarà veri�cata perché an-che nel caso più sfortunato, ossia prendere il campione xn in corrispondenzadel punto di picco, si avrà comunque il limite che andrà a zero.Viceversa, se si hanno delle realizzazioni che vanno a zero più o meno velo-cemente, ma ce n'è almeno una che va all'in�nito, allora ovviamente si avràconvergenza quasi ovunque, ma non convergenza in media. Infatti, quandosi va a calcolarla, il limite va all'in�nito.

1.1.4 Convergenza in ProbabilitàSi dice che xn(k) converge a x(k) in probabilità se:

∀ ε > 0 limn→+∞P

{|xn(k)− x(k)| > ε}

= 0 (1.6)

cioè �ssata una tolleranza ε > 0 piccola a piacere, la probabilità che il limitedella successione si discosti da x per una valore maggiore di ε > 0, è zero.

Le convergenze precedentemente esposte implicano la convergenza inprobabilità.Il fatto che la convergenza in media implichi la convergenza in probabilità èvero per la disuguaglianza di �eby£ëv dopo che si è passati al limite:

limn→+∞P

{|xn(k)− x(k)| > ε} ≤ lim

n→+∞E[(xn(k)− x(k))2]

ε2(1.7)

Partendo dall'ipotesi di avere convergenza in media, il termine a destra è zeroper de�nizione; quello a sinistra è una probabilità dunque è positivo. Poiché iltermine di destra è nullo, il termine di sinistra dovrà essere obbligatoriamentezero e quindi si ha proprio la de�nizione di convergenza in probabilità.Ma il contrario non è vero quindi la convergenza in probabilità non implicala convergenza in media.

2A. Papoulis - �Probability, random variables and stochastic processes� - 1991,McGraw-Hill.

Page 9: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 1. 5

1.1.5 Convergenza in DistribuzioneSi dice che xn(k) converge a x(k) in distribuzione se:

limn→+∞Fxn(k)(x) = Fx(k)(x) ∀ x. (1.8)

La convergenza in probabilità ⇒ la convergenza in distribuzione.La �gura 1.1 descrive gra�camente i legami fra i tipi di convergenza sopra

esposti.

Figura 1.1: Relazioni esistenti tra i vari tipi di convergenza.

Le leggi di convergenza percedentemente elencate, sono scritte in ordine:dalla più forte alla più debole. A noi basterebbe la convergenza in probabi-lità, anche se poco restrittiva; però la convergenza in media è molto più facileda trattare matematicamente! Usando la convergenza in media, anzichéquella in probabilità, si lasciano fuori solamente quei processi che ad uncerto punto vanno all'in�nito, ma certi processi, nella realtà sono veramenterari, quindi usare la convergenza in media è un buon compromesso.

1.2 Ergodicità in MediaSiamo ora in grado di dare una de�nizione esatta di ergodicità in media

di un processo: un processo si dice ergodico in media se:

µx = limT→+∞

12T

∫ +T

−Tx(k, t) dt

︸ ︷︷ ︸µT

(1.9)

dove µT è chiaramente una v.a. dipendente dalla realizzazione k, e dove si èsfruttata l'ipotesi di stazionarietà in senso lato del processo.

Page 10: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 1. 6

Dato che l'operazione di limite viene applicata ad una successione di v.a.,va speci�cata la de�nizione di convergenza che si intende utilizzare. A taleproposito osserviamo che, operativamente, è necessario (e su�ciente) che,�ssato un errore piccolo a piacere, la probabilità, che la sostituzione dellamedia d'insieme con quella temporale porti ad un errore maggiore di quello�ssato, sia piccola a piacere. Non è di�cile riconoscere nella condizioneappena descritta la de�nizione di convergenza in probabilità. Purtroppo laconvergenza in probabilità ha lo svantaggio di essere complessa da trattare.Prendere invece in considerazione la de�nizione di convergenza in media (eq.1.5) agevola l'analisi e, se veri�cata, implica la convergenza in probabilità.Di contro vengono scartati alcuni processi che convergono in probabilità manon in media3 .

Applicando la de�nizione di convergenza in media all'equazione 1.9 siottiene:

limT→+∞

E[(µT − µx)2

]︸ ︷︷ ︸

σ2µT=σ2

T

= 0 (1.10)

dove si è osservato come la quantità E[(µT−µx)2

]corrisponda alla varianza

della v.a. µT, infatti:

E[µT] = E

[1

2T

∫ +T

−Tx(k, t) dt

]=

12T

∫ +T

−TE[x(k, t)] dt = µx

Tale proprietà viene di solito riassunta dicendo che µT è una stima corretta(non polarizzata) di µx. I risultato fondamentale della teoria dei processiergodici in media è riassunto nel seguente teorema:Teorema di �eby²ëv. Un processo SSL è ergodico in media se e solo se:

limT→+∞

1T

∫ 2T

0Cxx(τ) ·

(1− τ

2T

)dτ = 0

Dimostrazione. Partendo dalla de�nizione di µT si può scrivere:

µT =1

2T

∫ +T

−Tx(k, t) dt

=∫ +∞

−∞

12T

· rect(

t

2T

)· x(k, t) dt

=∫ +∞

−∞

12T

· rect(

τ − t

2T

)· x(k, t) dt

∣∣∣∣τ=0

Si introduce un nuovo segnale derivato dal passaggio di x(k, t) in unsistema LTI con risposta impulsiva h(t) = 1

2T · rect(

t2T

):

y(k, t) = x(k, t)⊗ 12T

· rect(

t

2T

)

3I processi scartati a causa di tale scelta sono di scarso interesse pratico.

Page 11: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 1. 7

Il segnale y(k, t) così ottenuto è caratterizzato da media, autocorrelazionee densità spettrale di potenza media date da:

µy = µx ·H(0)Hyy(τ) = Hxx(τ)⊗ h(τ)⊗ h(−τ)Syy(f) = Sxx(f)· ‖ H(f) ‖2

La varianza σ2T può dunque essere interpretata come la varianza dell'u-

scita del �ltro all'istante t = 0. In formule:

σ2T = E

[y(k, 0)2

]− E

[y(k, 0)

]2

= Hyy(0)− µ2y

= Hxx(τ)⊗ h(τ)⊗ h(−τ)|τ=0 − µ2x ·H(0)2.

L'autocorrelazione del processo x(k, t) può essere così riscritta:

Hxx(τ) = Cxx(τ) + µ2x

Quindi:

σ2T = (Cxx(τ) + µ2

x)⊗ h(τ)⊗ h(−τ)|τ=0 − µ2x ·H(0)2

= Cxx(τ)⊗ h(τ)⊗ h(−τ)|τ=0 + µ2x ⊗ h(τ)⊗ h(−τ)|τ=0 − µ2

x ·H(0)2

Sviluppando il secondo termine:

µ2x ⊗ h(τ)⊗ h(−τ)|τ=0 =

R

R

µ2x · h(τ ′) dτ ′ · h(τ ′′ − τ) dτ ′′

∣∣∣∣τ=0

= µ2x ·

R

h(τ ′) dτ ′ ·∫

R

h(τ ′′) dτ ′′

= µ2x ·H(0)2

si può riscrivere σ2T come:

σ2T = Cxx(τ)⊗ h(τ)⊗ h(−τ)|τ=0

= Cxx(τ)⊗ 12T

· tr(

τ

2T

)∣∣∣∣τ=0

=1

2T

∫ 2T

−2TCxx(t) ·

(1− |τ − t|

2T

)dt

∣∣∣∣τ=0

Osservando che la covarianza e la funzione tr(·) sono funzioni pari e inserendoanche l'operazione di limite, si ottiene:

limT→+∞

σ2T = lim

T→+∞1T

∫ 2T

0Cxx(τ) ·

(1− τ

2T

)dτ = 0.

Segue la tesi.

Page 12: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 1. 8

Con considerazioni analoghe al teorema precedente, possono essere anchedimostrate le seguenti condizioni su�cienti per l'ergodicità in media di unprocesso:

1. Condizione su�ciente per l'ergodicità in media del processo x(k, t) èche:

∃ d : Cxx(τ) = 0 |τ | > d

2. Condizione su�ciente per l'ergodicità in media del processo x(k, t) èche si veri�chi:

limτ→+∞Cxx(τ) = 0

La dimostrazione della seconda condizione, che implica la prima, è la seguente:

⇒ 1T

∫ 2T

0Cxx(τ) ·

(1− τ

2T

)dτ

=1T

∫ 2T

0Cxx(τ) dτ − 1

T

∫ 2T

0Cxx(τ) · τ

2Tdτ

≤ 1T

∫ 2T

0|Cxx(τ)| dτ +

1T

∫ 2T

0|Cxx(τ)| ·

∣∣∣ τ

2T

∣∣∣ dτ

≤ 1T

∫ 2T

0|Cxx(τ)| dτ +

1T

∫ 2T

0|Cxx(τ)| dτ =

2T

∫ 2T

0|Cxx(τ)| dτ

Sfruttando la de�nizione di limite:

∀ ε > 0 ∃ T0 : |Cxx(τ)| < ε ∀ τ > T0

e dividendo l'integrale in due parti, si ricava una sua maggiorazione:

⇒ =2T

∫ T0

0|Cxx(τ)| dτ +

2T

∫ 2T

T0

|Cxx(τ)| dτ

≤ 2T

∫ T0

0|Cxx(τ)| dτ +

2T

∫ 2T

T0

ε dτ

=2K

T+

2T· ε · (2T − T0)

dove K è il massimo valore assunto da |Cxx(τ)| nell'intervallo [0, T0].Considerando poi che σ2

T ≥ 0, si ottiene:

0 ≤ limT→+∞

σ2T ≤ lim

T→+∞

(2K

T+

2T· ε · (2T − T0)

)= 4ε.

Poiché la relazione precedente vale ∀ ε > 0, la su�cienza è veri�cata.

¤

Page 13: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 1. 9

Oltre alle condizioni sopra descritte, il teorema seguente fornisce unacondizione necessaria e su�ciente per l'ergodicità in media di un processo.Teorema di Slutsky. Un processo è ergodico in media se e solo se:

limT→+∞

1T

∫ T

0Cxx(τ) dτ = 0

Introducendo il concetto di spettro dell'autocovarianza:

Scxx(f) = F{Cxx(τ)} = Sxx(f)− µ2

x · δ(f) (1.11)

è possibile riscrivere nel dominio della frequenza il teorema di Slutsky:

limT→+∞

1T

∫ T

0Cxx(τ) dτ = lim

T→+∞Scxx(0)2T

= 0 (1.12)

che è vero se e solo se Scxx(0) < ∞

Se nell'origine dello spettro della covarianza non sono presenti δ(·), allorail processo x(k, t) è ergodico in media.

1.3 Ergodicità in Potenza MediaAnalogamente alla de�nizione di ergodicità in media, il processo x(k, t)

si dice ergodico in potenza media quando si può invertire l'analisi d'insiemedella potenza con quella temporale:

P = E[x2(k, t)]︸ ︷︷ ︸studio d'insieme

= limT→+∞

12T

∫ T

−Tx2(k, t)dt

︸ ︷︷ ︸studio temporale

(1.13)

Sostituendo v(k, t) = x2(k, t), studiare l'ergodicità in potenza media del pro-cesso x(k, t) diventa equivalente a studiare l'ergodicità in media del processov(k, t). Applicando il teorema di Slutsky si ottiene:

limT→+∞

1T

∫ T

0Cvv(τ) dτ = 0

da cui, svolgendo i passaggi, si arriva a:

Cvv(τ) = Hvv(τ)− µ2v

= E[x2(k, t + τ)x2(k, t)]− E[x2(k, t)]2

= Hx2x2(τ)−H2xx(0)

⇒ limT→+∞

1T

∫ T

0Hx2x2(τ) dτ = H2

xx(0) (1.14)

L'equazione (1.14) fornisce una condizione necessaria e su�ciente per l'er-godicità in media del processo x(k, t).

Page 14: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

Capitolo 2

Processi gaussiani

Per prima cosa introdurremo le variabili aleatorie gaussiane, poi parlere-mo delle variabili aleatorie congiuntamente gaussiane ed in�ne dei processigaussiani.

2.1 Variabili aleatorie gaussianeUna variabile aleatoria x è gaussiana (oppure normale) se la sua densità

di probabilità è:

fx(x) =1√2πσ2

xe− (x−µx)2

2σ2x (2.1)

dove µx è lil valor medio e σ2x la varianza.

2.1.1 Proprietà della variabile aleatoria gaussianaQui di seguito sono elencate le proprietà che possiede una variabile aleato-

ria gaussiana:• E' una densità di probabilità e l'integrale vale 1.Per dimostrarlo si pone per semplicità il valor medio nullo, µx = 0 e quindi

si avrà : fx(x) = 1√2πσ2

xe− (x)2

2σ2x .Si calcola questo integrale, che ci servirà dopo:

(∫

Re−x2

dx)2

=∫

Re−x2

dx ·∫

Re−y2

dy =∫

R

Re−(x2+y2)dxdy

=∫ 2π

0

∫ ∞

0e−ρ2(cos2 θ+sin2 θ)ρdθdρ

︸ ︷︷ ︸coord. polari: x=ρ cos θ ; y=ρ sin θ ; θε[0,2π] ; ρε[0,∞)

= 2π

∫ ∞

0ρe−ρ2

dρ = −π

∫ ∞

0−2ρe−ρ2

dρ = −πe−ρ2∣∣∣∞

0

= π

10

Page 15: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 11

Allora: ∫

Re−x2

dx =√

π (2.2)

Si riconsidera la densità di probabilità e si calcola l'integrale:∫

Rfx(x)dx =

R

1√2πσ2

xe− (x)2

2σ2x

︸ ︷︷ ︸si pone u2= x2

2σ2x

dx =1√π

Re−u2

du

︸ ︷︷ ︸√π

=√

π√π

= 1

• Il valor medio è proprio µx.

E[x] =∫ +∞

−∞xfxdx

=1√2πσ2

x

∫ +∞

−∞x e

− (x−µx)2

2σ2x︸ ︷︷ ︸porre x−µx=t

dx

=1√2πσ2

x

∫ +∞

−∞(t + µx) e

− (t)2

2σ2x dt

=1√2πσ2

x

∫ +∞

−∞t · e−

(t)2

2σ2x dt

︸ ︷︷ ︸moltiplicare e dividere per σ2

x

+ µx · 1√2πσ2

x

∫ +∞

−∞e− (t)2

2σ2x dt

︸ ︷︷ ︸1

= − σ2x√

2πσ2x

(e− (t)2

2σ2x

∣∣∣∣∣+∞

−∞︸ ︷︷ ︸0

+ µx

• La varianza è proprio σ2x.

E[(x− µx)2

]=

1√2πσ2

x

∫ +∞

−∞x2e

− x2

2σ2x dx

=1√2πσ2

x

∫ +∞

−∞x · xe

− x2

2σ2x dx · σ2x

σ2x

=σ2x√

2πσ2x

∫ +∞

−∞

f︷︸︸︷x ·

g′︷ ︸︸ ︷x

σ2x

e− x2

2σ2x dx

︸ ︷︷ ︸per parti:

∫fg′=fg−∫

f ′g

=σ2x√

2πσ2x

(−xe− x2

2σ2x

∣∣∣∣+∞

−∞︸ ︷︷ ︸tende a 0

+σ2x√

2πσ2x

∫ +∞

−∞e− x2

2σ2x · 1 dx

︸ ︷︷ ︸σ2x

= σ2x

Page 16: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 12

• I momenti centrali di ordine dispari sono nulli.Se si vuole descrivere la densità di probabilità, è possibile farlo dando tuttii momenti:- momento di ordine 1 −→ media- momento di ordine 2 −→ varianza- momento di ordine 3 −→ asimmetria- momento di ordine 4 −→ curtosiPer calcolare i momenti di qualsiasi ordine (n qualsiasi) si suppone persemplicità µx = 0, quindi:

E[Xn] =1√2πσ2

x

Rxne

− x2

2σ2x dx (2.3)

- Se n è dispari ⇒ E[Xn] = 0 perché E[Xn] =∫R

dispari︷ ︸︸ ︷xn︸︷︷︸

dispari

fx︸︷︷︸pari

(x) dx = 0

- Se n è pari ⇒ E[Xn] = σn(1 · 3 · 5 . . . (n− 1)

)

dove con la scrittura(1 · 3 · 5 . . . (n − 1)

)si intende il prodotto dei primi

(n− 1) numeri dispari.

Dimostrazione:

Re−

u2︷︸︸︷αx2

dx =∫

Re−u2 du√

α=

√π

α

Si consideri la derivata n-esima rispetto ad α:

∂n

∂αn

Re−αx2

dx =∂n

∂αn

√π

α(2.4)

Il termine di sinistra della (2.4) sarà:

∂n

∂αn

Re−αx2

dx =∫

R

∂n

∂αne−αx2

dx =∫

R(−1)n(x2)ne−αx2

dx (2.5)

Il termine di destra della (2.4) sarà:

∂n

∂αn

√π

α=

∂n

∂αn

√πα−

12 =

√π

∂n

∂αnα−

12 =

√πα(− 1

2−n)(−1)n

(1 · 3 · 5 . . . (n− 1)

)

2n

(2.6)Si eguaglino i risultati della (2.5) e della (2.6):

R(−1)nx

k︷︸︸︷2n e−αx2

dx =√

πα(− 12−n)(−1)n

(1 · 3 · 5 . . . (n− 1)

)

2n(2.7)

Page 17: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 13

E' possibile scegliere un qualsiasi valore di α; per semplicità si scelga α = 12σ2

⇒∫

Rxke

x2

2σ2 dx =√

π

(1

2σ2

)−( k+12

)

(1 · 3 · 5 . . . (k − 1)

)

2k2

⇒∫

Rxke

x2

2σ2 dx =√

π(2σ2)k+12

(1 · 3 · 5 . . . (k − 1)

)

2k2

⇒∫

Rxke

x2

2σ2 dx =√

π(2σ2)k2

√2σ2

(1 · 3 · 5 . . . (k − 1)

)

2k2

⇒∫

Rxke

x2

2σ2 dx =√

2πσ2 2k2 σk

(1 · 3 · 5 . . . (k − 1)

)

2k2

⇒ 1√2πσ2

Rxke

x2

2σ2 dx

︸ ︷︷ ︸E[Xk]

= σk(1 · 3 · 5 . . . (k − 1)

)

Per vedere le di�erenze tra i vari processi è utile calcolare i momenti diordine superiore al II:-Skewness (asimmetria)E[(X−µx)3]

σ3 ; più un processo è skewness, più è asim-metrico rispetto al valor medio-Kurtosis (curtosi)E[(X−µx)4]

σ4 ; dice quanto sono pesanti (heavy) le code delladensità di probabilità. Per le gaussiane la curtosi vale 3 ed è inferiore aquella delle laplaciane.

2.1.2 La funzione caratteristicaLa funzione caratteristica è la trasformata di Fourier della densità di

probabilità:φx(f) = F{fx(x)} =

Re−j2πfxfx(x)dx (2.8)

Poiché:fx(x) ­ φx(f)

⇒ −j2πxfx(x) ­ ∂

∂fφx(f)

⇒ (−j2πx)nfx(x) ­ ∂n

∂fnφx(f)

⇒ xnfx(x) ­ (−1)n

(j2π)n

∂n

∂fnφx(f)

La trasformata calcolata in zero è proprio l'integrale su R, cioè il momentodi ordine n:

E[Xn] =∫

Rxnfx(x)dx =

(−1)n

(j2π)nφ(n)x (0) (2.9)

Page 18: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 14

Quindi se si conosce tutto sui momenti allora si conosce tutto sulla densitàdi probabilità, allora si conosce tutto sulla variabile aleatoria.

2.1.3 Dimostrazione che la trasformata di Fourier di unagaussiana è ancora una gaussiana

Si dimostri adesso che la trasformata di Fourier di una variabile aleatoriagaussiana è ancora una variabile aleatoria gaussiana.Per semplicità si consideri una gaussiana a valor medio nullo: µx = 0.(Se il valor medio non fosse nullo allora occorrerebbe fare una traslazione).

φx(f) = F{fx(x)} = F

{1√

2πσ2e−

x2

2σ2

}

=∫

R

1√2πσ2

e−x2

2σ2 · e−j2πfxdx

=∫

R

1√2πσ2

e−

(x2

2σ2 +j2πfx)dx (2.10)

L'esponente della (2.10) è utile vederlo come un quadrato:(

x2

2σ2+ j2πfx

)=

(√x2

2σ2+ α

)2

−α2 ⇒ j2πfx = 2α

√x2

2σ2⇒ α = j

√2σ2πf

Quindi l'esponente sarà:(

x2

2σ2+ j2πfx

)=

(√x2

2σ2+ α

)2

− α2 =(

x2

2σ2+ j

√2σ2πf

)2

+ 2σ2π2f2

Allora la (2.10) diventa:

φx(f) =1√

2πσ2

Re−

[(x√2σ2

+j√

2σπf

)2

+2π2σ2f2

]

dx

=e−2π2σ2f2

√2πσ2

Re−

s2︷ ︸︸ ︷(x√2σ2

+ j√

2σπf

)2

dx

Si pone s = x√2σ2

+ j√

2σπf e allora:

φx(f) =e−2π2σ2f2

√2πσ2

∫ +∞+j√

2σπf

−∞+j√

2σπfe−s2√

2σ ds

=e−2π2σ2f2

√π

∫ +∞+j√

2σπf

−∞+j√

2σπfe−s2

ds

Page 19: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 15

Quindi si deve calcolare l'integrale sulla linea in �gura 2.1:

Figura 2.1: Linea in cui si deve calcolare l'integrale. Si noti che il punto diintersezione tra la linea blu e l'asse immaginario è: j

√2σπf

Per risolvere l'integrale, si consideri la linea chiusa in �gura 2.2:

Figura 2.2: Circuito con chiusure all'in�nito

In questo modo infatti è possibile ricorrere al lemma di Jordan e dunque alteorema dei residui. Per quanto riguarda l'integrale di una funzione su unalinea chiusa, è noto che se la funzione è analitica (cioè non ha singolarità)allora l'integrale è nullo; altrimenti bisogna calcolare i residui relativi ad ognisingolarità e il risultato dell'integrale sarà la somma dei residui.

e−s2= e−(a+jb)2 = e−a2+b2−2jab

Se la parte reale (a) tende all'in�nito, ma la parte immaginaria (b) no, alloratutto tende a zero.

Page 20: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 16

Se la parte immaginaria (b) tende all'in�nito, ma la parte reale (a) no, alloratutto tende all'in�nito.Se sia la parte reale che quella immaginaria tendono all'in�nito allora ilrisultato dipende da chi delle due parti ha più in�uenza.

Nel caso in esame, nella zona del circuito in �gura, domina la parte reale,dunque tutto tende a zero, quindi la funzione e−s2 è analitica e allora, per illemma di Jordan si ha la (2.11):

Ie−s2

ds = 0 (2.11)

L'integrale della linea chiusa si scrive come la somma degli integrali dellesingole componenti, (2.12):

Ie−s2

ds =∮

I1

e−s2ds +

I2

e−s2ds +

I3

e−s2ds +

I4

e−s2ds = 0 (2.12)

I2 eI4 sono chiusure all'in�nito della funzione, ma lì essa vale zero, dunquequesti integrali sono nulli e quindi la (2.12) diventa:

Ie−s2

ds =∮

I1

e−s2ds +

I3

e−s2ds = 0 (2.13)

Allora : ∮

I1

e−s2ds = −

I3

e−s2ds (2.14)

Poiché in �gura 2.2, il verso di I3 era opposto a quello di �gura 2.1, e si èinteressati a calcolare l'integrale su I3 orientato nel verso concorde con la�gura 2.1, allora si vuole calcolare proprio − ∮

I3e−s2

ds cioè∮I1

e−s2ds, dove:

I1

e−s2ds =

∫ +∞

−∞e−s2

ds (2.15)

Dalla (2.2) si sa che∫ +∞−∞ e−s2

ds =√

πIn conclusione:

φx(f) =e−2π2σ2f2

√π

∫ +∞+j√

2σπf

−∞+j√

2σπfe−s2

ds

=e−2π2σ2f2

√π

∫ +∞

−∞e−s2

ds

= e−2π2σ2f2

Quindi la trasformata di Fourier di una gaussiana è di nuovo una gaussiana:φx(f) = F{fx(x)} = e−2π2σ2f2 (2.16)

Con questo risultato ottenuto è possibile inoltre dimostrare che la sommadi due gaussiane sarà una gaussiana con valor medio uguale alla somma deivalor medi e varianza uguale alla somme delle varianze.

In�ne, un altro risultato importante è che e−πt2 ­ e−πf2 .

Page 21: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 17

2.1.4 Teorema del limite centraleHp: Siano Xi n variabili aleatorie indipendenti continue.

Si supponga che:

limn→∞

n∑

i

σ2xi

< ∞ (2.17)

per ogni variabile aleatoria Xi,

∃α > 2, ∃k < ∞ :∫

xαfxi(x)dx < k (2.18)

cioè si supponga che i momenti strettamente maggiori di 2 siano �niti.Si de�nisce:

Zn =n∑

i=1

Xi

Thesi:lim

n→∞Zn = ℵ(∑

i

µi,∑

i

σ2i ) (2.19)

Il teorema del limite centrale spiega che se si hanno tante variabili aleatorieindipendenti e si sommano, si otterrà una variabile aleatoria con densità diprobabilità gaussiana con valor medio uguale alla somma dei valor medi evarianza uguale alla somma delle varianze.

Supponendo Xi a media nulla, allora:

φzn(f) =n∏

i=1

φxi(f) ⇒ fzn(z) =n⊗

i=1

fxi(z) (2.20)

Intuitivamente, se si moltiplicano molte funzioni, purché siano positive eabbiano integrale 1, alla �ne si ottiene una gaussiana. Il che è equivalente ada�ermare che se si convolvono tante funzioni che son trasformate di funzionipositive e con integrale 1, si ottiene come risultato una gaussiana.

Infatti:φxi(0) =

∫fxi(x) = 1 ⇒ φxi(0) = 1 (2.21)

φxi(f) =∣∣∣∣∫

fxi(x)e−j2πfxdx

∣∣∣∣ ≤∫

R‖ fxi(x) ‖ · ‖ e−j2πfx ‖ dx =

∫fxi(x) = 1

⇒ φxi(f) ≤ 1 (2.22)Nella (2.22) se Xi è continua vale il minore stretto e quindi il valore 1 vieneraggiunto solo nell'origine (Xi è continua nel tempo se non vi sono δ, che infrequenza diventano seni e coseni, cioè funzioni oscillanti). Le varie φxi(f)saranno 1 solo nell'origine e lontane dall'origine avranno valore minore di 1.Tanti numeri reali positivi minori di 1, moltiplicati tra loro, daranno comerisultato un valore che tende a zero. Quindi col teorema del limite centrale

Page 22: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 18

si osserva solo quello che succede nell'intorno dell'origine perché comunque,lontano dall'origine, si hanno valori che tendono a zero.Si va a studiare quello che succede nell'intorno dell'origine: si vanno a faregli sviluppi di Taylor. Per comodità, anziché scrivere gli sviluppi di Taylordella φxi(f), si scrivono quelli del suo logaritmo:

ψxi(f) = log φxi(f) (2.23)

ψxi(f) = ψxi(0) + fψ′xi

(0) +f2

2ψ′′xi

(0) + o(f2) (2.24)

Dove:

ψxi(0) = log

1︷ ︸︸ ︷φxi(0) = 0

ψ′xi

(0) = d (log φxi(0)) =φ′xi

(0)φxi(0)

= 0

ψ′′xi

(0) = d2 (log φxi(0)) =φ′′xi

(0)φxi(0)− φ′xi

(0)φ′xi

(0)(φxi(0))2

= −4π2σ2xi

Per ricavare φ′xi

(0) e φ′′xi

(0) si applica la formula del momento n-esimo:

E[Xn] =(−1)n

(j2π)nφ(n)(0) (2.25)

⇒ φ′xi

(0) = E[X](−j2π) =0︷︸︸︷µx j2π = 0

⇒ φ′′xi

(0) = E[X2](j2π)2 = (σ2x + µ2

x)(−4π2) = −4π2σ2x

Quindi:

ψxi(f) = ψxi(0) + fψ′xi

(0) +f2

2ψ′′xi

(0) + o(f2)

= −4π2σ2xi

f2

2+ o(f2)

= −2π2σ2xi

f2 + o(f2)

Allora:φxi(f) ' e−2π2σ2

xif2 (2.26)

ed è una gaussiana. Dalle (2.20) e (2.26) si dimostra che:

φzn(f) =n∏

i=1

e−2π2σ2xif

2

= e−2π2f2∑n

i=1 σ2xi (2.27)

cioè si ottiene una gaussiana che ha come varianza la somma delle varianze(ed avrebbe come valor medio la somma dei valor medi, ma essi sono statiposti a zero per semplicità).

Page 23: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 19

2.2 Variabili aleatorie congiuntamente gaussianeConsiderate le variabili aleatorie X1, X2, . . . , Xn, si vuole che il vettore−→

X (2.28) sia congiuntamente gaussiano.

−→X =

X1

X2...

Xn

(2.28)

Un vettore di variabili aleatorie si dice congiuntamente gaussiano se unaqualsiasi combinazione lineare delle Xi è gaussiana. Introducendo il vettoredei coe�cienti −→a :

−→a =

a1

a2...

an

allora si può scrivere:

Z = −→a T−→x =< −→a ,−→x >=n∑

i=1

aiXi

Quindi:

Z =n∑

i=1

aiXi (2.29)

Adesso non si impone più che le Xi siano indipendenti, perché imporrela proprietà (2.29) è su�ciente a determinare poi la densità di probabilitàcongiunta.

L'obiettivo è calcolare la funzione caratteristica di un vettore di variabilialeatorie gaussiane φ−→x (

−→f ); per fare ciò, si calcola prima la funzione carat-

teristica di una variabile aleatoria semplice gaussiana φz(f). Nel farlo, ci siaccorge che φz(1) è proprio uguale a φ−→x (−→a ) cioè a ciò che si stava cercando.

La funzione caratteristica di un vettore di variabili aleatorie gaussiane è:

φ−→x (−→f ) = E[e−j2π

−→f T−→x ] = E[e−j2π

∑i fixi ] =

Rn

e−j2π∑

i fixif−→x (−→x )d−→x(2.30)

L'integrale è la trasformata di Fourier n-dimensionale della densità di prob-abilità congiunta, ma svolgere tale calcolo richiede ulteriori competenze. Persemplicità, si calcoli allora φz(f). La funzione caratteristica di una variabilealeatoria gaussiana è:

φz(f) = e−2π2f2σ2z (2.31)

Page 24: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 20

Si supponga valor medio nullo (nel caso fosse diverso da zero, ci avrebbe unatraslazione) e si calcoli σ2

z:σ2z = E[(z− µz︸︷︷︸

0

)2] = E[z2] = E[(−→a T−→x )2] = E[(−→a T−→x )(−→a T−→x )T ]

= E[(−→a T−→x )(−→x T−→a )] = −→a T E[−→x −→x T ]−→a = −→a T C−→aNella posizione Cij c'è la correlazione E[xixj ] tra la variabile aleatoria i e lavariabile aleatoria j. Poiché si sta considerando un vettore a valor medio nulloallora la correlazione è uguale alla covarianza (infatti Hxx(τ) = Cxx(τ)+µ2

x),quindi C è la matrice di covarianza di −→x .

Sostituendo σ2z = −→a T C−→a nella (2.31) si ottiene:

φz(f) = e−2π2f2−→a T C−→a (2.32)Allora:

φz(1) = e−2π2−→a T C−→a = φx(−→a ) (2.33)Sostituendo −→a con −→

f , si ottiene proprio la funzione caratteristica di unvettore di variabili aleatorie gaussiane:

φ−→x (−→f ) = e

−2π2−→f T

︸︷︷︸1xn

C︸︷︷︸nxn

−→f︸︷︷︸

nx1 (2.34)

Inoltre la (2.34) mostra che φ−→x (−→f ) è uno scalare.

Antitrasfomando la (2.34), si ottiene:

f−→x (−→x ) =1√

2nπn|C| e−(−→x−−→µ )T C−1(−→x−−→µ )

2 (2.35)

dove n è la lunghezza del vettore e |C| il determinante della matrice dicovarianza.

E' necessario che la matrice C sia invertibile infatti se non lo fosse, siavrebbe determinante nullo. La matrice C è reale, simmetrica e semide�nitapositiva: −→a T C−→a ≥ 0 ∀−→a , perché E[(−→a T−→x )2] è una forma quadratica. Maa�nché C sia sempre invertibile, deve essere de�nita positiva:−→a T C−→a > 0,cioè deve valere l'uguale solo per −→a = 0

E[(−→a T−→x )2] = 0 sse −→a T−→x = 0

cioè se ∑

i

aiXi = 0

ossia se le variabili aleatorie X1X2 . . . Xn non sono linearmente indipendenti(perché in tal caso una variabile aleatoria potrebbe essere scritta come com-binazione lineare delle altre e dunque, nel caso che le altre variabili fosseronote, essa diventerebbe deterministica).

⇒ se le variabili aleatorie che si considerano sono linearmente indipen-denti, allora la matrice è de�nita positiva e dunque è sempre invertibile.

Page 25: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 21

2.2.1 Proprietà delle variabili aleatorie congiuntamente gaus-siane

1) Le densità di probabilità marginali sono ancora gaussiane; un qualsiasisottoinsieme di variabili aleatorie gaussiane è ancora gaussiano.Dimostrazione:

φ−→x (−→f ) =

Rn

e−j2π(f1x1+f2x2+···+fnxn)f−→x (x1x2 . . . xn)dx1dx2 . . . dxn

Per calcolare la densità di probabilità marginale, si toglie la i-esima compo-nente, quindi si toglie la fi:

φ−→x (f1, . . . , fi−1, 0, fi+1, . . . , fn) =

=∫

Rn

f−→x (x1x2 . . . xn)e−j2π(f1x1+···+fi−1xi−1+0+fi+1xi+1+···+fnxn)dx1dx2 . . . dxn

Adesso si integra su xi e dunque si toglie anche la xi:

φ−→x (f1, . . . , fi−1, 0, fi+1, . . . , fn) =

=∫

Rn−1

f−→x−i(x1x2 . . . xi−1xi+1 . . . xn)e−j2π

vedi sopra︷ ︸︸ ︷(. . . . . . . . . )dx1dx2 . . . dxi−1dxi+1 . . . dxn

L'obiettivo è dimostrare che la funzione caratteristica φ−→x −i(f−→x −i

), è ancoragaussiana. La i-esima componente è posta a 0, allora nella matrice C la rigai-esima e la colonna i-esima verranno moltiplicate per 0, quindi tale riga etale colonna saranno azzerate:

φ−→x −i(f−→x −i

) = e

−2π2(

f1 . . . 0 . . . fn

)

C11 . . . C1n... . . . ...

Cn1 . . . Cnn

f1...0...

fn

⇒ la −→x rimane ancora un vettore gaussiano.Iterando si riesce a farlo per qualsiasi sottoinsieme.

2) Per le gaussiane l'analisi �no al secondo ordine (cioè su valor medio−→µ x e varianza C) dice già tutto.

3) Per le gaussiane l'indipendenza e la scorrelalatezza sono la stessa cosa.In generale indipendenza ⇒ scorrelatezza e il contrario non è sempre vero.Per le gaussiane è possibile dimostrare che indipendenza ⇐ scorrelatezza.

Page 26: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 22

Dimostrazione:Si parte dall'ipotesi di scorrelatezza; se le variabili sono scorrelate allorala matrice C è diagonale e sulla diagonale ci sono le varianze, allora ildeterminante è il prodotto delle varianze |C| = ∏

i σ2i , quindi:

f−→x (−→x ) =1√

2nπn|C| e

− 12

(x . . . xn

)

1σ21

. . . 0... . . . ...0 . . . 1

σ2n

x...

xn

=1√

2nπn∏

i σ2i

e− 1

2

(Σi

x2i

σ2i

)

=n∏

i

e− x2

2σ2i√

2πσ2i

=n∏

i

fxi(xi)

Partendo dall'ipotesi di scorrelatezza si può dunque veri�care che la densitàdi probabilità congiunta è il prodotto delle singole densità di probabilitàquindi le variabili sono indipendenti.Allora se le variabili aleatorie sono scorrelate e gaussiane, esse sono ancheindipendenti.

4) Le curve di livello della gaussiana multivariata sono ellissi.Dimostrazione:

Per tracciare le curve di livello di una gaussiana in due dimensioni si ponela densità di probabilità congiunta uguale ad una costante:

fxy(x, y) =1√

4π2|C| e− 1

2

(x y

)C−1

x

y

= k

Ciò vuol dire porre:(

x y)C−1

(xy

)= k′

Poiché il termine di sinistra è una forma quadratica, allora è una conica(ellissi, parabola, iperbole). Se C−1 è de�nita positiva allora tale conica èun'ellisse.• Se X e Y sono indipendenti, si avrà una matrice diagonale e dunque un'el-lisse con l' asse maggiore parallelo all'asse x (se σ2

x > σ2y), oppure con l' asse

maggiore parallelo all'asse y (se σ2x < σ2

y), oppure delle circonferenze nel caso

Page 27: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 23

in cui σ2x = σ2

y.

C =(

σ2x 00 σ2

y

)⇒ C−1 =

(1σ2x

00 1

σ2y

)⇒ x2

σ2x

+y2

σ2y

= k

︸ ︷︷ ︸ellisse

• Se X e Y non sono indipendenti allora si avrà un'ellisse orientata non nellastessa direzione di x o y.

5) Si supponga di avere un vettore −→X di n elementi si considerino duesottoinsiemi di −→X : −→X 1 e −→X 2, si avrà che f(−→x 1|−→x 2) è ancora una gaussianamultivariata. Cioè la densità di probabilità di un sottoinsieme condizionatoad un altro sottoinsieme, è ancora gaussiana. Questa proprietà ci limitiamoad enunciarla, senza proporre una dimostrazione formale.

6) Prendendo m combinazioni lineari delle n variabili aleatorie gaussiane,si ottengono m variabili aleatorie che saranno congiuntamente gaussiane:

A︸︷︷︸mxn

−→X︸︷︷︸nx1

=−→Y︸︷︷︸

mx1

(2.36)

Dimostrazione:

φy(−→f )︸ ︷︷ ︸

vettore lungo m

= E[e−j2π−→f T Y ] = E[e−j2π

−→f T A

−→X ] = φx(

−→f T A)︸ ︷︷ ︸

vettore lungo n

Il vettore φx(−→f T A) è ancora una gaussiana infatti:

φx(−→f T A) = e−2π2−→f T ACx(

−→f T A)T

= e

−2π2−→f T ACxAT

︸ ︷︷ ︸Cy

−→f

Si ottiene:Cy︸︷︷︸

mxm

= A︸︷︷︸mxn

Cx︸︷︷︸nxn

AT︸︷︷︸nxm

Si osservi che se la matrice A è quadrata (nxn), allora con A−→X =

−→Y si fa

un cambio di coordinate e si ottiene ancora un vettore di variabili aleatoriegaussiane.Potendo scegliere A, la si sceglie tale che essa diagonalizzi la matrice Cxin modo da ottenere Cy diagonale e dunque avere un vettore −→Y a variabilialeatorie indipendenti. Da qui ci si riconduce alla Kalhunen-Loeve Transform(KLT), trasformata che, applicata al vettore di variabili aleatorie, rende di-agonale la matrice di covarianza, cioè produce un vettore −→Y di variabilialeatorie indipendenti (gaussiane).

Page 28: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 2. 24

2.3 Processi gaussianiUn processo si dice gaussiano se comunque si scelgano t1, t2, ..., tn, le

n variabili aleatorie che si ottengono sono congiuntamente gaussiane. Ciòequivale a dire che se si campiona il processo x(k, t), ogni campione è gaus-siano.Per un processo gaussiano è semplice dare una sua descrizione completaperché la caratte-rizzazione completa è del tutto equivalente ad una carat-terizzazione �no al II ordine.

Sia il processo x(k, t) gaussiano e SSL (Stazionario in Senso Lato), alloraµx e Hxx(τ) sono su�cienti a descrivere in maniera completa il processo:−→µx = (µx(t1), µx(t2), ...., µx(tn)) ma essendo il processo SSL⇒ −→µx = (µx, µx, ..., µx)

Cij = E[(

x(k, ti)−µx

)(x(k, tj)−µx

)]= Cxx(ti, tj) = Cxx(ti − tj)︸ ︷︷ ︸

essendo stazionari in senso lato

= Hxx(ti−tj)−µ2x

Se si pone in ingresso ad un sistema LTI un processo gaussiano x(k, t),allora anche l'uscita y(k, t) sarà gaussiana:

y(k, t) =∫

x(k, t)h(t− τ)dτ

Ingresso e uscita sono congiuntamente gaussiani quando: presi h istanti sulprimo processo e k istanti sul secondo processo, le h + k variabili aleatoriesono congiuntamente gaussiane.

x(k, t1)x(k, t2)...x(k, th)︸ ︷︷ ︸h

y(k, th+1)y(k, th+2)...y(k, th+k)︸ ︷︷ ︸k

Page 29: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

Capitolo 3

Segnali e processi a bandastretta

Si de�niscono segnali a banda stretta quei segnali il cui spettro ha unalarghezza molto piccola rispetto alla sua posizione sull'asse delle frequenze.Ad esempio un possibile segnale a banda stretta x(t) può essere costruito(ma non è l'unico modo) a partire da una modulazione fra un cos(2πf0t) eun segnale x′(t) in banda base:

x(t) = x′(t) · cos(2πf0t) con f0 À B′ (3.1)

con B′ banda di s′(t).Per esempio i segnali emessi da un'emittente televisiva, radiofonica, o da

una scheda di rete wireless sono tutti segnali a banda stretta. La �gura 3 dàuna rappresentazione gra�ca dello spettro di un segnale a banda stretta.

Analizzando tali segnali con gli usuali strumenti utilizzati per i segnalipassa basso si presentano alcuni e�etti indesiderati. Il principale problema si

Figura 3.1: Trasformata di Fourier di un segnale a banda stretta

25

Page 30: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 26

riscontra applicando al segnale il teorema di Shannon (o del campionamento).Si supponga per esempio di dover memorizzare un minuto di un segnalevocale di banda B′ = 4 KHz che per essere trasmesso è stato centratoin f0 = 5 GHz. In questo caso, la banda del segnale da memorizzare èB = 5 000 004 000 Hz. Per Shannon la frequenza di campionamento minimaper poter ricostruire completamente il segnale è:

fc = 2B ' 10GHz

Questo signi�ca che per memorizzare un minuto di segnale occorrono600·109 campioni. Un approccio non praticabile nemmeno con i moderni cal-colatori. Sfruttando il teorema del campionamento non è possibile scendereal di sotto dei 2B campioni se si vuole ricostruire senza perdita il segnale.

In questo esempio il vero problema è che il segnale da memorizzare èsolamente quello centrato in f0 = 5 GHz, ma con supporto 2B′ = 8 KHz.Applicando invece il teorema, si ottengono campioni che contengono al lorointerno anche l'informazione della nullità dello spettro compresa in [ 0 ; f0−B′ ].

3.1 Segnali deterministici (segnali a banda stretta)Per risolvere le problematiche derivanti dall'analisi dei segnali a banda

stretta, si ricorre ad un cambio di rappresentazione: facendo passare il seg-nale attraverso alcuni sistemi LTI in cascata si deve riuscire a scrivere x(t)come derivante da una funzione g(x′(t)) con la speranza che x′(t) sia unsegnale in banda base. Così facendo, con la conoscenza di g e dei campioniprodotti da x′(t), diventerebbe possibile ricostruire completamente il segnaledi partenza.

L'analisi che svolgeremo nel seguito, si basa su due ipotesi fondamentali:

• x(t) reale

• x(t) generico a banda stretta

Avendo assunto x(t) reale, segue che X(f) (x(t) ­ X(f)) ha simmetria her-mitiana, in particolare Re{X(f)} è pari e Im{X(f)} è dispari. Ne discendeche la parte destra dello spettro, cioè i valori di X(f) per f ≥ 0 contengonotutta l'informazione necessaria per descrivere in frequenza x(t). Il segnale dipartenza deve quindi potersi ricostruire esattamente a partire da una fun-zione del tipo α ·X(f) · U(f) con u(t) ­ U(f) funzione gradino unitario eα una costante nota. In particolare si può scrivere:

x+(t) = x(t) + x(t)⊗ j

πt= x(t) + jx(t) ­

Page 31: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 27

­ X+(f) = X(f) + jX(f)

= X(f) + j(− jsgn(f)X(F )

)

= X(f) + sgn(f)X(f)= X(f)(1 + sgn(f))= 2 ·X(f) · U(f)

La quantità x+(t) si chiama preinviluppo complesso di x(t), mentre x(t)indica la trasformata di Hilbert di x(t).

Così facendo si ottiene un solo intervallo di frequenze dove lo spettro nonè nullo. Il passo successivo è il seguente:

x(t) = x+(t) · e−j 2πf0t ­ X(f) = X+(f + f0) (3.2)

Il segnale x(t) è chiamata inviluppo complesso e in generale la sua trasformatanon gode della simmetria Hermitiana. È possibile perciò scrivere l'inviluppocomplesso di x(t) come Re{x(t)}+ j Im{x(t)}:

x(t) =(x(t) + j x(t)

) · e−j 2πf0t

=(x(t) + j x(t)

) · ( cos(2πf0t)− j sin(2πf0t))

= x(t) cos(2πf0t) + j x(t) cos(2πf0t)− j x(t) sin(2πf0t) + x(t) sin(2πf0t)= xi(t) + j xq(t)

xi(t) è chiamata componente in fase del segnale x(t) e xq(t) è chiamatacomponente in quadratura.

La tabella 3.1 riassume i passaggi precedenti nel dominio della frequenza.

Segnale a banda stretta Preinviluppo complesso Inviluppo complesso

Tabella 3.1: Rappresentazione in frequenza di x(t)

Le formule che permettono di ricavare la componente in fase e quella inquadratura del segnale possono essere raggruppate in forma vettoriale peruna rappresentazione più compatta.

(xi(t)xq(t)

)=

(cos(2πf0t) sin(2πf0t)

− sin(2πf0t) cos(2πf0t)

)·(

x(t)x(t)

)(3.3)

Page 32: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 28

Tale rappresentazione prende il nome di equazioni di analisi del segnale.Invertendo il sistema (3.3) si ottengono l'equazioni di sintesi del segnale:

(x(t)x(t)

)=

(cos(2πf0t) − sin(2πf0t)sin(2πf0t) cos(2πf0t)

)·(

xi(t)xq(t)

)(3.4)

Date le componenti in fase e in quadratura del segnale e la frequenza f0, sirisale attraverso la (3.4) al segnale x(t) di partenza. Il sistema fornisce ancheun metodo per ricavare la trasformata Hilbert a partire dalle funzioni xi(t)e xq(t).Dalle equazioni di sintesi si nota anche che un segnale a banda stretta puòessere espresso anche come:

x(t) = xi(t) · cos(2πf0t)− xq(t) · sin(2πf0t)

=√

x2i (t) + x2

q(t)︸ ︷︷ ︸Ampiezza

· cos(

2πf0t + arctanxq(t)xi(t)︸ ︷︷ ︸

Fase

)

dove le componenti xi(t) e xq(t), opportunamente combinate, modulanoampiezza e fase della portante cos(2πf0t). Da questo derivano i nomi difase e quadratura della rappresentazione analitica dei segnali a banda stret-ta. Inoltre si evidenzia anche che tutti i segnali a banda stretta si possonovedere come un coseno modulato in ampiezza e fase.

A tal proposito elenchiamo qui diseguito alcuni tipi di modulazione: AM,DSB(Double Side Band), SSB(Single Side Band).

• mAM (t) = V0(1 + kx(t)) cos(2πf0t)

• mDSB(t) = x(t) cos(2πf0t)xi(t) = x(t)xq(t) = 0x(t) = xi(t) + jxq(t) ⇒ m(t) = x(t)

a(t) =√

x2i (t) + x2

q(t) = |x(t)|

• mSSB(t) = x(t) cos(2πf0t)± x(t) sin(2πf0t)(Si usa il � + � se vogliamo trasmettere la semibanda di sinistra, il � - � sevogliamo trasmettere quella di destra).xi(t) = x(t)xq(t) = ±x(t) x(t) = xi(t) + jxq(t) ⇒ m(t) = x(t)− jx(t)⇒ M(f) = X(F )−j(−jsgn(f)X(f)) = X(f)−sgn(f)X(f) = −2X(f)U(f)

a(t) =√

x2i (t) + x2

q(t) =√

x2(t) + x2(t)

Page 33: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 29

Osservando il comportamento in frequenza dell'inviluppo complesso èfacile dimostrare che:

Xi(f) =[X(f + f0) + X(f − f0)

]· rect

(f

2f0

)(3.5)

e

Xq(f) = j

[X(f − f0)−X(f + f0)

]· rect

(f

2f0

)(3.6)

Infatti:xi(t) = x(t) cos(2πf0t) + x(t) sin(2πf0t) ­

­ Xi(f) =X(f − f0) + X(f + f0)

2+

X(f − f0) + X(f + f0)2j

=X(f − f0) + X(f + f0)

2+−jsgn(f − f0)X(f − f0) + jsgn(f + f0)X(f + f0)

2j

=X(f − f0)

2

(1− sgn(f − f0)

)+

X(f + f0)2

(1 + sgn(f + f0)

)

= X(f − f0)U(−f + f0) + X(f + f0)U(f + f0)

=

{X(f − f0) + X(f + f0) se |f | < f0

0 altrove

=⇒ la componente in fase Xi(f) della SSB è il segnale originale.

xq(t) = −x(t) sin(2πf0t) + x(t) cos(2πf0t) ­

­ Xq(f) = −(X(f − f0)−X(f + f0)

2j

)+

X(f − f0) + X(f + f0)2

=−X(f − f0) + X(f + f0)

2j+

(−jsgn(f − f0)X(f − f0)− jsgn(f + f0)X(f + f0)2

)

=−X(f − f0) + X(f + f0) + sgn(f − f0)X(f − f0) + sgn(f + f0)X(f + f0)

2j

=X(f − f0)

(− 1 + sgn(f − f0)

)+ X(f + f0)

(1 + sgn(f + f0)

)

2j

=−2X(f − f0)U(−f − f0) + 2X(f + f0)U(f + f0)

2j

= jX(f − f0)U(−f − f0)− jX(f + f0)U(f + f0)

=

{j(X(f − f0)−X(f + f0)

)se |f | < f0

0 altrove

Page 34: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 30

=⇒ la componente in quadratura Xq(f) della SSB è esattamente la trasfor-mata di Hilbert del segnale.

Le equazioni (3.5) (3.6) sono un ulteriore modo per ricavare (in frequenza)le componenti in fase e in quadratura. Come si può notare tali componentisono in banda base.

La frequenza f0 non è vincolante (può essere scelta arbitrariamente), masi può dimostrare che �ssandola a metà dello spettro non nullo si ottiene lascelta ottima (ovvero quella che minimizza la banda di xi(t) e di xq(t)).

In riferimento all'esempio sopra esposto sulla memorizzazione di un min-uto del segnale x(t), con l'introduzione della forma canonica di segnali abanda stretta il problema (da una complessità iniziale di 600 · 109 campioni)si riduce al campionamento di due segnali1 (la componente in fase e quellain quadratura) di banda B′. In questo modo con solo 60 · 2 · 2B′ = 960000campioni e l'informazione f0 = 5 GHz si memorizza senza perdita il segnaledi partenza x(t).

3.1.1 Simulazione in banda base di un sistema a radiofre-quenza, sistemi LTI

È interessante studiare come opera un sistema LTI con risposta impulsivaa banda stretta2 quando viene attraversato da un segnale x(t) anch'esso abanda stretta.

Chiamando y(t) ­ Y (f) l'uscita e h(t) ­ H(f) la risposta del sistemasi ha che:

Y (f) = H(f) ·X(f)

ne deriva che anche y(t) è a banda stretta quindi l'uscita può essere rap-presentata in banda base. In questo modo si può simulare un sistema aradiofrequenza lavorando invece in banda base.

1contro il solo segnale dell'applicazione diretta del teorema di Shannon.2In realtà quest'ipotesi non è a causa della natura a banda stretta del segnale in ingresso

al sistema.

Page 35: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 31

Calcoliamo il preinviluppo complesso:

Y +(f) = Y (f) + jY +(f)= Y (f) + j (−jsgn(f)Y (f))= Y (f) + sgn(f)Y (f)= Y (f) (1 + sgn(f))= 2Y (f)U(f)= 2X(f)H(f)U(f)= 2X(f)H(f)U(f)U(f)

= 2X(f)U(f)︸ ︷︷ ︸X+(f)

· 2H(f)U(f)2︸ ︷︷ ︸

H+(f)2

=12

(X+(f) + H+(f)

)

Allora:Y +(f) =

12

(X+(f) + H+(f)

)(3.7)

Perché U(f) vale 0 oppure 1 allora si può moltiplicare per in�niti U(f) senzaalterare il risultato; successivamente si moltiplica e divide per 2 in manieratale da ottenere l'espressione di H+(f).Ma il preinviluppo complesso non è un segnale molto utile perché continuaad essere un segnale a radiofrequenza; vediamo allora l'inviluppo complesso:

Y (f) = Y +(f + f0) =12X+(f + f0)H+(f + f0) =

12X(f)H(f)

Allora:Y (f) =

12X(f)H(f) (3.8)

Nel tempo si ha che:

y(t) =[yi(t) + j yq(t)

]

=12·[(

si(t) + j sq(t))⊗ (

hi(t) + j hq(t))]

=12· [si(t)⊗ hi(t) + j sq(t)⊗ hi(t) + j si(t)⊗ hq(t)− sq(t)⊗ hq(t)

]

=⇒

yi(t) = 12 ·

[si(t)⊗ hi(t)− sq(t)⊗ hq(t)

]

yq(t) = 12 ·

[sq(t)⊗ hi(t) + si(t)⊗ hq(t)

]

Si osservi come il calcolo dell'uscita del sistema possa essere eseguito tuttoin banda base (per passare in banda passante solo alla �ne del procedimento).

Page 36: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 32

Questa possibilità è di importanza fondamentale per la simulazione numericadei sistemi, in quanto permette di simulare il comportamento del sistemautilizzando delle frequenze di campionamento decisamente più basse di quellea cui sarebbe necessario operare per lo studio diretto in banda passante.

3.1.2 Applicazioni sui segnali a banda strettaSupponiamo che un segnale modulato DSB oppure AM entri in un si-

stema la cui risposta in fase sia:H(f) = Aejβ(f)

A�nché il sistema non sia distorcente:- A dovrebbe essere costante nella banda del segnale di ingresso in modo daavere ‖H(f)‖ costante;- β(f) dovrebbe essere lineare e la retta che approssima linearmente ∠H(f)dovrebbe passare per l'origine.Supponiamo di essere nel caso in cui essa non passi per l'origine, dunque siha distorsione.Si de�nicono il ritardo di fase (3.9) ed il ritardo di gruppo (3.10):

τf =−β(f0)2πf0

(3.9)

τg =−β(f0)

2π(3.10)

Se τf 6= τg ⇒ si ha distorsioneStudiamo il sistema nella rappresentazione in banda base.Il segnale che si vuole trasmettere è:• x(t) = m(t) cos(2πf0t) nel caso della modulazione DSB• x(t) = (m(t) + 1) cos(2πf0t) nel caso della modulazione AMIl procedimento da seguire è quello di partire da x(f) e H(f) per ricavarsiY (f); da quest'ultima ricavarsi Y +(f), antitrasformare per calcolare y+(t),prenderne la parte reale e trovare così il segnale in uscita y(t).Si consideri, ad esempio, il caso della modulazione DSB:x(t) = m(t) cos(2πf0t)x(t) = xi(t)︸︷︷︸

m(t)

+j xq(t)︸ ︷︷ ︸0

= m(t) ­ X(f) = M(f)

H(f) può essere considerato a banda stretta:

H(f) = Aejβ(f)rect(f − f0

2B

)+Aejβ(f)rect

(f + f0

2B

)

H(f) si trova eliminando le frequenze negative, moltiplicando tutto per 2 etraslando verso sinistra:

H(f) = 2Aejβ(f+f0)rect( f

2B

)

Page 37: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 33

A questo punto si hanno tutti gli elementi per calcolare Y (f):

Y (f) =12X(f)H(f) = AM(f) ejβ(f+f0)

Y +(f) = Y (f − f0) = AM(f − f0) ejβ(f)

Si applica Taylor per linearizzare la fase:β(f) = β(f0) + β′(f0)(f − f0) = −2πf0τf − 2πτg(f − f0)

Y +(f) = AM(f − f0)ej(−2πf0τf−2πτg(f−f0))

= Ae−j2πf0τf M(f − f0)e−j2πτg(f−f0)

y+(t) = Ae−j2πf0τf m(t− τg)ej2πf0t

y(t) = Re{y+(t)} = Am(t− τg)︸ ︷︷ ︸inviluppo

cos(2πf0 (t− τf )︸ ︷︷ ︸portante

) (3.11)

L'equazione (3.11) esprime un risultato importante infatti, nonostante il seg-nale sia distorto, a causa del fatto che τf > τg, tuttavia l'inviluppo, che è ciòche realmente interessa, è solo traslato.

3.2 Segnali aleatori complessi (processi a banda stret-ta)

Abbiamo visto che x(t) era reale, dunque la sua trasformata X(f) avevasimmetria hermitiana.Adesso invece trattiamo segnali complessi, quindi per far vedere che x+(k, t) =x(k, t) + jx(k, t) elimina le frequenze negative del segnale, non si può piùsfruttare la trasformata (perché non esiste), si deve quindi passare attraver-so l'autocorrelazione (nella quale si usa in coniugato, poiché si hanno segnalicomplessi):

Hxx(τ) = E[x(k, t + τ)x∗(k, t)]

Hx+x+(τ) = E[x+(k, t + τ)x+(k, t)∗]

= E[(x(k, t + τ) + jx(k, t + τ)

)(x(k, t)− jx(k, t)

)]

= Hxx(τ)− jHxx(τ) + jHxx(τ) + Hxx(τ)= 2Hxx(τ) + 2j Hxx(τ)︸ ︷︷ ︸

Hxx(τ)⊗h(τ)=Hxx(τ)

= 2Hxx(τ) + 2jHxx(τ)= 2H+

xx(τ)

Perché la trasformata di Hilbert é come il passaggio attraverso un sistemaLTI:

Page 38: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 34

Sxx(f) = Sxx(f)‖H(f)‖2 = Sxx(f)‖ − jsgn(f)‖2 = Sxx(f) · 1 ⇒⇒ Sxx(f) = Sxx(f) ⇒ Hxx(τ) = Hxx(τ).Invece Sxx(f) è immaginario dispari (perché è il prodotto di Sxx(f) che è realepari e di−jsgn(f) che è immaginario dispari) quindi la sua trasformata, ossiaHxx(τ) sarà reale dispari ⇒ Hxx(τ) = Hxx(−τ) = −Hxx(τ) .

Sx+x+(f) = 2Sxx(f) + 2jSxx(f)(− jsgn(f)

)

= 2Sxx(f) + 2Sxx(f)sgn(f)= 2Sxx(f)[1 + sgn(f)]= 2Sxx(f)2U(f)= 4Sxx(f)U(f)

Hxx(τ) = E[x(k, t + τ)x(k, t)∗]= E[x+(k, t + τ)−j2πf0(t+τ)x+(k, t)ej2πf0t]= Hx+x+(τ)e−j2πf0τ

Quindi:Sxx(f) = Sx+x+(f + f0)

In analogia con i risultati ricavati dalla rappresentazione analitica di seg-nali determinati a banda stretta, si introducono le componenti in fase e inquadratura di processi stocastici a banda stretta3:

xi(k, t) = x(k, t) · cos(2πf0t) + x(k, t) · sin(2πf0t)

xq(k, t) = −x(k, t) · sin(2πf0t) + x(k, t) · cos(2πf0t)(3.12)

Essendo anche le componenti in fase e in quadratura dei processi sto-castici, è innanzitutto necessario studiare la loro stazionarietà in senso latoipotizzando la stazionarietà in senso lato di x(k, t).

Teorema 1. Siano xi(k, t) e xq(k, t) le componenti in fase e quadratura diun processo x(k, t) a banda stretta, SSL e con µx = 0Allora:• xi(k, t) e xq(k, t) sono congiuntamente SSL

• Hxixi(τ) = Hxqxq(τ)

• Hxixq(τ) = −Hxqxq(τ)

• Sxixi(f) = Sxqxq(f) = (Sxx(f − f0) + Sxx(f + f0)) rect(

f2f0

)

• Sxixq(f) = −Sxqxi(f) = −j (Sxx(f − f0)− Sxx(f + f0)) rect(

f2f0

)

3La de�nizione di banda stretta si riferisce alla densità spettrale di potenza media Sxx.

Page 39: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 35

Dimostrazioni:

E[xi(k, t)] = E[x(k, t)] · cos(2πf0t) + E[x(k, t)] · sin(2πf0t)= µx · cos(2πf0t) + µx · sin(2πf0t)= 0

perché µx = 0 per ipotesi e µx = µxH0 è zero perché se è nullo l'ingresso alsistema LTI allora è nulla anche l'uscita.

E[xq(k, t)] = −E[x(k, t)] · sin(2πf0t) + E[x(k, t)] · cos(2πf0t)= −µx · sin(2πf0t) + µx · cos(2πf0t)= 0

Per quanto riguarda l'autocorrelazione della componente in fase si ha:

Hxixi(τ) = E[xi(k, t + τ)xi(k, t)]

= E[(x(k, t + τ) · cos(2πf0(t + τ)) + x(k, t + τ) · sin(2πf0(t + τ))

) ·

·(x(k, t) · cos(2πf0t) + x(k, t) · sin(2πf0t))]

= E[x(k, t + τ) · x(k, t) · cos(2πf0(t + τ)) · cos(2πf0t) ++ x(k, t + τ) · x(k, t) · sin(2πf0(t + τ)) · cos(2πf0t) ++ x(k, t + τ) · x(k, t) · cos(2πf0(t + τ)) · sin(2πf0t) ++ x(k, t + τ) · x(k, t) · sin(2πf0(t + τ)) · sin(2πf0t)

]

= Hxx(τ) · cos(2πf0(t + τ)) · cos(2πf0t) ++Hxx(τ) · sin(2πf0(t + τ)) · cos(2πf0t) ++Hxx(τ) · cos(2πf0(t + τ)) · sin(2πf0t) ++Hxx(τ) · sin(2πf0(t + τ)) · sin(2πf0t)

Occorre a questo punto fare delle sempli�cazioni tenendo conto dei legamiesistenti fra le correlazioni.

La densità spettrale di potenza media del processo x(k, t) è così de�nita:

Sxx(f) = Sxx(f) · ‖ H(f) ‖2

︸ ︷︷ ︸‖−j sgn(f)‖2=1

= Sxx(f) ⇒ Hxx(τ) = Hxx(τ)

Per la cross-correlazione si ha:

Hxx(τ) = Hxx(−τ)

Inoltre:Sxx(f) = Sxx(f) ·H(f) = −j sgn(f) · Sxx(f).

Page 40: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 36

Ma essendo Sxx pari e H(f) immaginaria dispari (perché risposta in fre-quenza di un sistema LTI che applica la trasformata Hilbert), si ha cheSxx è immaginaria dispari, cioè che Hxx è reale dispari (per le proprietà disimmetria della trasformata di Fourier). Quindi:

Hxx(−τ) = −Hxx(τ)

Applicando le sempli�cazioni ricavate si ottiene che:

Hxixi(τ) = Hxx(τ) · cos(2πf0τ) + Hxx(τ) · sin(2πf0τ) (3.13)

e quindi xi(k, t) è stazionario in senso lato.Per quanto riguarda la autocorrelazione della componente in quadratura

si fa un ragionamento analogo:

Hxqxq(τ) = E[xq(k, t + τ)xq(k, t)]

= E{[− x(k, t + τ) · sin(2πf0(t + τ)) + x(k, t + τ) · cos(2πf0(t + τ))

·[− x(k, t) · sin(2πf0t) + x(k, t) · cos(2πf0t)

]}

= Hxx(τ) · sin(2πf0(t + τ)) · sin(2πf0t) +−Hxx(τ) · sin(2πf0(t + τ)) · cos(2πf0t) +−Hxx(τ) · cos(2πf0(t + τ)) · sin(2πf0t) ++Hxx(τ) · cos(2πf0(t + τ)) · cos(2πf0t)

= Hxx(τ)[sin(2πf0(t + τ)) · sin(2πf0t) + cos(2πf0(t + τ)) · cos(2πf0t)] ++Hxx(τ)[sin(2πf0(t + τ)) · cos(2πf0t)− cos(2πf0(t + τ)) · sin(2πf0t)]

= Hxx(τ) · cos(2πf0τ) + Hxx(τ) · sin(2πf0τ)

Quindi anche la componente xq(k, t) è stazionaria in senso lato.Inoltre si è veri�cato che : Hxixi(τ) = Hxqxq(τ)

Page 41: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 37

Con accorgimenti simili, si veri�ca la mutua stazionarietà fra xi(k, t) exq(k, t):

Hxixq(τ) = E[xi(k, t + τ)xq(k, t)]

= E{[

x(k, t + τ) · cos(2πf0(t + τ)) + x(k, t + τ) · sin(2πf0(t + τ))]·

·[− x(k, t) · sin(2πf0t) + x(k, t) · cos(2πf0t)

]}

= −Hxx(τ) · cos(2πf0(t + τ)) · sin(2πf0t) ++Hxx(τ) · cos(2πf0(t + τ)) · cos(2πf0t) +−Hxx(τ) · sin(2πf0(t + τ)) · sin(2πf0t) ++Hxx(τ) · sin(2πf0(t + τ)) · cos(2πf0t)

= Hxx(τ)[− cos(2πf0(t + τ)) · sin(2πf0t) + sin(2πf0(t + τ)) · cos(2πf0t)] +−Hxx(τ)[cos(2πf0(t + τ)) · cos(2πf0t) + sin(2πf0(t + τ)) · sin(2πf0t)]

= Hxx(τ) · sin(2πf0τ)−Hxx(τ) · cos(2πf0τ)

Poiché Hxx(τ) · sin(2πf0τ) è dispari (perché prodotto di un segnale pari peruno dispari) e −Hxx(τ) · cos(2πf0τ) è dispari (perché prodotto di un segnaledispari per uno pari), allora Hxixq(τ) è dispari, quindi:

Hxixq(τ) = Hxqxi(−τ) = −Hxixq(τ)

Inoltre, dato che Hxixq(τ) è dispari, allora Hxixq(0) = 0. Questo indicache ad istanti di tempo corrispondenti, la componente in fase e la compo-nente in quadratura sono scorrelate (se fossero gaussiane sarebbero ancheindipendenti).

Vadiamo adesso la densità spettarale di potenza media:

Sxixi(f) = F{Hxixi(τ)}= F{Hxx(τ) · cos(2πf0τ) + Hxx(τ) · sin(2πf0τ)}=

Sxx(f − f0) + Sxx(f + f0)2

+Sxx(f − f0)− Sxx(f + f0)

2j

=Sxx(f − f0) + Sxx(f + f0)

2+

[−jsgn(f − f0)Sxx(f − f0) + jsgn(f + f0)Sxx(f + f0)2j

]

=12

[Sxx(f − f0)

(1− sgn(f − f0)

)+ Sxx(f + f0)

(1 + sgn(f + f0)

)]

= Sxx(f − f0)U(−(f − f0)) + Sxx(f + f0)U(f + f0)

=[Sxx(f − f0) + Sxx(f + f0)

]rect

( f

2f0

)

Essendo Hxixi(τ) = Hxqxq(τ) ⇒ Sxixi(f) = Sxqxq(f) e la conseguenza imme-diata è che:

Pxi = Pxq = Px

Page 42: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 38

dove la potenza è l'integrale in frequenza, oppure si può de�nire anche comel'autocorrelazione in zero ed infatti Hxixi(0) = Hxx(0) · 1 + 0 ⇒ Pxi = Px

La densità spettrale di potenza media incrociata:

Sxixq(f) = F{Hxixq(τ)}= F{Hxx(τ) · sin(2πf0τ)−Hxx(τ) · cos(2πf0τ)}=

Sxx(f − f0)− Sxx(f + f0)2j

−(Sxx(f − f0) + Sxx(f + f0)

2

)

=Sxx(f − f0)− Sxx(f + f0)

2j−

[−jsgn(f − f0)Sxx(f − f0)− jsgn(f + f0)Sxx(f + f0)2

]

=12j

[Sxx(f − f0)− Sxx(f + f0)− sgn(f − f0)Sxx(f − f0)− sgn(f + f0)Sxx(f + f0)

]

=12j

[Sxx(f − f0)

(1− sgn(f − f0)

)− Sxx(f + f0)

(1 + sgn(f + f0)

)]

=12j

[Sxx(f − f0)U(−(f − f0))− Sxx(f + f0)U(f + f0)

]

= −j[Sxx(f − f0)− Sxx(f + f0)

]rect

( f

2f0

)

Inoltre:Sxixq(f) = −Sxqxi(f)

perché Sxixq(f) = F{Hxixq(τ)} = −F{Hxqxi(τ)} = −Sxqxi(f).

3.2.1 Cifra di rumore introdotta dal demodulatore DSBConsideriamo il demodulatore in �gura 3.2:

Figura 3.2: Schema del demodulatore

Il segnale di ingresso è:

x(k, t) cos(2πf0t−Θ) + n(k, t) (3.14)

dove x(k, t) è il segnale modulante, n(k, t) è un rumore bianco, Θ è un ritardocasuale, distribuito uniformemente tra 0 e 2π, indipendente da x(k, t).Il segnale di uscita, ossia il segnale demodulato, lo indichiamo con y(k, t).

Page 43: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 39

Demodulazione sincronaAll'uscita del �ltro passa banda, il segnale sarà moltiplicato per un coseno

traslato (3.15).cos(2πf0t−Θ) (3.15)

Nel caso in cui si abbia demodulazione sincrona tale coseno sarà traslato diun ritardo casuale Θ uguale a quello del segnale in ingresso al demodulatore.Quindi avremo due Θ aleatori, ma tra loro uguali.

L' obiettivo è calcolare la cifra di rumore (NF, dall'inglese Noise Figure),che è de�nita come:

NF =SNRin

SNRout(3.16)

La potenza di segnale in ingresso è:

Si = E[(x(k, t) cos(2πf0t−Θ))2]= E[x2(k, t)]E[cos2(2πf0t−Θ)]

= Px E

[1 + cos(4πf0t−Θ)

2

]

=Px2

Invece la potenza di rumore è:

Ni =N0

2· 2B = N0B

Quindi:SNRin =

Si

Ni=

Px2N0B

(3.17)

La potenza di segnale in uscita Su si calcola mettendo in ingresso so-lo il segnale. In uscita dal �ltro passa banda, si ritrova di nuovo il segnalex(k, t) cos(2πf0t−Θ); si moltiplica per il coseno e si ottiene x(k, t) cos2(2πf0t−Θ) cioè x(k,t)

2 (1 + cos(4πf0t− 2Θ)). Il �ltro passa basso elimina la com-ponenete a 2f0 quindi l'uscita sarà: y(k, t) = x(k,t)

2 . Allora la potenza disegnale in uscita è:

Su = E[y2(k, t)] = E

[(x(k, t)

2

)2]

=14E[x2(k, t)] =

Px4

La potenza di rumore in uscita si calcola mettendo in ingresso solo ilrumore n(k, t) che è bianco ed ha ampiezza costante Sνν(f) = N0

2 . All'uscitadel �ltro passa banda si avrà il segnale ν(k, t) che è costituito da due rectalti N0

2 e larghi 2B, uno centrato in −f0 e l'altro in f0. Per trattare questosegnale si ricorre la scomposizione in fase e quadratura:

ν(k, t) = νi(k, t) cos(2πf0t)− νq(k, t) sin(2πf0t)

Page 44: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 40

Moltiplicando per il coseno si ottiene:

ν ′(k, t) = νi(k, t) cos(2πf0t) cos(2πf0t−Θ)− νq(k, t) sin(2πf0t) cos(2πf0t−Θ)

=νi(k, t)

2[cos(4πf0t) + cos Θ]− νq(k, t)

2[sin(4πf0t)− sin(−Θ)]

E' noto che − sin(−Θ) = sin(Θ); inoltre il �ltro passa basso elimina lecomponenti a 2f0, dunque rimane:

y(k, t) =νi(k, t)

2cos(Θ)− νq(k, t)

2sin(Θ)

Allora la potenza di rumore in uscita sarà:

Nu = E[y2(k, t)] = E

[(νi(k, t)

2cos(Θ)− νq(k, t)

2sin(Θ)

)2]

=14

{E[ν2

i (k, t) cos2(Θ)]E[ν2q (k, t) sin2(Θ)]− 2E[νi(k, t)νq(k, t) cos(Θ) sin(Θ)]

}

=14

{PνE[cos2(Θ)] + PνE[sin2(Θ)]

}

=Pν

4E[cos2(Θ) + sin2(Θ)]

=Pν

4

Pν è l'area dei due rect alti N02 , larghi 2B, centrati rispettivamente in −f0 e

f0, quindi:Nu =

4= 2

(N0

2· 2B

)14

=N0B

2

Allora:SNRout =

Su

Nu=

Px2N0B

(3.18)

Quindi la cifra di rumore (eq.(3.16)) sarà:

NF =SNRin

SNRout= 1 (3.19)

Demodulazione asincronaNel caso in cui si abbia demodulazione asincrona, il coseno (3.20) che

moltiplica il segnale in uscita dal �ltro passa banda, sarà traslato di un ri-tardo casuale ϕ distribuito uniformemente tra 0 e 2π, indipendente da Θ.

cos(2πf0t− ϕ) (3.20)L' obiettivo è calcolare la cifra di rumore e confrontarla con quella relativaalla modulazione sincrona.

Page 45: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 3. 41

Il rapporto segnale-rumore in ingresso sarà ovviamente uguale a quello cal-colato per la modulazione sincrona (vedi equazione(3.17)):

SNRin =Px

2N0B

Anche la potenza di rumore in uscita Nu sarà uguale a quella calcolataprecedentemente:

Nu =N0B

2Invece la potenza di segnale in uscita è diversa rispetto al caso del mo-dulatore sincrono. In uscita dal �ltro passa banda, si ritrova di nuovo ilsegnale x(k, t) cos(2πf0t−Θ).Si moltiplica per il coseno e si ottiene x(k, t) cos(2πf0t−Θ) cos(2πf0t− ϕ),cioè x(k,t)

2 (1 + cos(4πf0t−Θ− ϕ) + cos(Θ− ϕ)).Il �ltro passa basso elimina la componenete a 2f0 quindi l'uscita sarà:y(k, t) = x(k,t)

2 cos(Θ− ϕ).Allora la potenza di segnale in uscita è:

Su = E[y2(k, t)] =14E[x2(k, t)]E[cos2(Θ−ϕ)] =

14PxE

[1 + cos(2Θ− 2ϕ)

2

]=

Px8

Quindi il rapporto segnale rumore in uscita sarà:

SNRout =Su

Nu=

Px4N0B

(3.21)

Quindi la cifra di rumore (eq.(3.16)) sarà:

NF =SNRin

SNRout= 2 (3.22)

ossiaSNRout =

SNRin

2ciò denota che usando la modulazione asincrona si riceve una potenza che èin media 3dB inferiore. Possono capitare collagamenti particolari in cui adesempio Θ − ϕ = π

2 e il tal caso non si riceve nulla, oppure Θ − ϕ = 0 eil tal caso si riceve tutto; ma in media (media di insieme) si ricevono 3dBin meno. Può succedere che Θ oppure ϕ varino nel tempo: consideriamoun dispositivo radiomobile in mano ad una persona che cammina. In questocaso il percorso dell'onda cambia di volta in volta. Supponiamo di avereun Θ(t) che vari lentamente rispetto al resto: la media d' insieme la si puòvedere come una media temporale quindi si potrebbe avere un collegamentoche in certi momenti va bene e in altri va male ma, in media, si riceveranno3dB in meno. Se invece si avesse un Θ(t) che varia velocemente, allora siavrebbe un segnale distorto.

Page 46: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

Capitolo 4

Processi ciclostazionari

Nella realtà abbiamo a che fare con dei processi che non sono stazionari:

• x(k, t) cos(2πf0t) non è stazionario;

• ∑k Akrect

(t−kT

T

)(onda quadra casuale) non è stazionario.

Invece:

• x(k, t) cos(2πf0t− θ) è stazionario;

• ∑k Akrect

(t−kT

T − τ)è stazionario.

Fino ad ora abbiamo parlato di processi SSL (Stazionari in Senso Lato);introduciamo adesso altre de�nizioni e teoremi a riguardo.

Stazionarietà in Senso Stretto (SSS)Un processo si dice stazionario in senso stretto (SSS) se la caratteriz-

zazione completa non cambia se c'è traslazione nell'asse temporale:

fx(k,t1)...x(k,tn)(x1, . . . , xn) = fx(k,t1+c)...x(k,tn+c)(x1, . . . , xn) (4.1)

La (4.1) deve valere per qualsiasi n, qualsiasi istante di campionamentot1, t2 . . . tn e qualsiasi traslazione c

Ciclo-Stazionarietà in Senso Stretto (CSSS)Un processo si dice ciclostazionario in senso stretto (CSSS) quando la

variazione è periodica, cioè la densità di probabilità cambia, ma in manieraperiodica:

∃ T : fx(k,t1)...x(k,tn)(x1, . . . , xn) = fx(k,t1+T )...x(k,tn+T )(x1, . . . , xn) (4.2)

La (4.2) deve valere per qualsiasi n, qualsiasi istante di campionamentot1, t2 . . . tn e deve essere vera per un particolare periodo T e per i suoi mul-tipli: 2T, 3T , ecc..

42

Page 47: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 43

Va precisato che non è che il segnale si ripete, perchè in tal caso esso sarebbedeterminato, non aleatorio. E' la densità di probabilità che si ripete per unparticolare periodo T, cioè è la caratterizzazione statistica che si ripete inmaniera periodica.

Teorema: Sia x(k, t) CSSS di periodo T, sia θ una variabile aleatoriaindipendente da x(k, t) e distribuita uniformemente in [0, T ]. De�nito:

x(k, t) = x(k, t− θ) SSS

fx(k,t1)...x(k,tn)(x1, . . . , xn) =1T

∫ T

0fx(k,t1−α)...x(k,tn−α)(x1, . . . , xn)dα

Il concetto di base è che, preso un qualsiasi processo CSSS x(k, t), è possibilecostruire un processo SSS x(k, t) tale che la sua densità di probabilità èuguale alla media sul periodo della densità di probabilità del processo dipartenza. Quindi conviene studiare il processo x(k, t) che è stazionario.

Dimostrazione: Si vuole far vedere che x(k, t) è SSS, allora bisognadimostrare che fx(k,t1+c)x(k,t2+c)...x(k,tn+c)(x1, x2, . . . , xn) non dipende da c.Questa dimostrazione si fa sulla distribuzione di probabilità F.

Fx(k,t1+c)...x(k,tn+c)(x1, x2, . . . , xn) == Pr{x(k, t1 + c) ≤ x1, · · · ≤ x(k, tn + c) ≤ xn} == Pr{x(k, t1 − θ + c) ≤ x1, · · · ≤ x(k, tn − θ + c) ≤ xn} =

=∫

RPr{x(k, t1 − θ + c) ≤ x1, · · · ≤ x(k, tn − θ + c) ≤ xn/θ}fθ(θ)dθ =

=1T

∫ T

0Fx(k,t1−θ+c)...x(k,tn−θ+c)(x1, x2, . . . , xn)dθ =

=1T

∫ T−c

−cFx(k,t1−α)...x(k,tn−α)(x1, x2, . . . , xn)dα =

=1T

∫ T

0Fx(k,t1−α)...x(k,tn−α)(x1, x2, . . . , xn)dα

Perché si applica il teorema della probabilità totale. Inoltre la F, in α,è periodica di periodo T e l'integrale è in un intervallo largo un periodo,dunque gli estremi dell'integrale possono essere presi da 0 a T.

Ciclo-Stazionarietà in Senso Lato (CSSL)Un processo è CSSL se esiste T tale che il valor medio del processo è

periodico di periodo T per ogni t (4.3) e l'autocorrelazione è periodica inentrambi gli istanti di tempo t1 e t2 (4.4):

µx(t) = µx(t + T ) (4.3)

Hxx(t1, t2) = Hxx(t1 + T, t2 + T ) (4.4)

Page 48: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 44

Teorema: Sia x(k, t) = x(k, t− θ) SSL, allora:

µx = µx (4.5)

Hxx(τ) = Hxx(τ) (4.6)dove:

µx =1T

∫ T

0µx(t)dt

e

Hxx(t1, t2) =1T

∫ T

0Hxx(t1 + α, t2 + α︸ ︷︷ ︸

u

) dα

=1T

∫ t2+T

t2

Hxx(t1 − t2︸ ︷︷ ︸τ

+u, u) du

=1T

∫ T

0Hxx(τ + u, u) du = Hxx(τ)

Dimostrazione:

µx = E[x(k, t)] = E[x(k, t− θ)]

=∫

RE[x(k, t− θ/θ)]fθ(θ)dθ

=1T

∫ T

0µx(t− θ︸ ︷︷ ︸

u

)dθ

=1T

∫ t

tT

µx(u)du

=1T

∫ T

0µx(u)du

= µx

Hxx(τ) = E[x(k, t + τ)x(k, t)] = E[x(k, t + τ − θ) + x(k, t− θ)]

=1T

∫ T

0E[x(k, t + τ − θ) + x(k, t− θ)/θ]dθ

=1T

∫ T

0Hxx(t + τ − θ, t− θ︸ ︷︷ ︸

u

)dθ

=1T

∫ t

t−THxx(u + τ, u)du

=1T

∫ T

0Hxx(u + τ, u)du

= Hxx(τ)

Page 49: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 45

Sistema LTI con segnale di ingresso non stazionarioSi consideri lo lo schema in �gura 4.1:

Figura 4.1: sistema LTI con ingresso ciclostazionario

Quando l'ingresso al sistema LTI non è stazionario, le relazioni ingresso-uscita del sistema sono la (4.7) e la (4.8):

µy(t) = µx(t)⊗ h(t) (4.7)

dimostrazione:

µy(t) = E[y(k, t)] = E

[∫ +∞

−∞h(t− τ)x(k, τ)dτ

]

=∫ +∞

−∞h(t− τ)E[x(k, τ)]dτ =

∫ +∞

−∞h(t− τ)µx(τ)dτ

= h(t)⊗ µx(t)

Hyy(t1, t2) = Hxx(t1, t2)⊗ h(t1)⊗ h(t2) (4.8)dimostrazione:

Hyy(t1, t2) = E[y(k, t1)y(k, t2)]

= E

[∫ +∞

−∞h(t1 − τ1)x(k, τ1)dτ1

∫ +∞

−∞h(t2 − τ2)x(k, τ2)dτ2

]

=∫∫ +∞

−∞h(t1 − τ1)h(t2 − τ2)E[x(k, τ1)x(k, τ2)]dτ1dτ2

=∫∫ +∞

−∞h(t1 − τ1)h(t2 − τ2)Hxx(τ1, τ2)dτ1dτ2

=∫ +∞

−∞h(t2 − τ2)

[∫ +∞

−∞h(t1 − τ1)Hxx(τ1, τ2)dτ1

]dτ2

=∫ +∞

−∞h(t2 − τ2) ·Hxx(t1, τ2)⊗ h(t1) dτ2

= h(t1)⊗∫ +∞

−∞h(t2 − τ2)Hxx(t1, τ2) dτ2

= h(t1)⊗ h(t2)⊗Hxx(t1, t2)

Page 50: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 46

Dalla (4.7) e dalla (4.8) si dimostra che il processo di uscita, y(k, t), èciclostazionario, infatti:

µy(t) = µx(t)⊗ h(t) ⇒ µy(t) =∫

Rµx(t− τ)h(τ)dτ

⇒ µy(t + τ) =∫

Rµx(t + τ − τ)h(τ)dτ

⇒ µy(t + τ) = µx(t)H(0)

quindi y(k, t) è ciclostazionaria in media, inoltre:

Hyy(t1, t2) = Hxx(t1, t2)⊗ h(t1)⊗ h(t2)

⇒ Hyy(t1, t2) =∫

R

(∫

RHxx(t1 − τ, t2 − τ)⊗ h(τ1)dτ1

)h(τ2)dτ2

da qui si vede che Hxx è periodica di periodo T in t1, t2, allora anche la Hyyè periodica di periodo T in t1, t2, quindi è dimostrato che l'uscita y(k, t) èciclostazionaria.

Riassumendo, se in ingresso ad un sistema LTI vi è un processo x(k, t)ciclostazionario, è stato dimostrato che anche l'uscita y(k, t) è un processociclostazionario.

Considerando i segnali stazionari associati, ossia riferendoci alla �gura4.2:

Figura 4.2: sistema LTI con ingresso stazionario

dove:- x(k, t) = x(k, t− θ)- y(k, t) = y(k, t− θ)

si arriva a concludere che:

Syy(f) = Sxx(f)‖H(f)‖2

︸ ︷︷ ︸processi stazionari

⇒ Syy(f) = Sxx(f)‖H(f)‖2

︸ ︷︷ ︸processi ciclostazionari

(4.9)

Page 51: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 47

4.1 Modulazioni numericheL' obiettivo è studiare lo spettro di questo processo:

x(k, t) =∑

n

Cng(t− nT ) (4.10)

dove:• Cn è una sequenza di variabili aleatorie SSL:=⇒

{E[Cn] = µc, (non dipende da n);E[Cn+kCn] = Hxx(k), (non dip. da n, dip. solo dalla distanza delle v.a.).

Questi Cn possono essere +1,−1, +1, . . . oppure possono essere altri valori,oppure variabili aleatorie continue.• g(t − nT ) è l'impulso che si usa: rect, oppure tr, oppure coseno rialzato.Non è necessario che l'impulso duri quanto il tempo di bit: può essere anchepiù largo di [−Tb, Tb] e in quel caso si avrà interferenza intersimbolica.• Non si suppone più che le ampiezze di impulsi successivi siano tra loroscorrelate (infatti non si dice che Hxx(k) debba essere zero); è possibile avereuna correlazione, come nel caso dell'esempio del fax: i bianchi (1) sono moltopiù frequenti dei neri (0) e inoltre, poichè le lettere hanno uno spessore, dopoaver ricevuto un bit nero è altamente probabile riceverne un altro nero.• Si dimostra che x(k, t) =

∑n Cng(t− nT ) è ciclostazionario:

µx(t) =∑

n

µc g(t− nT ) (4.11)

µx(t + T ) =∑

n

µc g(t + T − nT ) (4.12)

La (4.11) e la (4.12) sono uguali quindi il processo è ciclostazionario in media.

Hxx(t1, t2) = E

[∑n

Cng(t1 − nT )∑m

Cmg(t2 −mT )

]

=∑

n

∑m

E[CnCm]g(t1 − nT )g(t2 −mT )

=∑

n

∑m

Hcc(n−m︸ ︷︷ ︸k

)g(t1 − nT )g(t2 −mT )

=∑

k

∑m

Hcc(k)g(t1 −mT − kT )g(t2 −mT )

Hxx(t1 + T, t2 + T ) =∑

n

∑m

Hcc(k)g(t1 +T −mT︸ ︷︷ ︸1−m=−l

−kT )g(t2 + T −mT )

=∑

k

l

Hcc(k)g(t1 − lT − kT )g(t2 − lT )

Page 52: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 48

Poichè il processo è anche ciclostazionario in correlazione, allora è ciclostazionario.• Si consideri il processo stazionario associato:x(k, t− θ) =

∑n Cng(t−nT − θ) con θ uniforme in [0, T ] e indipendente da

Cn.

µx =∑

n

E[Cng(t− nT − θ)]

=∑

n

µcE[g(t− nT − θ)]

= µc

∑n

1T

∫ T

0g(t− nT − θ︸ ︷︷ ︸

u

)dθ

= µc

∑n

1T

∫ t−nT

t−nT−Tg(u)du

=µc

T

Rg(u)du

=µc

TG(0)

Hxx(τ) = E[x(k, t + τ − θ)x(k, t− θ)]

= E

[∑n

Cng(t− nT + τ − θ)Cmg(t−mT − θ)

]

=∑

n

∑m

E[CnCm]E[g(t− nT + τ − θ)g(t−mT − θ)]

=∑

n

∑m

Hcc(n−m︸ ︷︷ ︸k

)1T

∫ T

0g(t− nT + τ − θ)g(t−mT − θ)dθ

=∑

k

∑m

Hcc(k)1T

∫ T

0g(t− nT + τ − θ)g(t−mT − θ︸ ︷︷ ︸

u

)dθ

=∑

k

Hcc(k)T

∑m

∫ t−mT

t−mT−Tg(u− kT + τ)g(u)du

=∑

k

Hcc(k)T

Rg(u− kT = τ)g(u)du

=∑

k

Hcc(k)Rg(τ − kT )T

Page 53: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 49

Sxx(f) = F{Hxx(τ)}

= F

{∑

k

Hcc(k)Rg(τ − kT )T

}

=1T

k

Hcc(k) ‖ G(f) ‖2 e−j2πfkT

=‖ G(f) ‖2

T

k

Hcc(k)e−j2πfkT

=‖ G(f) ‖2

TScc(f)

Quindi si ottiene un importante risultato:

Sxx(f) =Scc(f) ‖ G(f) ‖2

T(4.13)

dove Scc(f) è la densità di potenza media della sequenza Cn, cioè più i Cn

sono correlati, più lo spettro Scc(f) sarà stretto; ‖ G(f) ‖2 è la densitàspettrale di energia dell'impulso.

4.2 Modulazioni in banda base4.2.1 Modulazione NRZ

La modulazione NRZ (Non Ritorno a Zero) è chiamata così perché, ap-pena �nito l'impulso, non c'è alcun ritorno a zero prima che arrivi l'impulsosuccessivo. Si consideri l'onda quadra casuale:

x(k, t)NRZ =∑

n

Anrect

(t− nT

T

)dove An i.i.d.

L'obiettivo è calcolare:

Sxx(f) =SAA(f) ‖ G(f) ‖2

TNel caso in esame:

g(t) = rect

(t

T

)­ G(f) = Tsinc(Tf) ⇒‖ G(f) ‖2= T 2sinc2(fT )

HAA(k) = E[An+kAn] = µ2A + σ2

Aδk ={

µ2A + σ2

A per k=0;µ2

A per k 6= 0. (4.14)

SAA(f) =∑

k

HAA(k)e−j2πfkT =∑

k

(µ2A + σ2

Aδk)e−j2πfkT

= µ2A

k

e−j2πfkT + σ2A

k

δke−j2πfkT

=µ2

A

T

∑n

δ(f − n

T

)+ σ2

A (4.15)

Page 54: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 50

Sxx(f) =SAA(f) ‖ G(f) ‖2

T=

[σ2

A + µ2A

1T

∑n

δ(f − n

T

)]T 2sinc2(fT )

T

= Tσ2Asinc2(fT ) + µ2

Aδ(f) (4.16)

Dalla (4.21) si osserva l'esistenza di una delta nell'origine, dunque la presenzadi potenza in continua. Se non si vuole avere potenza in continua bisognaporre µ2

A = 0.Le altre delta sono posizionate dove il sinc vale 0, quindi si annullano.La banda null-to-null (ossia il lobo principale) è 1

T , dove T è il tempo di bit.La banda sarebbe in�nita ma, a causa della presenza del sinc2, tende a 0come 1

f2 , quindi abbastanza velocemente.

Figura 4.3: Spettro modulazione NRZ

4.2.2 Modulazione RZLa modulazione RZ (Ritorno a Zero) è illustrata in �gura 4.4. Ovvia-

mente questa modulazione si sincronizza con più facilità perché si conosceesattamente dove �nisce un impulso e dove comincia il successivo. In questocaso però gli implusi hanno una durata che è metà del periodo T, quindi sideve considerare un'onda quadra casuale così fatta:

x(k, t)RZ =∑

n

Anrect

(t− nT

T2

)

dove il T a numeratore si riferisce al periodo, ossia alla slottizzazione del tem-po, cioè il tempo di bit; invece il T a denominatore si riferisce alla lunghezzadel rect.

g(t) = rect

(tT2

)­ G(f) = Tsinc

(T

2f

)⇒‖ G(f) ‖2=

T 2

4sinc2

(f

T

2

)

La HAA(k) è uguale alla (4.39), quindi anche la SAA(f) è uguale alla (4.15).

Page 55: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 51

Allora:

Sxx(f) =SAA(f) ‖ G(f) ‖2

T=

[σ2

A + µ2A

1T

∑n

δ(f − n

T

)]T 2

4Tsinc2

(f

T

2

)

= σ2A

T

4sinc2

(f

T

2

)+ µ2

A

∑n

δ(f − n

T

)sinc2

(n

2

)(4.17)

Dalla (4.17) si osserva che si hanno delle delta per gli n dispari (per n pari,si annullano a causa del sinc2). Tali delta da un lato sono svantaggiose, madall'altro servono a sincronizzare, possono servire a recuperare il rate. Sead esempio il soggetto si sta muovendo, il tempo di bit potrebbe non esserenoto a causa dell'e�etto doppler.Le banda null-to-null è 2

T , quindi è il doppio di quella che sia aveva nel casodella modulazione NRZ.

Figura 4.4: Spettro modulazione RZ

Confronto tra la modulazione NRZ e RZPossiamo riassumere il confronto analizzando tre punti:

• sincronizzazione −→ si sincronizza meglio la modulazione RZ;

• probabilità di errore −→ è la stessa per entrambe le modulazioni. In-fatti tale probabilià dipende solo dall'energia che viene associata al bit,che però è la stessa sia per la modulazione NRZ che RZ;

• banda −→ con la modulazione RZ si ultilizza il doppio della banda.

Considerazioni di miglioramentoSarebbe utile che lo spettro andasse a zero più velocemente di 1

f2 perchéin questo modo, trascurare i lobi secondari del sinc2, signi�cherebbe perderemeno informazione.Per far andare lo spettro più velocemente a zero, bisogna eliminare le dis-continuità.

Page 56: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 52

Consideriamo un impulso triangolare:

x(k, t) =∑

n

Antr

(t− nT

T

)(4.18)

g(t) = tr

(t

T

)­ G(f) = Tsinc2(fT ) ⇒ ‖G(f)‖2 = T 2sinc4(fT )

SAA(f) = F{µ2A + σ2

Aδk} =µ2

A

T

∑n

δ(f − n

T

)+ σ2

A

Sxx(f) =SAA(f) ‖ G(f) ‖2

T=

[µ2

A

T

∑n

δ(f − n

T

)+ σ2

A

]T 2sinc4(fT )

T

= Tσ2Asinc4(fT ) + µ2

Aδ(f) (4.19)

In questo caso si ha una delta solamente nell'origine e inoltre lo spettro va azero come 1

f4 .Però il tempo di bit è T, ma il triangolo dura 2T , allora si ha interferenzaintersimbolica.

Per ovviare al problema dell'interferenza intersimbolica, che causerebbedei problemi nella sincronizzazione, si ricorre all'uso di un impulso più stret-to.

Consideriamo un impulso triangolare più stretto:

x(k, t) =∑

n

Antr

(t− nT

T2

)(4.20)

g(t) = tr

(tT2

)­ G(f) =

T

2sinc2

(f

T

2

)⇒ ‖G(f)‖2 =

T 2

4sinc4

(f

T

2

)

SAA(f) = F{µ2A + σ2

Aδk} =µ2

A

T

∑n

δ(f − n

T

)+ σ2

A

Sxx(f) =SAA(f) ‖ G(f) ‖2

T=

[µ2

A

T

∑n

δ(f − n

T

)+ σ2

A

]T 2sinc4(fT )

4T

= σ2A

T

4sinc4

(f

T

2

)+

µ2A

4δ(f − n

T

)sinc4

(n

2

)(4.21)

Il sinc si annulla in 2T allora la banda è raddoppiata rispetto al caso prece-

dente. Per n dispari si hanno la delta, per n pari si annullano.Se si desidera uno spettro che vada a zero ancora più velocemente, occorre

un segnale più smooth. Si è considerato il rect, che è un segnale discontinuo,il triangolo, che è un segnale continuo ma con derivata discontinua. Allora

Page 57: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 53

adesso consideriamo un impulso coseno rialzato (rialzato perché almeno èsempre positivo) che è un segnale continuo e con derivata prima continua:

x(k, t) =12

[cos

(2πt

T

)rect

(t

T

)+ 1

](4.22)

Svolgendo i conti si arriva al risultato che:

G(f) =T2 sinc(fT )1− f2T 2

che per f →∞, va a zero come 1f3

Allora ‖G(f)‖2, per f → ∞, va a zero come 1f6 . Si osserva che il sinc si

annulla in 1T , ma lì si annulla anche il denominatore, allora si ha una forma

indeterminata. Quindi se ne deduce che il sinc si annulla per la prima voltain 2

T , poi in 3T , etc. Quindi anche in qeusto caso, la banda è allargata.

Andrebbe trovato il compromesso migliore, ossia segnale smooth ma cheabbia spettro che non si allarghi troppo.

4.2.3 Codici duobinariFino ad adesso abbiamo lavorato su G(f), dunque nell'analogico; adesso

lavoriamo su Scc(f), dunque sul numerico.Si consideri An i.i.d. e per ipotesi si supponga µA = 0 e σ2

A = 1. Conqueste variabili aleatorie si formino due nuove sequenze ossia i cosiddetti cod-ici duobinari. Nel fare ciò si intoduce una correlazione e dunque si introducememoria.

Cn = An + An−1 (4.23)Cn = An −An−1 (4.24)

Per entrambi i codici (4.23) (4.24), l'impulso è rappresentato da:

g(t) = rect( t

T

)­ G(f) = Tsinc(fT ) (4.25)

Si calcola la correlazione dei coe�cienti e poi la densità spettrale di potenzamedia del processo per quanto riguarda il codice (4.23):

Hcc(k) = E[Cn+kCn]= E[(An+k + An+k−1)(An + An−1)]= HAA(k) + HAA(k + 1) + HAA(k − 1) + HAA(k)= 2HAA(k) + HAA(k + 1) + HAA(k − 1)= 2(µ2

A + σ2Aδk) + µ2

A + σ2Aδk+1 + µ2

A + σ2Aδk−1

= 2δk + δk+1 + δk−1

Page 58: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 54

Scc(f) =∑

k

Hcc(k)e−j2πfkT

=∑

k

(2δk + δk+1 + δk−1)e−j2πfkT

= 2 + ej2πfT + e−j2πfT

= 2 + 2 cos(2πfT )

Sxx(f) =Scc(f)‖G(f)‖2

T

=2(1 + cos(2πfT ))T 2sinc2(fT )

T= Tsinc2(fT )4 cos2(πfT )

= 4Tsin2(πfT )(πfT )2

cos2 πfT

= 4Tsin2(πfT )(2πfT )2

= 4Tsinc2(2fT )

quindi Sxx(f) si annulla in 12T allora signi�ca che la banda si è dimezzata;

ciò è logico perché, introducendo memoria, si trasmette qualcosa che variameno.

Qui di seguito sono illustrati gli stessi calcoli per quanto riguarda inveceil codice (4.24)

Hcc(k) = E[Cn+kCn]= E[(An+k −An+k−1)(An −An−1)]= HAA(k)−HAA(k + 1)−HAA(k − 1) + HAA(k)= 2HAA(k)−HAA(k + 1)−HAA(k − 1)= 2(µ2

A + σ2Aδk)− (µ2

A + σ2Aδk+1)− (µ2

A + σ2Aδk−1)

= 2δk − δk+1 − δk−1

Scc(f) =∑

k

Hcc(k)e−j2πfkT

=∑

k

(2δk − δk+1 − δk−1)e−j2πfkT

= 2− ej2πfT − e−j2πfT

= 2− 2 cos(2πfT )

Page 59: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 55

Sxx(f) =Scc(f)‖G(f)‖2

T

=2(1− cos(2πfT ))T 2sinc2(fT )

T= Tsinc2(fT )4 sin2(πfT )

E' presente un sinc2 che moltiplica un sin2, allora l'origine va a zero. Ciò èimportante perché questo codice duobinario, lasciando la banda inalterata,permette di non avere componente in continua. Ci sono alcuni canali, comead esempio il �lo di rame telfonico, che azzerano la componente in continuae dunque distorcerebbero il segnale in caso esso avesse tale componente.Se invece si usa questo codice duobinario, non si hanno questi problemi didistorsione.

4.3 Modulazioni in banda passanteSono elencati adesso i vari tipi di modulazioni in banda passante, tenendo

presente questa relazione:

x(k, t) −→ x+(k, t) −→ x(k, t) (4.26)

infatti si studierà x(k, t)

4.3.1 M-PAMModulare M-PAM signi�ca prendere un coseno e modularlo in ampiezza

con M possibili livelli:

x(k, t) =∑

n

An g(t− nT ) cos(2πf0(t− nT )) (4.27)

infatti An è un valore fra m possibili valori.

x+(k, t) = x(k, t) + jx(k, t)

=∑

n

An g(t− nT )[cos(2πf0(t− nT )) + j sin(2πf0(t− nT ))]

=∑

n

An g(t− nT )ej2πf0(t−nT )

infatti x(k, t) è la trasformata di Hilbert di x(k, t); g(t − nT ) è un passabasso e quindi avrà una frequenza massima molto minore del coseno. Latrasformata di Hilbert di un passa basso per un passa banda è la trasformatadi Hilbert di un passa banda. Tale trasformata scambia la componente in

Page 60: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 56

fase con la componente in quadratura, quindi:x(k, t) =

∑n An g(t− nT ) sin(2πf0(t− nT )).

x(k, t) = x+(k, t)e−j2πf0t

=∑

n

An g(t− nT )ej2πf0t e−j2πf0nT︸ ︷︷ ︸1

e−j2πf0t

=∑

n

An g(t− nT )

Si dice che e−j2πf0nT = 1 perchè si suppone che f0T = L (dove f0 è lafrequenza della portante, T è il tempo di bit e L è un numero intero). Ciòvuol dire a�ermare che nel tempo di bit la portante ha un numero intero diperiodi. Tale ragionamento è logico perché prima si varia l'altezza dei g(t),poi si modula per il coseno, allora non ci importa della sincronia del tempodi bit perché poi si modula tutto insieme.

4.3.2 M-PSKLa M-PSK è una modulazione di fase:

x(k, t) =∑

n

g(t− nT ) cos(2πf0(t− nT )−Θn) (4.28)

dove Θn sono v.a. indipendenti identicamente distribuite (i.i.d.) ed in-oltre Θn = 2π

M i, con i = 0, 1, . . . , M − 1 cioè la fase può assumere M valoriequiprobabili.

x+(k, t) = x(k, t) + jx(k, t)

=∑

n

g(t− nT )[cos(2πf0(t− nT )−Θn) + j sin(2πf0(t− nT )−Θn)]

=∑

n

g(t− nT )ej(2πf0(t−nT )−Θn)

x(k, t) = x+(k, t)e−j2πf0t

=∑

n

g(t− nT )ej2πf0t e−j2πf0nT︸ ︷︷ ︸1

e−jΘn e−j2πf0t

=∑

n

g(t− nT )e−jΘn

quindi i coe�cienti che moltiplicano l'impulso in banda base sono esponen-ziali complessi.Si calcolia l'autocorrelazione dei coe�cienti per poi calcolarne la trasformatadi Fourier:

Hcc(k) = E[Cn+kC∗n] = E[e−jΘn+k ejΘn ] = δ(k) ­ Scc(f) = 1 (4.29)

Page 61: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 57

perché E[e−jΘn+k ejΘn ], per k = 0, vale banalmente 1. Invece per k 6= 0vale 0 infatti abbiamo E[e−jΘn+k ] E[ejΘn ] ed il secondo termine assomigliaad una DFT (Discrete Fourier Transform):

E[ejΘn ] =M−1∑

i=0

1M

ej 2πM

i =1M

M−1∑

i=0

ej 2πM

i (4.30)

E' noto che la DFT di x(k) è:

x(k) =1M

M−1∑

i=0

x(n)ej 2πM

nk (4.31)

A�nché l'espressione (4.30) sia uguale alla (4.31), bisogna porre k = 1 ex(n) = 1 quindi la (4.30) è la DFT di x(1). Poiché x(k) è una δ(k) allorax(1) è δ(1) che è uguale a 0.Dalla (4.29) si ottiene che:

Sxx(f) =Scc(f) ‖ G(f) ‖2

T=

1 ‖ G(f) ‖2

T(4.32)

L'equazione (4.32) evidenzia un risultato molto importante: la densità spet-trale di potenza media dipende solo dall'impulso, non dipende da M.

Riguardo ad M si possono fare alcune considerazioni importanti.Aumentare M vuol dire aumentare la velocità di trasmissione (ad esempio

se M=1024 allora si trasmettono log2 1024 = 10 bit) e ciò avviene senzasprecare banda perché, come abbiamo visto, la SM−PSK(f) non dipende daM. Ma aumentando M, anche la probabilità di errore aumenta infatti i puntiche delimitano le regioni di decisione, diventano tra loro più stretti. Tuttaviase M aumenta, anche l'energia E aumenta e poiché quest'ultima è data dalladistanza dei punti dall'origine, aumentare E vuol dire allargare il cerchio edunque aumentare la distanza tra i punti.Dunque da una parte si ha in�ttimento dei punti (conseguenza dell'aumentodi M), dall'altra si ha allargamento dei punti (conseguenza dell'aumento di Ecausato dall'aumento di M). In questo trade-o� ha più peso l'in�ttimento deipunti e dunque se i livelli aumentano allora l'energia aumenta, ma aumentaanche la probabilità di errore e quindi si dovrà aumentare la potenza che siutilizza in trasmissione:

M ↑ =⇒ E ↑ =⇒ Pe ↑ =⇒ P ↑ (4.33)

A tal proposito si osservi il gra�co 4.3.2 che illustra il bit rate raggiungibilelegato ad una certa potenza e ad una certa banda. La curva segna il cosid-detto limite di Shannon: la regione possibile è quella sotto la curva, la cosamigliore sarebbe stare sulla curva.

Per quanto riguarda la M-PSK, se M aumenta, i bit aumentano, ma labanda rimane la stessa allora nel gra�co ci si sposta verso l'alto; �ssando

Page 62: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 58

invece la probabilità di errore, se si aumenta M allora si aumenta Eb. Daqueste condiderazioni si ottiene la curva spezzata in �gura. Si dice che laM-PSK è una modulazione e�ciente in banda.

Per quanto concerne la FSK (Frequency Shift Keying) ossia la modu-lazione di frequenza, che però noi non trattiamo, a simboli diversi si assegnauna frequenza diversa. Allora se si desidera aumentare il numero di possibilisimboli, bisogna aumentare le frequenze disponibili: se M ↑ ⇒ B ↑. Mase M ↑ ⇒ Pe ↓ perché ogni volta che si aggiunge un simbolo bisogna au-mentare di una dimensione (con M simboli si arriva ad avere ipersfere). Perquesto motivo si dice che la modulazione FSK è e�ciente in potenza. maspreca banda. Il miglior compromesso banda-potenza è la codi�ca di canali.

4.3.3 D-PSKPer demodulare in maniera asincrona il PSK si usa la modulazione D-

PSK (Di�erential Phase Shift Keying), cioè si trasmette informazione nelladi�erenza tra due fasi:

x(k, t) =∑

n

g(t− nT ) cos(2πf0(t− nT )− ϕn) dove ϕn = θn − θn−1

(4.34)Questa di�erenza di fase ϕn mi fa perdere 3dB in potenza, ma la banda èuguale a quella che si aveva con la modulazione PSK:

SD−PSK(f) =Scc(f) ‖ G(f) ‖2

T=

1 ‖ G(f) ‖2

T(4.35)

Figura 4.5: Limite di Shannon: la regione possibile è quella sotto la curva ela cosa migliore sarebbe stare sulla curva

Page 63: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 59

infatti:

Hcc(k) = E[e−jϕn+k ejϕn ] = E[ejθn+k e−jθn+k−1 e−jθn ejθn−1 ] = δ(k) ­ Scc(f) = 1(4.36)

perché E[ejθn+k e−jθn+k−1 e−jθn ejθn−1 ] per k = 0 è banalmente 1; per k 6= 0vale 0 perché si ha indipendenza e allora il valor medio dei prodotti è ugualeal prodotto dei singoli valori medi che però sono nulli.

4.3.4 QAMSe si usa la modulazione QAM (Quadrature Amplitude Modulation) si

modula sia in fase che in ampiezza.Si possono scrivere due espressioni analitiche diverse, la prima è:

x(k, t) =∑

n

An g(t− nT ) cos(2πf0(t− nT )−Θn) (4.37)

dove An mi indica su quale circonferenza ci si trova e Θn ci fa muovere sulcerchio.L'altra espressione è:

x(k, t) =∑

n

[An g(t−nT ) cos(2πf0(t−nT )+Bn g(t−nT ) sin(2πf0(t−nT ))

]

(4.38)Analizziamo la (4.37):

x+(k, t) = x(k, t) + jx(k, t)

=∑

n

An g(t− nT )ej(2πf0(t−nT )e−jΘn

x(k, t) = x+(k, t)e−j2πf0t

=∑n

An g(t− nT )ej2πf0t e−j2πf0nT︸ ︷︷ ︸1

e−jΘn e−j2πf0t

=∑n

An g(t− nT )e−jΘn

Hcc(k) = E[An+ke−jθn+k Anejθn ] =

{E[A2] per k=0;0 per k 6= 0.

Page 64: Dispensedi TeoriadeiSegnaliAleatori - PANACEE projectclem.dii.unisi.it/~vipp/files/TdSA/DispenseTdSA.pdf · quella in probabilità, si lasciano fuori solamente quei processi che ad

CAPITOLO 4. 60

Analizziamo la (4.38):

x+(k, t) = x(k, t) + jx(k, t)

=∑

n

[Ang(t− nT ) cos(2πf0(t− nT )) + Bng(t− nT ) sin(2πf0(t− nT )) +

+jAng(t− nT ) sin(2πf0(t− nT ))− jBng(t− nT ) cos(2πf0(t− nT ))]

=∑

n

[Ang(t− nT )ej2πf0(t−nT ) + Bng(t− nT ) ·

·(

sin(2πf0(t− nT ))− j cos(2πf0(t− nT )))· j

j

]

=∑

n

[Ang(t− nT )ej2πf0(t−nT ) +

Bng(t− nT )j

ej2πf0(t−nT )]

=∑

n

(An − jBn)g(t− nT )ej2πf0(t−nT )

x(k, t) = x+(k, t)e−j2πf0t

=∑n

(An − jBn) ej2πf0t e−j2πf0nT︸ ︷︷ ︸1

g(t− nT ) e−j2πf0t

=∑n

(An − jBn) g(t− nT )

Hcc(k) = E[(An+k − jBn+k)(An + jBn)]= HAA(k) + jHAB(k)− jHBA(k) + HBB(k)= ( µ2

A︸︷︷︸0

+σ2Aδk) + ( µ2

B︸︷︷︸0

+σ2Bδk)

={

σ2A + σ2

B per k=0;0 per k 6= 0.

La modulazione QAM è e�ciente in banda; inoltre la QAM è più e�cientein potenza rispetto alla PSK perché se M ↑, R ↑, Pe ↑ ma aumenta menorispetto al PSK perché nella QAM c'è più spazio.