Progetto del ricevitore 1. Considerazioni generali Nelle descrizione delle tecniche di modulazione numerica in banda base e passa banda il progetto del ricevitore segue sempre regole di carattere generale: ricevere il segnale riducendo al minimo l’interferenza di intersimbolo e gli effetti del rumore. In realtà, date le differenti tecniche di modulazione e di canale possibili, non è detto che tale criterio del tutto generale possa essere anche l’ottimale, tenuto conto che si dovrebbe per lo meno quantificare gli effetti di una riduzione di interferenza di intersimbolo (ISI) e del rumore. Serve quindi un approccio più sistematico al progetto di un ricevitore numerico. Il segnale che giunge al ricevitore, supponendo tale segnale da solo (quindi per ora non consideriamo l’intersimbolo), si può riassumere come uno tra una collezione di segnali possibili (tutti quelli permessi dal sistema di modulazione) più del rumore (di natura statistica). Un semplice approccio potrebbe essere quindi quello di calcolare l’energia della differenza tra il segnale ricevuto e tutti i possibili modelli di segnale permesso nella costellazione e scegliere il segnale che dà luogo alla minima energia: Ei y(t ) si (t ) dt 2 (1) essendo y (t ) s j (t ) n(t ) il segnale ricevuto e si (t ) i 1,..., N la costellazione di segnali. Questo criterio, noto con il nome di criterio di minima energia, corrisponde anche al criterio di minima distanza se interpretato nello spazio dei vettori. In tale spazio la rappresentazione di ogni segnale è data da un vettore, la cui norma è la radice quadrata dell’energia di quel segnale. Secondo tale definizione quindi il segnale da scegliere è quello che si trova più vicino a quello della costellazione data. S4 S1 y S3 S2 Figura 1: esempio di decisione basato su minima distanza schematizzato nel piano dei simboli, per un QPSK Nell’esempio in figura, dato il tipo di costellazione presente, la scelta basata sul criterio a minima distanza è anche la scelta basata sul quadrante nel quale cade il segnale ricevuto y (t ) . Questo principio si basa sul fatto che il sistema di trasmissione numerico funzioni correttamente, cioè che l’evento errore sia abbastanza raro e che quindi la scelta di tale criterio si possa considerare ragionevole. Se la presenza del rumore fosse eccessiva infatti, accadrebbe raramente che il segnale della costellazione più vicino a quello ricevuto corrisponde effettivamente a ciò che è stato trasmesso. I sistemi di trasmissione numerica si basano quindi sempre sull’ipotesi che gli effetti di disturbo (ISI, rumore, distorsione del canale, parziale sincronizzazione del timer) siano sempre contenuti entro limiti ragionevolmente bassi. 2. Il modello del segnale Un modello molto utile per la rappresentazione del segnale in ambito della trasmissione numerica è quello di un vettore appartenente ad uno spazio vettoriale, nel quale sia stata definita anche un’operazione di prodotto interno. Questo modello permette di generalizzare il ragionamento, prescindendo così dal tipo di modulazione numerica adottata. In tale modello il segnale ricevuto sia Y, consistente in uno dei possibili segnali di un certo set S1, S2 ..., S L più del rumore additivo di entità ignota. Il ricevitore non conosce né quale tra gli L segnali è stato trasmesso, né l’entità del rumore. La trasmissione di ogni segnale Sl comporta la trasmissione di un informazione di log2L bit. L’operazione di prodotto interno è così definita per segnali analogici e numerici: X ,Y x(t ) y* (t )dt (2) x y (3) X ,Y k X k * k X , X (energia del segnale) 2 (4) Per molti tipi di modulazione il numero di segnali L è grande e può risultare molto vantaggioso ridurre tale numero, dato che la dimensionalità dello spazio vettoriale nel quale è definita la modulazione risulta sempre uguale ad un N L. In tal caso scegliamo una base ortonormale dello spazio vettoriale in questione 1, 2 ..., N , tale che: N Sl S n ,l n S n ,l Sl , n (5) n1 3. Criterio di decisione a minima distanza Si assuma il segnale della forma: Y Sl N , con Sl il segnale ignoto ed N il rumore. Il criterio di decisione a minima distanza sceglie il segnale Sl per il quale risulta che Y Sl 2 y(t ) s (t ) y(t ) s (t ) dt * l l Y Sl 2 è minimo. Poiché il valore di Y si può imporre che: 2 2 2 Re Y , Sl Y Sl 2 2 y (t ) sl* (t )dt y * (t ) sl (t )dt (6) non varia al variare di l, può essere ignorato nel criterio e quindi 1 max Re Y , Sl El l 2 El Sl 2 (7) Il ricevitore calcola, idealmente, tutti i prodotti scalari Y, Sl e li confronta con El fino a che non trova il segnale l per il quale quella differenza è massima. Lo stesso ragionamento si può fare se al posto di tutti i segnali l si considera la base ortonormale nella quale il set di segnali si può scomporre: N N Re Y , Sl Re Sn*,l Y , n Re S n*,l cn n1 n1 (8) se con cn Y , n si indicano i prodotti interni che permettono di scomporre il segnale di arrivo nella base ortonormale. Il criterio, si può mostrare, porta alla seguente relazione: min Y Sl 2 min N n 1 N min l c n 1 n Sn,l 2 cn n N n 1 2 Sl ,n n min N 2 (cn Sl ,n )n n 1 (9) cioè la minimizzazione della distanza nello spazio vettoriale, fatta sulle componenti della base ortonormale. In base a questa considerazione è evidente che sistemi di modulazione con i segnali disposti nello spazio abbastanza lontani tra loro sono avvantaggiati rispetto a sistemi di modulazione nei quali i segnali sono tutti ammassati in una piccola area. Dal punto di vista dell’immunità del sistema al rumore, quello che conta è la distanza relativa tra le posizioni dei vettori ed in particolare, tra tutte le possibili distanze che si possono calcolare, la minima tra queste: d min min Si S j i j (10) Quando si dimensiona un sistema supponendo il rumore di tipo gaussiano questo parametro è l’unico che conta nel calcolo della probabilità d’errore del sistema e quindi nel progetto del ricevitore numerico. Quanto finora riportato vale sia se il sistema di modulazione è passa basso, sia se il sistema di modulazione risulta passa banda, dato che in quest’ultimo caso è sempre possibile pensare di demodulare il segnale y (t ) e successivamente confrontarlo con i segnali si (t ) Re pi (t ) e o t , equivalenti passa basso del set di segnali passa banda che danno luogo al sistema di modulazione. 4. Applicazione del criterio m.d. alle tecniche di modulazione PAM senza ISI In questo caso si può considerare il segnale, dopo l’applicazione del filtro e del campionatore, come un campione (eventualmente complesso se derivante da un segnale passa banda) composto dalla somma di un segnale (non noto) della costellazione più un campione di rumore: y al n (11) dove al am m 1,..., M è il set di valori (genericamente complessi) della costellazione. Si noti che qui si è scesi nel caso particolare di un ricevitore che fa filtraggio e campionamento, quindi i valori y, al , n sono numeri complessi, non vettori di uno spazio vettoriale. L’applicazione del criterio di minima distanza comporta che si cerchi il valore l tale che: min Y Sl l 2 min y al max 2 Re yal* al l 2 l 2 (12) dove a secondo membro il calcolo è fatto con il valore assoluto. (Esempio: si consideri la modulazione PSK, dove am e j m e y Ae j . Il criterio comporta la ricerca del segnale l per il quale risulta che: 2 j ( l ) * 1 max A cos l ). max 2 Re yal al max 2 Re A e l l l Il criterio di minima distanza si riduce alla ricerca del valore assoluto delle distanze tra i valori della costellazione: amin min ai a j . (13) i j PAM senza ISI: studio del filtro adattato Facendo un passo indietro, il segnale in arrivo prima del filtraggio è un segnale analogico, che si può scrivere nella forma: y(t ) al h(t ) n(t ) (14) Con h(t ) la forma dell’impulso ricevuto (quindi trasmesso e passato attraverso il canale) ed al il simbolo trasmesso. Nel caso unidimensionale si può scegliere una base ortonormale fatta da un solo 2 segnale: h(t ) h (t ) , con h l’energia dell’impulso h(t ) . Il criterio di minima distanza diventa quindi: 2 2 * * max 2 Re y(t )al h (t )dt al h (t ) dt max 2 Re al* h c h2 al l l equivalente anche a: min c h al 2 (16) (17) l (infatti: c h al c h al c h al * c 2 Re h al *c h2 al2 ), 2 2 dove la variabile di decisione c y(t ) (t )dt y(t ) (t ) * * t 0 è quella che giustifica all’interno del progetto l’uso del moltiplicatore più l’integratore (progetto con correlatore) o l’uso di un filtro adattato più un campionatore in t=0 (progetto con filtro adattato). y (t ) decisore a soglia con h al * (t ) Figura 2: progetto di un ricevitore numerico con moltiplicatore e integratore y (t ) * (t ) campionatore t=0 decisore a soglia con h al Figura 3: progetto di un filtro numerico con filtro adattato e campionatore a t=0. Come si vede il ricevitore numerico ottimo, con il filtro adattato, è stato ricavato seguendo il criterio di minima distanza. Tuttavia il progetto non ha tenuto conto della presenza dell’intersimbolo. In presenza di ISI allora tale progetto potrebbe non essere più l’ottimo. La distanza minima tra i segnali del set è: d2 (a 2 i a j )h(t ) dt , d min h amin (18) Da cui si evince che la minima distanza non dipende dalla forma dell’impulso ma dalla sua energia, e cresce al crescere dell’energia dell’impulso trasmesso. Modulazione ortogonale multipulse In questa situazione si ha a disposizione un set di N segnali ortogonali tra loro (come può essere per esempio nel caso della modulazione FSK, code multiple access, etc) del tipo: 1,2 ..., N e il segnale ricevuto vale: y(t ) hl (t ) n(t ) . Riapplicando il criterio di minima distanza già visto in precedenza 2 * (cioè: max 2 Re h y(t )l (t )dt hl dt ), si arriva ad una condizione del tipo: l max Recl (19) l essendo cl y(t ) * l (t )dt . Il corrispondente schema del ricevitore numerico dovrebbe l comprendere (almeno in teoria) N ricevitori, in ciascuno dei quali, mediante correlatore o filtro adattato si ricavano i vari cn e un decisore a soglia che seleziona il più grande. Naturalmente nelle modulazioni che si possono considerare una combinazione di PAM (pulse amplitiude modulation) e orthogonal multipulse, quindi nelle situazioni più generali, avremo una combinazione delle due situazioni viste sopra, e cioè un set di L segnali s k (t ) che si possono scomporre tramite un set di N funzioni ortonormali n (t ) , così che il segnale ricevuto si possa scrivere: N y(t ) sl (t ) n(t ) h an,ln (t ) n(t ) (20) n 1 Questo set di segnali sono ortogonali tra loro, hanno tutti la stessa energia h2 e sono modulati in ampiezza dai valori an ,l (come accade per esempio in alcune particolari modulazioni che sono varianti della QAM usate negli standard per i modem telefonici analogici). In queste ipotesi il criterio di minima distanza generalizzato diventa: N min l c n 1 n h a n ,l 2 (21) 5. PAM con l’interferenza di intersimbolo La situazione più generale di ricezione di segnale numerico è quella in cui il segnale ricevuto non è isolato, bensì sovrapposto ad una serie di altri segnali che rappresentano la sequenza di simboli complessivamente trasmessa: K y (t ) ak h(t kT ) e(t ) (22) k 1 dove sul segnale ricevuto h(t ) non facciamo per ora alcuna ipotesi sul fatto che sia limitato nel tempo o che soddisfi il criterio di Nyquist. Supporremo tuttavia che sia ad energia finita h2 . L’effetto complessivo del rumore e di altri disturbi verrà complessivamente indicato con e(t ) . I simboli giunti si suppongano anche indipendenti tra di loro. Se i simboli derivano da un alfabeto di M simboli, allora l’intero set di segnali possibili sarà dato da: L M K , numero che può diventare rapidamente grande, se dovessimo fare una scelta (contemporanea) su tutti i possibili risultati. K k 1 2 Il criterio di minima distanza generalizzato può essere scritto come: min y(t ) ak h(t kT) , da cui ak si ricava: * y(t ) k ak h(t kT) y(t ) m am h(t mT ) dt y (t ) dt 2 * * y(t ) am h (t mT )dt m * y (t ) ak h(t kT)dt k a a h(t kT)h (t mT )dt k k * m * m K K K max 2 Re uk ak* ak am* h (m k ) ak ,1 k K k 1 k 1 m 1 (23) dove h (k ) h(t )h* (t kT )dt è l’autocorrelazione (campionata) dell’impulso (singolo) ricevuto, il cui spettro sarà quindi la ripetizione periodica a passo 1/T della densità spettrale di potenza di h(t ) ; inoltre si ha uk y(t )h* (t kT )dt , che sono i valori campionati dell’output del filtro adattato. Si osservi che nel caso precedente di modulazioni con ricezione di un singolo segnale si arrivava ad uno schema di ricezione nel quale si ha un campionatore all’istante t 0 ; ora si ha la generalizzazione di questo ragionamento, e il campionatore campiona ad ogni istante t kT . y (t ) h* (t ) filtro adattato campionatore t=kT Figura 4: progetto di un ricevitore numerico uk La complicata formula (23) ci dice complessivamente una cosa: che la scelta della giusta sequenza di simboli viene effettuata in una sola volta, rilevando prima tutti i simboli e poi scegliendo la combinazione che dà la minima norma euclidea (quindi considerando tutte le possibili condizioni di ISI). Inoltre mentre il progetto classico di ricevitore numerico viene effettuato utilizzando un filtro di ricezione che elimini l’ISI, in questo ragionamento generalizzato tale assunto non è indispensabile, dato che la compensazione dell’ISI è fatta in modo del tutto differente (complessivo). Si osservi inoltre che il criterio di Nyquist dice che la minima banda di un segnale modulato PAM deve essere metà del simbol rate. Questo significa che, praticamente, il criterio di progetto di un ricevitore numerico introduce sempre aliasing nelle operazioni di ricezione. Di questo si deve tenere conto nel progetto (proprio per questo esistono, nella pratica comune, ricevitori detti fractionally spaced, che operano inizialmente ad un passo di campionamento più elevato). Infine si osservi che se il progetto rimanesse quello descritto qui, le difficoltà progettuali crescerebbero esponenzialmente al crescere di K. Fortunatamente esistono progetti alternativi in cui entra in gioco anche l’equalizzazione o sistemi in grado di abbassare la complessità, come i sistemi basati sull’algoritmo di Viterbi. Progetto pratico del ricevitore Il progetto del ricevitore può essere diviso in due casi: il caso il cui abbiamo una serie di impulsi in ricezione ortogonali tra loro ed il caso generalizzato in cui questo non avviene. Nel primo caso l’output del filtro adattato soddisfa il criterio di Nyquist, cioè: h (k ) h2 k e quindi gli spettri del segnale h(t) si sovrappongono in modo da dare una costante (o equivalentemente il campionamento del segnale ad ogni istante t=kT ‘legge’ uno solo dei valori, dato che tutti gli altri valgono zero in quegli istanti). La formula precedente si semplifica notevolmente, dato che diventa: K min u h2 ak a ,1k K k k 2 (24) k 1 (infatti la relazione precedente porta a : min ak u k 2 k 2 h4 ak 2 Re u k ak* h2 max 2 Re ak u a a k * k k 2 h 2 k k , da cui si riottene la (23) in assenza di ISI, dato che in quel caso h (m k ) h2 mk ). Intuitivamente, viene fatta la minimizzazione complessiva di tutti i K errori sul segnale ricevuto (dato che in questo caso u k si semplifica in u k h2 ak ek ). La struttura del ricevitore è quella illustrata in figura. y (t ) h* (t ) filtro campionatore t=kT uk + accopiato h2 ak decisore a norma euclidea - Figura 5: progetto generalizzato di un ricevitore numerico Poiché inoltre si ha la somma di tanti termini positivi, la minimizzazione può essere fatta distintamente per ciascuno di loro. Questo riduce il progetto precedente, in sistemi di modulazione relativamente semplici, ad un progetto più semplice, in cui il confronto è fatto non complessivamente (situazione che diventerebbe rapidamente ingestibile al crescere di K), ma separatamente k per k. y (t ) h* (t ) filtro adattato campionatore t=kT uk decisore a soglia h2 a k Figura 6: progetto di un ricevitore numerico con decisione su singolo simbolo (Nota: nella figura precedente si noti che il decisore a soglia ha il livello della soglia fissato in base al valore: h2 a k e non h ak come in figura 2 o 3. Ciò è dovuto al fatto che il filtro adattato qui è: h* (t ) e non * ( t ) ). Un esempio in cui la semplificazione precedente non funziona è la codifica AMI. In tale codifica la ridondanza è richiesta al codificatore per altri motivi, (si ricordi: per assicurare che la componente d.c. sia nulla e vi sia una buona densità di alternanze di simboli). Questa semplice ‘complicazione’ impedisce di utilizzare il ricevitore numerico proposto in figura 6 come ricevitore ottimo. Nella codifica AMI infatti si ha alternanza di livelli, +1 e -1 per descrivere il bit 1. Se allora la decisione sui simboli è fatta indipendentemente è possibile che si scelga una sequenza di simboli non lecita complessivamente, anche se le singole scelte sono state fatte in modo localmente ottimale. E’ necessario in tal caso ritornare ad utilizzare il ricevitore generalizzato di figura 5, dato che quest’ultimo calcolerebbe la norma euclidea soltanto di sequenze lecite - in cui vi sono le alternanze di +1 e -1. In particolare per una sequenza di K bit in ingresso vi sono soltanto 2K sequenze valide tra tutte le 3K sequenze possibili. In generale: una qualunque codifica in cui sia presente dipendenza tra i simboli richiederà una decisione che, in ipotesi di ottimalità teorica, richiede l’insieme complessivo dei simboli, così che si possa scegliere soltanto tra un gruppo di sequenze (quelle lecite) tra tutte le sequenze possibili. Progetto generalizzato Il calcolo diretto della (23) risulta in situazioni pratiche sempre troppo difficile da far effettuare ad un ricevitore efficiente, dato che il calcolo del criterio di minima distanza diventa, secondo la (23) proporzionale a K2, ed inoltre la decisione stessa si basa su una serie di opzioni che cresce esponenzialmente con K (MK). Si è visto che precedentemente il caso speciale in cui non vi è ISI riduce il ricevitore a minima distanza tempo continuo ad un ricevitore tempo discreto, in cui le operazioni di verifica del criterio, per trovare la sequenza a minima distanza, si possono fare dopo il campionamento. Anche nel caso di presenza di ISI le cose possono procedere in questo modo, e questo permette di ridurre la complessita computazionale per singola decisione da K2 a K. Il passo fondamentale consiste nel supporre che lo spettro replicato di h (k ) (che ricordiamo è l’autocorrelazione campionata a passo T –l’inverso del symbol rate-, dell’impulso ricevuto h(t ) ), S h (z ) , si possa scomporre nella seguente forma: S h ( z ) Ah2Gh ( z ) Gh* (1 / z * ) (25) dove Gh (z ) risulta una funzione di trasferimento a fase minima, cioè con i suoi zeri all’interno della circonferenza di raggio unitario. Chiaramente Gh* (1 / z * ) avrà gli zeri all’esterno della circonferenza di raggio unitario. Nel dominio temporale (discreto) si avrebbe: h (k ) Ah2 gh, k gh*, k (26) Il progetto del ricevitore numerico nel caso generalizzato può essere così cambiato: all’uscita del campionatore si faccia passare il segnale u k attraverso un filtro numerico, 1 / Ah2 Gh* (1 / z * ) : W ( z ) U ( z ) / A G (1 / z ) 2 h * h * uk 1 / Ah2Gh* (1 / z* ) wk Figura 7 um A wm g 2 h * h, m A wk g h*, k m . 2 h k m Questo filtro numerico è detto (per motivi che saranno chiari in seguito) ‘precursor equalizer’. Tale filtro si suppone stabile. Il segnale in uscita da questo equalizzatore, wk , si confronta non più con h2 ak come in precedenza, ma con una generalizzazione di questa quantità: ak g h , k , cioè la sequenza di tutti i possibili (eventualmente leciti, se la codifica ha ridondanza) ak fatti passare attraverso il filtro Gh (z ) . Il confronto viene fatto in termini di norma euclidea, sommando tutti gli errori residui e scegliendo tra tutte le sequenze lecite quella che rende tale norma minima. Il criterio matematicamente diventa: K max 2 Re uk ak* ak ,1k K k 1 a min ,1k K k K K a a (s k ) k k 1 * s h s 1 2 K w a g m m1 Si provi infatti a scomporre la relazione precedente: k k 1 h , m k (27) 2 K K K K K * * wm ak g h ,mk wm wm* wm ak g * h ,mk w* m ak g h ,mk ak as g h ,mk g * h ,m s ak m 1 k 1 m 1 k 1 k 1 k 1 s 1 max 2 Re wm ak* g h*,mk ak as* g h ,mk g h*,ms max 2 Re ak* wm g h*,mk ak as* g h ,mk g h*,m s ak ak m 1 k m m k s k k s u (s k ) max 2 Re ak* k2 ak as* h 2 ak A Ah k s h k min Che conduce facilmente alla (27). La struttura è mostrata di seguito. y (t ) h* (t ) filtro uk campionatore t=kT accopiato equalizzatore precursivo 1 / Ah2Gh* (1 / z* ) wk + k decisore a norma euclidea ak Gh (z ) - Figura 8: schema di un ricevitore numerico con equalizzatore precursivo Questa struttura si può pensare come la struttura generalizzata di un ricevitore: in presenza di ISI non confrontiamo più il simbolo isolato a k con l’uscita del campionatore, bensì la sequenza ak g h , k , effettuando il confronto per tutte le possibili sequenze a k . Quando si ha una data sequenza ak ,1 k K e il filtro Gh (z ) è FIR, allora il carico computazionale è proporzionale a K. Questa soluzione permette di ovviare il problema della (23) in cui il carico computazionale è proporzionale a K2, ma non permette di eliminare il problema dello studio di tutte le possibili combinazioni di sequenze, che rende il carico proporzionale anche a M K. Se la sequenza Gh (z ) non è FIR si può sempre pensare di approssimare come una sequenza FIR. Si osservi infine che la sommatoria in (27) è calcolata per un numero infinito di termini. Infatti, sebbene la sequenza di simboli può essere finita, così non è per l’ISI, che può facilmente essere infinito. Il termine ‘precursor equalizer’ deriva dal fatto che tale filtro funziona come un equalizzatore, nel senso che esso elimina una parte dell’ISI, cioè inverte (anche se solo parzialmente) la risposta del canale e del filtro adattato. Il termine precursore è dovuto quindi al fatto che questo filtro possiede la desiderabile proprietà di eliminare la parte anticasuale della risposta all’impulso del canale e del filtro adattato. Se il filtro Gh (z ) è a fase minima e stabile (gh,k causale), allora G*h (1 / z* ) è a fase massima, con i poli esterni alla circonferenza di raggio unitario, e così è anche 1 / G* h (1 / z * ) . Allora per essere stabile un filtro del genere (con i poli esterni alla circonferenza di raggio unitario) deve essere anticausale, il che lo rende in teoria impraticabile. La scomposizione di S h (z ) è stata fatta supponendo che Gh (z ) dovesse essere a fase minima. Tuttavia se si riuscisse a trovare una scomposizione che dia la stessa sequenza di simboli rilevati ak ,1 k K , per noi tale scomposizione sarebbe equivalente. Se questa scomposizione esiste, allora il criterio (nel tempo discreto) di minima distanza non è univoco. In particolare, essendo K wk am g h ,k m k , si può sempre pensare di far passare i campioni di rumore attraverso un filtro m1 passa tutto che non cambi la norma euclidea finale: k H allpass(z ) 'k decisore a norma euclidea Figura 9: modifica allo schema in Fig. 8 nel caso di scomposizione del canale differente dalla Eq. (25) m 'm m 1 2 2 (28) m 1 Se la sequenza di rumore passa attraverso questo filtro il decisore a norma euclidea non cambierà la sua scelta della particolare sequenza di valori di ak . Questo significa che il filtraggio 1 / Ah2G*h (1 / z * ) può essere sostituito con H allpass( z) / Ah2G*h (1 / z* ) , ed equivalentemente anche Gh (z ) con H allpass( z )Gh ( z ) . Se il filtro passa tutto è stabile, esso ha i poli interni alla circonferenza di raggio unitario e gli zeri esterni (in corrispondenza ai poli). Questo fatto renderà H allpass( z )Gh ( z ) non più a fase minima1. Una delle proprietà della risposta di un sistema a fase minima è che concentra la maggior parte dell’energia nel primi campioni, cioè vicino allo zero. Per un filtro del tipo H allpass( z )Gh ( z ) questo non accade più e quindi anche l’ISI sarà meno concentrato attorno allo zero. Questa struttura è molto importante per gli effetti pratici di un altro tipo di equalizzatore (decision-feedback equalizer). 6. Il rumore in un ricevitore numerico con equalizzatore precursivo Si analizzano ora le prestazioni di un ricevitore numerico con equalizzatore precursivo. Una conclusione notevole è che il rumore in uscita da tale ricevitore è bianco (campionato), tant’è che l’insieme dei blocchi: filtro adattato, campionatore, equalizzatore precursivo è detto filtro adattato sbiancante. (whitened matched filter, WMF). K Dato il generico segnale in ingresso, y (t ) ak h(t kT ) e(t ) , e considerando a parte il rumore, k 1 il adattato filtro ha risposta all’impulso pari a h* (t ) . L’uscita è quindi: h (k ) h(t )h* (t kT )dt , la cui trasformata Zeta è: S h ( z ) Ah2 Gh ( z )Gh* (1 / z * ) . Il passaggio 1 Si ricordi che un filtro passa tutto è un filtro con i poli e gli zeri simmetrici rispetto alla circonferenza di raggio unitario. Se quindi è stabile, ha tutti i poli interni e, corrispondentemente tutti gli zeri esterni ed in posizione reciproca N rispetto ai poli. La sua formulazione generale è del tipo: H a p ( z ) a z n n n 0 N a z n n 0 N n attraverso l’equalizzatore precursivo elimina il termine Ah2 Gh* (1 / z* ) , lasciando soltanto la parte causale dell’interferenza di intersimbolo (equalizzando la parte anti-causale). La statistica del rumore si può determinare facilmente. N (t ) h* (t ) filtro adattato Z (t ) campionatore t=kT equalizzatore precursivo 1 / Ah2Gh* (1 / z* ) Zk Vk e jt Figure 10: Filtro adattato sbiancante Il rumore gaussiano e bianco N (t ) con densità spettrale di potenza bilatera N 0 / 2 , dopo demodulazione entra nel filtro adattato h* (t ) . Il rumore in uscita ha densità spettrale di potenza: SZ ( f ) N0 H ( f ) 2 (29) Poiché il rumore è circolarmente simmetrico, la densità spettrale di potenza lo caratterizza pienamente (è anche stazionario in senso lato). La sua versione campionata è anche stazionaria in senso lato e circolarmente simmetrica, con densità spettrale di potenza: S Z (e jT ) N 0 S h ( z ) (30) ma non è bianco. Infine il processo di rumore in uscita dall’equalizzatore precursivo è gaussiano, circolarmente simmetrico, ed è anche bianco: SV ( z ) N 0 S h ( z ) dato che N 1 1 2 20 * A G (1/ z ) Ah Gh ( z ) Ah 2 h * h (31) 1 z , quando valutato in z e jT . * z La parte reale e la parte immaginaria del rumore sono statisticamente indipendenti ed hanno la stessa altezza della densità spettrale di potenza: N0 2 Ah2 e varianza N0 1 . 2 Ah2 T In conclusione: la presenza del filtro adattato (utile a massimizzare l’energia relativa al singolo simbolo e quindi il SNR) introduce l’ISI ed inoltre rende il rumore non bianco; l’equalizzatore precursivo serve ad eliminare la parte non causale dell’ISI ed a sbiancare il rumore. 7. La probabilità d’errore Si consideri un vettore formato da un segnale noto più del rumore gaussiano complesso, circolarmente simmetrico e bianco: Y Sm Z con Y Y1, Y2 ,..., YN è il segnale ricevuto e T (34) T Sm Sm,1, Sm,2 ,..., Sm, N è il vettore di simboli ricevuti, scelto da un alfabeto noto: Sl ,1 l L (e dove N è il numero di eventi). Applicando il criterio di minima distanza si ha: min Y Sl 2 (35) l Ora ci si chiede: qual è la probabilità d’errore? Si sbaglia se si sceglie un simbolo Si differente da S m . In tal caso si deve cercare la probabilità che questo accada. Poiché il ricevitore è configurato per scegliere il simbolo che rende minima la (35), allora la probabilità d’errore è la probabilità che si scelga un simbolo Si differente da S m perché esso è più vicino ad Y . Questo ci dà: Y Si Y S m Z ( Si S m ) Z 2 2 2 2 Z ( Si Sm ) 2 Re Z , Si Sm Z 2 Semplificando Z ha: 2 2 e dividendo per d m,i Si S m S Sm Re Z , i d m,i d m,i 2 2 2 , cioè la distanza tra i due simboli Si ed S m , si (36) S S m Si S m è di lunghezza unitaria e quindi la variabile aleatoria Re Z , i è d m,i d m ,i d gaussiana, reale e con varianza 2 . La probabilità che questa v.a. sia m,i dà il risultato voluto: 2 Il vettore d PWm,i Q m,i 2 (37) detto Wm,i l’evento: Y più vicino ad Si che ad Sm . La funzione Qx è la funzione di Marcum (integrale della coda di una gaussiana a media nulla e varianza unitaria). La probabilità d’errore trovata precedentemente non conclude il discorso: infatti la (37) è la probabilità che un simbolo Si sia stato confuso con un simbolo Sm . Per determinare la probabilità d’errore sul singolo simbolo (da trasformare poi in probabilità d’errore sul bit) si dovrebbe determinare la stessa (37) per ogni simbolo che si può confondere con Sm , al variare di tutti i possibili simboli Sm . La cosa risulta quasi sempre molto difficile, ed è proprio per questo che si preferisce trovare un limite superiore alla probabilità d’errore. Questo limite superiore si può trovare partendo dall’osservazione che, dati N eventi, En ,1 n N , il limite superiore dell’evento unione è: L L P En P En n2 n2 (38) Se si suppone trasmesso il simbolo S1 , si può supporre En l’evento errore quando si confonde S n con S1 (gli eventi En non si possono supporre in una situazione generica mutuamente esclusivi tra loro). In tal caso la probabilità dell’evento W1 , cioè l’evento: ‘ S1 non è il simbolo più vicino a Y ’ ha probabilità di accadere: L L L d1, n P W1 P En P En Q 2 n2 n2 n2 (39) La (39) si può semplificare. Infatti la funzione Q è una funzione molto sensibile al suo argomento (tende a diventare rapidamente piccola al crescere del suo argomento). Questo significa che il limite precedente può essere approssimato con la somma di tutte le quantità Q relative ai termini d1,n più piccoli: d PW1 K1 Q 1,min 2 (40) dove il K1 precedente dice quanti sono i simboli che si trovano a distanza minima dal simbolo S1 . La (40) precedente non è più il limite superiore, dato che abbiamo scartato termini positivi dalla sommatoria in (39), tuttavia ne è una buona approssimazione. La probabilità d’errore sul simbolo trasmesso, per il teorema delle probabilità totali vale quindi: L d d (41) P pm K mQ m, min K Q min 2 m 1 2 Con K che rappresenta il numero medio di simboli che si trovano tra di loro a distanza minima. Il valore K ha normalmente un piccolo impatto sulla probabilità d’errore, dato che il termine d predominante è dato dalla funzione Q e quindi principalmente dal rapporto min , direttamente 2 collegato al rapporto segnale rumore. In alcune situazioni il conto precedente si può fare con sufficiente accuratezza. Un semplice esempio è il caso della modulazione 16-QAM. 8. Il problema dell’ottimizzazione Il progetto del ricevitore è stato fatto nei paragrafi precedenti basandosi su un principio: il principio della distanza minima tra segnale trasmesso e ricevuto. In queste condizioni è ragionevole supporre che il segnale trasmesso sia quello più vicino al ricevitore. Tuttavia questa ipotesi non tiene conto di un aspetto fondamentale: la statistica del trasmettitore. Quanto fatto quindi si è basato sul senso comune che il trasmettitore abbia una statistica uniformemente distribuita per tutti i suoi simboli, cosa che può anche non essere. È necessario quindi distinguere i casi ed effettuare un progetto che sia ancora più generale del precedente. Il problema precedente ricade sotto la casistica dei problemi di ‘detection’ (rivelazione), che si possono distinguere da quelli di ‘estimation’ (stima). I problemi di stima si riferiscono alla determinazione di un parametro statistico continuo, a cui si è aggiunto del rumore. La stima migliore non permetterà mai, virtualmente, di determinare il parametro in modo esatto. La stima risulterà tanto migliore quanto più riesce ad avvicinarsi al valore vero. Il problema della rivelazione invece coinvolge una sorgente discreta (ed è il nostro caso), a cui si è aggiunta una quantità di rumore continuo. Poiché la rivelazione implica alla fine una scelta su un alfabeto finito e noto, è possibile, con una probabilità non nulla, determinare esattamente il simbolo iniziale trasmesso, al contrario di ciò che succede nella stima. Il problema che ci poniamo è quindi quello della rivelazione di un simbolo trasmesso, tra un numero finito di simboli, e deteriorato dal rumore (che ha reso il valore continuo/discreto a seconda del tipo di rumore che si considera: continuo o discreto). Tale problema ha una serie di approcci nell’ambito della teoria delle stima bayesiana, cioè la teoria che si occupa di stimare un valore statistico in presenza di rumore statisticamente aggiunto. Tale teoria cerca sempre di minimizzare una funzione costo e, in base a come tale funzione è definita, cambia il metodo applicato. Gli approcci che considereremo in ambito della trasmissione numerica sono due: A massima verosimiglianza (maximum likelihood, ML) Massimo a posteriori (Maximum a Posteriori, MAP) Il primo metodo è quello più comunemente adottato nell’ambito dei ricevitori numerici, dato che esso è di più semplice implementazione ed inoltre perché il ricevitore basato sul metodo MAP, sebbene più preciso, spesso aggiunge un guadagno molto basso rispetto al ricevitore basato sul metodo ML, aggiungendo tuttavia una complessità di implementazione notevole. Il ricevitore numerico a minima distanza progettato nei par. precedenti è un ricevitore a massima verosimiglianza. 8.1 Rivelazione di un segnale reale e discreto Sia a il segnale emesso dalla sorgente e scelto in un alfabeto di un numero finito di simboli. In ricezione giunga il valore discreto y a n , cioè a a cui si è aggiunta una quantità discreta di rumore. Per progettare il ricevitore è necessario conoscere la statistica dei possibili segnali ricevuti y condizionati alla trasmissione di un dato simbolo a : pY | A ( y | aˆ ) (44) Questa conoscenza caratterizza completamente la generazione di rumore. Il ricevitore a massima verosimiglianza sceglie il simbolo â che massimizza la probabilità condizionata pY | A ( y | aˆ ) : a : max pY | A y | aˆ a (45) cioè il simbolo che massimizza la probabilità che sia y ricevuto, noto che â è stato trasmesso. La semplicità di tale ricevitore sta nel fatto che pY | A ( y | aˆ ) è facilmente calcolabile dalla conoscenza di tutti i possibili simboli a e dalla statistica del rumore. Il ricevitore massimo a posteriori massimizza invece la probabilità che sia stato trasmesso proprio â , noto che è stato ricevuto y : a : max pA|Y aˆ | y a (46) La quantità precedente si può calcolare dalla (45) utilizzando il teorema di Bayes (ed è per questo detta rivelazione bayesiana): pA|Y (aˆ | y) pY | A ( y | aˆ ) pA (aˆ ) pY ( y) (47) Poiché pY ( y) non dipende dalla decisione su â , massimizzare la (47) equivale a massimizzare pY | A ( y | aˆ ) p A (aˆ ) , che differisce dalla (45) per la presenza della probabilità a priori pA (aˆ ) . La presenza di questa ulteriore informazione, non considerata nei progetti precedenti, rende la MAP migliore della ML, e quindi i progetti basati sulla MAP sono progetti di ricevitori ottimali nel senso che rendono realmente minima la probabilità d’errore media. Si osservi inoltre che nel caso in cui la sorgente emetta simboli tutti ugualmente probabili i due metodi sono equivalenti tra loro. 8.2 Rivelazione di un segnale reale e continuo In questo caso il rumore ha statistica continua e quindi è caratterizzato da una densità di probabilità che si suppone nota. Anche il segnale ricevuto Y è continuo. fY|A ( y | aˆ) , mentre un ricevitore MAP massimizza: Un ricevitore ML massimizza f Y | A ( y | aˆ ) : max a pA|Y (aˆ | y) fY | A ( y | aˆ ) pA (aˆ ) (47) fY ( y) fY|A ( y | aˆ) pA aˆ . che equivale anche a massimizzare fY | A ( y | aˆ ) p A (aˆ ) : max a Esempio. Si supponga di considerare una sorgente che emette due simboli -1 ed 1 con probabilità rispettivamente pari a 0.25 e 0.75. Il rumore sia questa volta continuo e distribuito uniformemente tra i valori -1.5,1.5. Vediamo la differenza tra i due ricevitori. Mentre per il ricevitore ML le due densità di probabilità condizionate sono uguali (dato che non sono condizionate alla conoscenza della probabilità a priori dei simboli emessi) nel caso del ricevitore MAP le due densità di probabilità condizionate sono differenti poiché conta anche la conoscenza a priori dei simboli emessi. Nel caso di un ricevitore MAP la soglia è posta a -0.5, dato che selezionerà il simbolo +1 per y>-0.5. Conseguentemente l’errore è quello segnato in figura e ha probabilità di accadere pari a 1/12. fN(n) 1/3 -1.5 fY|A(y|-1) 1.5 fY|A(y|1) fY|A(y|1)pA(1) 1/4 1/3 fY|A(y|-1)pA(-1) 1/12 -1 1 -1 0.5 1 Figura 11: schematizzazione delle probabilità di ricezione del simbolo nell’esempio 2 Nel caso di un ricevitore ML si ha che la soglia può essere messa in un qualunque punto tra -0.5 e 0.5 (non contando la statistica di ingresso si pone infatti la soglia a metà, che è la scelta più ovvia in mancanza di altre informazioni, ma che rappresenta una scelta non ottimale se i simboli sono emessi in modo non equiprobabile), dato che in questa regione vi è uguale possibilità, per questo ricevitore, di scegliere tra -1 ed 1. Se si pone la soglia a 0 la probabilità di sbagliare diventa 1 1 1 P p(0.5 y 0) p A (1) p(0 y 0.5) p A (1) 0.5 0.75 0.5 0.25 3 3 6 Appendice. Risultati fondamentali sui processi gaussiani complessi Processo gaussiano complesso Un processo aleatorio si dice gaussiano complesso se consiste di una parte reale e di una parte immaginaria che sono due processi aleatori congiuntamente gaussiani. Questi processi hanno importanti proprietà che li distinguono dai processi aleatori gaussiani reali e sono molto importanti nell’ambito delle comunicazioni analogiche e numeriche. In particolare detto Z (t ) a(t ) jb(t ) , a(t ) e b(t ) sono processi aleatori gaussiani. Si supponga anche che siano a media nulla. Per caratterizzare pienamente Z (t ) occorre la sua statistica del second’ordine. In particolare si può dire che Z (t ) è stazionario in senso lato (WSS) se la sua funzione di autocorrelazione: RZ ( ) E Z (t ) Z * (t ) non è funzione di t. Tuttavia ciò non equivale a dire che la parte reale ed immaginaria sono congiuntamente WSS, dato che per decidere questo è necessario dire che sono indipendenti da t le seguenti funzioni di autocorrelazione: Ra ( ) Ea(t )a(t ) , Rb ( ) Eb(t )b(t ) , Rab ( ) Ea(t )b(t ) . È necessario allora caratterizzare la statistica del second’ordine anche mediante l’uso della funzione ~ ~ di autocorrelazione complementare: RZ ( ) EZ (t ) Z (t ) . A partire da RZ ( ) e da RZ ( ) si possono facilmente ricavare Ra ( ) , Rb ( ) , Rab ( ) : ~ 2Ra ( ) ReRZ ( ) Re RZ ( ) ~ 2Rb ( ) ReRZ ( ) Re RZ ( ) ~ 2Rab ( ) Im RZ ( ) ImRZ ( ) (32) (infatti: RZ ( ) Ea(t ) jb (t )a( ) jb ( ) e RZ ( ) Ea(t ) jb(t )a( ) jb( ) ). Se allora sono note le proprietà di entrambe le funzioni (di autocorrelazione e di autocorrelazione complementare) si possono determinare le proprietà dei singoli processi aleatori parte reale e parte immaginaria. Similmente, la statistica del second’ordine di a(t ) e b(t ) (senza quella congiunta) non sono sufficienti a determinare la statistica di Z (t ) . Inoltre la stazionarietà in senso largo per Z (t ) non implica quella in senso stretto (sino al ~ second’ordine), dato che per questa sarebbe necessaria che anche RZ (t , ) sia indipendente da t. Riassumendo: Un processo gaussiano complesso è caratterizzato dalla funzione di autocorrelazione e dalla funzione complementare di autocorrelazione. Inoltre non può essere caratterizzato pienamente dalla densità spettrale di potenza (dato che è la trasformata solo di RZ ( ) ). Un processo gaussiano complesso WSS non è necessariamente anche SSS, ma lo è se ~ entrambe le funzioni RZ ( ) e RZ ( ) non dipendono da t. ~ Processi gaussiani circolarmente simmetrici Si consideri una variabile aleatoria Z R jI complessa e gaussiana a media nulla. Il calcolo E Z 2 E R 2 E I 2 2 jE RI è nullo se e solo se i processi hanno uguale varianza e sono incorrelati (e quindi indipendenti, dato che sono gaussiani). Il concetto può essere generalizzato anche ai processi. I processi aleatori gaussiani circolarmente simmetrici, sono quelli per i quali accade che: ~ 2 2 2 RZ (t , ) 0 per ogni t , . Poiché E Z (t ) E a(t ) E b(t ) 2 jE a(t )b(t ) , si ha che E Z (t ) 2 0 se e solo se E a(t ) 2 E b(t ) 2 e Ea(t )b(t ) 0 . In questa ipotesi i due processi parte reale ed immaginaria hanno la stessa varianza e hanno la funzione di autocorrelazione complementare identicamente nulla (si osservi che un processo gaussiano reale non può essere circolarmente simmetrico, dato che per tale processo essendo RZ ( ) ~ e RZ ( ) uguali, risulterebbe identicamente nulla anche la funzione di autocorrelazione). Ne consegue che la stazionarietà WSS implica la stazionarietà SSS (dato che l’autocorrelazione complementare è identicamente nulla); inoltre la statistica della parte reale ed immaginaria è uguale e i due processi sono statisticamente indipendenti allo stesso istante: a(t ) e b(t ) sono tali che Ea(t )b(t ) 0 , sebbene possano non esserlo ad istanti differenti. Se infine il processo aleatorio gaussiano circolare ha anche la funzione di autocorrelazione reale, allora i processi a(t ) e b(t ) sono indipendenti per qualunque coppia di istanti di tempo si consideri (infatti in tal caso vale: RZ ( ) EZ (t )Z * (t ) Ea(t ) jb(t ) a(t ) jb(t )* , da cui si ha Rba ( ) Rab ( ) 0 ). La simmetria circolare gaussiana è preservata al passaggio in un sistema lineare tempo invariante, ma anche dal passaggio in sistemi lineari tempo-varianti (come i modulatori/demodulatori). Estensione ai processi gaussiani tempo discreti Tutte le proprietà viste per i processi aleatori tempo continui si applicano anche a processi che evolvono per tempi discreti, Z k . Processi gaussiani bianchi Ulteriore caratterizzazione dei processi aleatori gaussiani complessi deriva dall’ipotizzare il processo come bianco. Il processo è detto bianco se accade: RZ ( ) N 0 ( ) 2 2 ( ) (similmente per i processi discreti). Per questi processi Z (t ) e Z (t ) sono incorrelati per tutti i 0. Infine se un processo gaussiano complesso è sia bianco, sia circolarmente simmetrico, allora: La parte reale ed immaginaria sono distribuite nello stesso modo e sono processi aleatori gaussiani reali La parte reale ed immaginaria sono indipendenti e la funzione di autocorrelazione del processo complesso è reale. Un processo gaussiano bianco che passi attraverso un filtro in generale non mantiene tale proprietà in uscita. Processi gaussiani vettoriali Si supponga ora che sia Z Z1 , Z 2 ,...,Z N T un vettore di p.a. complessi, a media nulla e gaussiani, con le seguenti (e semplificanti) ulteriori proprietà: i j Le componenti di Z sono incorrelate: EZ i Z * j 0, 1 i, j N . Questa Le componenti di Z sono circolarmente simmetriche, cioè: EZ i Z j 0, proprietà, unita alla precedente fa si che le componenti di Z siano mutuamente indipendenti e che anche le parti reali ed immaginarie lo siano. 2 Le componenti di Z sono distribuite identicamente: E Z i 2 2 . (Se Z è reale, non può essere più circolarmente simmetrico, tuttavia le sue componenti sono ancora mutuamente indipendenti e con la stessa varianza). Sia dato ora un vettore complesso C definito come: C Z , e Z T e* (33) Con e vettore a norma unitaria: e 1 . C è ancora gaussiano, poiché combinazione lineare di vettori gaussiani e anche circolarmente simmetrico. La varianza di C è pari alla varianza di Z (si può dimostrare facilmente) e quindi anche la parte reale e la parte immaginaria di C hanno la stessa varianza 2 . Quindi qualunque componente di Z , su qualunque direzione, è ancora gaussiana e circolarmente simmetrica (e con la stessa varianza), non solo le proiezioni lungo gli assi principali dello spazio vettoriale da cui deriva.