INTRODUZIONE AL CORSO DI COMUNICAZIONI RADIOMOBILI 1. Trasmissioni digitali passa-banda Nelle comunicazioni digitali la sorgente informativa (voce, immagini, video, dati, ecc.) viene convertita in numeri e successivamente in sequenze binarie di "0" e "1". Il problema fondamentale delle trasmissioni digitali è che, a causa della natura del canale di comunicazione, che può essere schematizzato come un sistema lineare passa banda, il segnale contenente l'informazione deve essere modulato, ovvero convertito da sequenza binaria in forma d'onda continua con contenuto spettrale concentrato intorno ad una frequenza centrale (es. 900 MHz per il sistema GSM). Mostriamo in Figura 1 lo schema a blocchi di una generica catena di comunicazione digitale. Figura 1 Il significato dei vari blocchi di Figura 1 viene descritto qui sotto: • • • • Format: converte la sorgente informativa in formato digitale (numeri) e viceversa Source encode: codifica la sorgente digitale in forma binaria (101001001……) Encrypt: Cripta i dati binari (sicurezza) Channel encode: codifica i bit da inviare nel canale aggiungendovi delle "ridondanze" (protezione contro errori) • • • • • • • • • • • • • Multiplex: unisce vari flussi informativi provenienti da sorgenti diverse (es., voce e dati) per produrre un unico flusso MOD: Trasforma il flusso digitale in una forma d'onda continua con contenuto spettrale centrato rispetto ad una portante Spread Spectr.: Effettua un (eventuale) allargamento di spettro per proteggere il segnale da interferenze di altri utenti Mult. Access: unisce/separa le varie forme d'onda provenienti da tutti gli utenti che vogliono contemporaneamente trasmettere nel canale TX: Amplifica il segnale e lo invia all'antenne trasmittente (se si tratta di una comunicazione radio) Channel: Canale di comunicazione RX: Seleziona il segnale ricevuto dall'antenna ricevente sintonizzandosi nella banda opportuna e lo amplifica Despread.: Effettua un (eventuale) restringimento di spettro per recuperare il segnale originario DEMOD: Trasforma la forma d'onda continua nel flusso digitale originario De-Multi.: separa i vari flussi informativi provenienti da sorgenti diverse (es., voce e dati) Channel decode: decodifica i bit ricevuti dal demodulatore togliendo le "ridondanze" ed (eventualmente) correggendo gli errori Decrypt: De-Cripta i dati binari Source decode: decodifica la sorgente in forma binaria (101001001……) riproducendo la sorgente digitale originaria 1. Modulazione di dati numerici Nella modulazione digitale il segnale binario viene convertito in un segnale a radio-frequenza, centrato intorno ad una frequenza centrale che denomineremo f c. Un segnale a radio-frequenza possiede due gradi di libertà: ampiezza e fase. La modulazione viene realizzata variando queste due quantità in accordo con la sequenza di bit informativi da trasmettere. I requisiti di una buona modulazione digitale sono: larghezza di banda del segnale a radio-frequenza minore possibile, probabilità di errore (sul bit) minore possibile e facilità di realizzazione dei circuiti di modulazione e di demodulazione. Un segnale modulato può essere espresso come: s (t ) = A( t ) cos[2πf c t + ϕ (t )] (1) dove A(t) e ϕ(t) sono l'ampiezza e la fase della portante a radio-frequenza definita come: s0 (t ) = cos (2πf c t ) (2) Spesso conviene riferirsi alla rappresentazione equivalente passa-basso del segnale modulato. Per ottenerla si osserva che la (1) può essere riscritta come: [ ] [ s ( t ) = Re A( t ) e j [2πf c t +ϕ ( t ) ] = Re s b ( t ) e j 2πf c t ] (3) jϕ ( t ) dove s b (t ) = A(t ) e è il segnale complesso equivalente passa-basso. In base a questa nuova rappresentazione, il segnale modulato può essere espresso come: s (t ) = x (t ) cos (2π f c t ) − y (t ) sin (2π f c t ) dove x (t ) = A(t ) cos [ϕ (t ) ] e y (t ) = A(t ) sin [ϕ (t ) ] (4) (5) sono le componenti in fase e quadratura del segnale passa-basso equivalente. Dalle espressioni precedenti non è possibile distinguere un segnale modulato digitale da uno analogico. La differenza sta nell’espressione assunta dalle forme A(t) e ϕ(t), o equivalentemente da x(t) e y(t): nel caso analogico queste sono funzioni che, in qualche modo, devono essere messe in relazione con il segnale originario (che è una funzione continua del tempo, ad esempio la voce, che può assumere un numero infinito di valori in un certo intervallo); nel caso digitale queste sono funzioni che, in qualche modo, devono essere messe in relazione con un segnale che varia solo in certi istanti (tempi di arrivo dei simboli informativi) e che può assumere un numero finito di valori (2 se la modulazione è binaria, maggiore di due se vengono modulati più bit per volta). Soffermandoci in particolare sul caso digitale, si ha in accordo con lo schema di Figura 1 che in ingresso al blocco modulatore arriva un flusso di bit. Il blocco modulatore può essere suddiviso in due blocchi come mostrato in Figura 2. Figura 2 Il blocco Mappatore digitale prende in ingresso un certo numero k di bit in ogni intervallo Ts, che chiameremo tempo di simbolo. Sulla base della configurazione dei k bit viene costruito il segnale nel generico intervallo [nTs, (n+1)Ts] come mostrato in figura. Con riferimento all’esempio di Figura 2, si ha in particolare che il segnale trasmesso nell’intervallo [nTs, (n+1)Ts] sarà: s (t ) = A4 (t ) cos [2π f c t + ϕ 4 (t ) ] Si noti che un modulatore così costruito è in grado di trasmettere M=k bit ogni tempo Ts. (6) 1.1. Modulazioni di fase Nelle modulazioni di fase la fase del segnale assume uno fra M=2k valori fissi in ogni intervallo [nTs, (n+1)Ts]. In particolare, se indichiamo con m la codifica in base 10 della configurazione di bit in ingresso (ad esempio se i bit sono 011, m=3) abbiamo che la fase trasmessa è 2πm ϕ= + ϕ0 M dove ϕ0 è una qualsiasi fase compresa fra 0 e 2π. Poiché per quanto detto prima, m può assumere uno dei possibili valori 0,1,…,M-1, si ha che la fase trasmessa nell’intervallo [nTs, (n+1)Ts] può assumere uno dei possibili valori 2π 2π 2π ϕ = 0, ,2 × , K , ( M − 1) × + ϕ0 M M M Queste modulazioni sono dette M - Phase Shift Keying (M-PSK), dove il simbolo M indica il numero di simboli trasportati in ogni intervallo di lunghezza Ts. Se rappresentiamo nel piano complesso i numeri cos(ϕ)+j sin(ϕ) si ottengono le costellazioni per le modulazioni di fase più comuni mostrate in Figura 3. Figura 3 Si osservi che la fase ϕ0 vale 0 per il caso 2-PSK e 8-PSK e vale π/4 nel caso 4-PSK. Definiamo ora l’impulso in banda base g(t), di durata Ts, che viene utilizzato dal modulatore per trasmettere un simbolo informativo. In Figura 4 viene mostrato un esempio di impulso g(t). Figura 4 Nonostante che, come mostrato in figura, un impulso reale g(t) non potrà mai essere esattamente zero al di fuori dell’intervallo [0, Ts], noi assumeremo che g(t) sia esattamente zero al di fuori dell’intervallo [0, Ts], ovvero g(t- nTs,) ) sia esattamente zero al di fuori dell’intervallo [nTs, (n+1)Ts]. In particolare, per semplicità assumeremo che g(t) sia una funzione rettangolo, ovvero che valga 1 in [0, Ts] e 0 al di fuori, come mostrato in Figura 5. Figura 5 Si fa notare in questa fase che la funzione in Figura 5 non è fisicamente realizzabile (fronti di salita e discesa ripidissimi che richiederebbero una banda infinita) e che, qualora lo fosse, sarebbe certamente distorta dal canale 1.1.1. Modulazione 2-PSK Nella modulazione 2-PSK il segnale trasmesso nell’intervallo [nTs, (n+1)Ts] assume la forma: s (t ) = a n g (t − nTs ) cos (2πf c t ) nTs ≤ t ≤ ( n + 1)Ts dove an prende i valori +A, o –A (volt) in corrispondenza del segnale digitale da trasmettere (1 o 0). Assumendo che il modulatore lavori da un tempo -∞ ad un tempo +∞ Il segnale modulato può essere espresso come: s (t ) = x (t ) cos (2πf c t ) = +∞ ∑ a n g (t − nTs ) cos(2πf c t ) n = −∞ Si osservi che, per quanto riguarda la fase ϕ(t) del segnale, essa vale 0 quando viene trasmesso un 1 e π quando viene trasmesso uno 0, in accordo con la costellazione mostrata in Figura 3. Lo schema del modulatore 2-PSK è mostrato in Figura 6. Figura 6 In Figura 7 mostriamo un esempio di modulazione 2-PSK, in cui si è scelto Ts = 1 s, fc = 10 Hz. Figura 7 1.1.2. Modulazione 4-PSK Nella modulazione 4-PSK il segnale trasmesso nell’intervallo [nTs, (n+1)Ts] assume la forma: s (t ) = a n g (t − nTs ) cos (2πf c t ) + bn g (t − nTs ) sin (2πf c t ) nTs ≤ t ≤ ( n + 1)Ts (7) dove an e bn sono la coppia di bit informativi modulati nell’intervallo [nTs, (n+1)Ts] che prendono i valori +A, o –A (volt) in corrispondenza del segnale digitale da trasmettere (1 o 0). Assumendo che il modulatore lavori da un tempo -∞ ad un tempo +∞ Il segnale modulato può essere espresso come: s (t ) = x (t ) cos (2πf c t ) − y (t ) cos (2πf c t ) = +∞ ∑ a n g (t − nTs ) cos(2πf c t ) +bn g (t − nTs ) sin (2πf c t ) (8) n = −∞ Ricorrendo alla rappresentazione complessa del segnale possiamo anche scrivere: ⎧ +∞ ⎫ s (t ) = Re ⎨ ∑ (a n − jbn )g (t − nT s )e j 2πf ct ⎬ ⎩ n = −∞ ⎭ (9) Si osserva dalla (9) che, per quanto riguarda la fase ϕ(t) del segnale, essa può assumere i 4 valori ±π/4, ±3π/4 a seconda dei simboli informativi an e bn, in accordo con la costellazione mostrata in Figura 3. Lo schema del modulatore 4-PSK è mostrato in Figura 8. Figura 8 In Figura 9 mostriamo un esempio di modulazione 4-PSK, in cui si è scelto Ts = 1 s, fc = 10 Hz. Figura 9 1.2. Modulazioni di frequenza (M-FSK) In un generico segnale modulato che ha espressione descritta nell’equazione (1) si definisce la frequenza istantanea f(t) come 1 d ϕ (t ) (16) 2π dt Nelle modulazioni di fase tale frequenza è sempre uguale a fc durante ogni generico intervallo [nTs, (n+1)Ts], poiché la fase è costante in tale intervallo (derivata nulla). Nelle modulazioni di frequenza, invece, la frequenza del segnale assume uno fra M=2k valori fissi in ogni intervallo [nTs, (n+1)Ts]. Il valore assunto dipende dalla sequenza di k bit che si vogliono inviare nel suddetto intervallo. Le modulazioni digitali di frequenza vengono dette M-Frequency Shift Keying. In particolare, indichiamo con mn la codifica in base 10 della configurazione di bit in ingresso nell’intervallo [nTs, (n+1)Ts] (ad esempio se i bit sono 011, mn=3). Indichiamo poi con qn la codifica Non ritorno a Zero (NRZ) di mn, ovvero qn = 2mn-(M-1). Si noti che la quantità qn può assumere uno degli M possibili valori ±1, ±3, …., ±M-1. Allora abbiamo che la frequenza del segnale modulato in frequenza nell’intervallo [nTs, (n+1)Ts] è h (17) f = f c + qn 2Ts dove h è una costante che viene denominata “indice di modulazione” e Ts è il tempo di simbolo. Per chiarire meglio, se prendiamo ad esempio il caso M = 4, si avrà l’assegnazione delle frequenze ai vari simboli informativi riportata in Figura 17. f (t ) = f c + Figura 17 Il segnale M-FSK nel generico intervallo [nTs, (n+1)Ts] può essere espresso come: ⎛ hπ ⎞ s (t ) = A cos ⎜⎜ 2π f c t + q n t ⎟⎟ T ⎝ s ⎠ (19) Se infatti, come controprova, andiamo a valutare la frequenza istantanea definita in (16) del segnale (19) abbiamo che essa è uguale, nel generico intervallo [nTs, (n+1)Ts], all’espressione data dalla (17). Di particolare interesse sono le modulazioni M-FSK ortogonali. Esse sono quelle modulazioni in cui è verificato: ρ l ,m = (n +1)Ts ∫ nTs ⎛ ⎛ hπ ⎞ hπ ⎞ cos ⎜⎜ 2π f c t + q l t ⎟⎟ × cos ⎜⎜ 2π f c t + q m t ⎟⎟ dt = 0 T T s ⎠ s ⎠ ⎝ ⎝ (20) per qualunque coppia di simboli ql, qm diversi fra loro. Si può facilmente dimostrare che per valori della frequenza della portante fc molto maggiori di 1/Ts (come avviene usualmente) la condizione di ortogonalità è verificata per valori dell’indice di modulazione multipli di 1 / 2, ovvero per h = k / 2, con k intero qualsiasi. Un modulatore M-FSK viene costruito semplicemente avendo a disposizione M diversi oscillatori che generano segnali alle frequenze date dalla (17). Il segnale s(t) viene costruito scegliendo in ogni intervallo uno dei possibili segnali degli oscillatori, sulla base del simbolo informativo in ingresso al modulatore. Uno schema del modulatore M-FSK viene mostrato in Figura 18 per il caso M = 4. Figura 18 In Figura 19 mostriamo un esempio di modulazione 4-FSK, in cui si è scelto Ts = 1 s, fc = 10 Hz ed indice di modulazione h = 2. Figura 19 Dove in ordinata al primo grafico di Figura 19 abbiamo indicato con il termine p(t) il segnale digitale dato da: p (t ) = +∞ ∑ q n g (t − nTs ) n = −∞ dove g(t) è l’impulso in banda base mostrato in Figura 5. (21) 2. Occupazioni spettrali delle modulazioni digitali Uno dei parametri più importanti che caratterizzano un segnale modulato digitale, che ha un’espressione tipo quella mostrata in (1), è la sua occupazione di banda. Qualunque sia il tipo di modulazione prescelto, il contenuto spettrale del segnale modulato si “dispone” intorno alla frequenza della portante fc assumendo un aspetto di tipo quello mostrato in Figura 31. Figura 31 Con f si sono indicate le frequenze, mentre con S(f) si è indicato il contenuto spettrale del segnale modulato in funzione di f. Meno è larga l’occupazione in banda del segnale, più è alto il numero di segnali che possono essere trasmessi contemporaneamente (ognuno utilizzando una portante diversa). Ad esempio, nel sistema GSM la banda totale a disposizione è di 25 MHz, mentre la banda occupata dal segnale è di 200 KHz: in questo caso è possibile trasmettere contemporaneamente 125 segnali diversi. Perciò, il parametro occupazione di banda, è un parametro che caratterizza l’efficienza di un certo tipo di modulazione rispetto ad un’altra. Per analizzare il contenuto spettrale delle diverse modulazioni numeriche considerate, si considerino per semplicità le modulazioni cosiddette lineari, quelle cioè in cui il segnale modulato può essere espresso nella generica forma: s (t ) = +∞ ∑ α n g (t − nTs ) cos(2πf c t ) −β n g (t − nTs ) sin(2πf c t ) n = −∞ dove αn e βn sono dei numeri reali in qualche modo legati al simbolo digitale trasmesso nell’intervallo [nTs, (n+1)Ts], e g(t) è l’impulso in banda base associato alla trasmissione del simbolo. L’espressione (50) viene spesso rappresentata nella forma equivalente complessa: (50) ⎧ +∞ ⎫ s (t ) = Re ⎨ ∑ I n g (t − nTs )e j 2πfct ⎬ ⎩n = −∞ ⎭ (51) dove In = αn + jβn è un numero complesso in qualche modo legato al simbolo digitale trasmesso nell’intervallo [nTs, (n+1)Ts]. Si noti che in questa categoria di modulazioni rientrano le modulazioni di fase (si veda ad esempio Equazione (9)) ma non le modulazioni di frequenza. L’occupazione spettrale di questa ampia classe di modulazioni dipende sia dalle caratteristiche della sequenza digitale In = αn + jβn, sia dalla forma dell’impulso g(t). Assumiamo ad esempio che i simboli informativi complessi In siano tutti uguali, ad esempio uguali ad 1, e che l’impulso in banda base sia un rettangolo. In questo caso, il segnale trasmesso diventa una riga spettrale che ha occupazione di frequenza nulla. Ovviamente questo è un caso limite che non ha molto senso, poiché trasmettere tutti simboli uguali equivale a non trasmettere nessuna informazione utile (quantità di informazione trasferita nulla). Il caso limite opposto è quello in cui i simboli informativi In siano indipendenti da simbolo a simbolo. Senza voler entrare nel dettaglio della definizione di indipendenza statistica, basterà in questa sede definire questo concetto come il fatto che la conoscenza dei simboli precedenti non permette in alcun modo di prevedere quale sarà il simbolo futuro. In questo caso, si ha la massima occupazione di banda del segnale e la massima quantità di informazione trasferita. Anche questo è ovviamente un caso limite che, tuttavia, può essere preso come caso di riferimento poiché fornisce il caso limite peggiorativo (per quanto riguarda l’occupazione di banda). Nell’ipotesi di indipendenza fra i simboli informativi, si può dimostrare che l’occupazione spettrale del segnale S(f) è data da: S ( f ) = G( f − fc ) 2 (52) dove G(f) è la trasformata di Fourier dell’impulso in banda base g(t). Ovviamente, la trasformata di Fourier di g(t) dipenderà dalla larghezza dell’impulso: al diminuire della larghezza di g(t) aumenta la larghezza della sua trasformata di Fourier. Poiché la larghezza dell’impulso dipende in primo luogo dalla larghezza dell’intervallo temporale Ts, avremo che al diminuire di Ts aumenta la banda occupata dal segnale. In altri termini, se vogliamo trasmettere più simboli al secondo (Ts minore) dobbiamo usare più banda. Perciò il prodotto fra la banda W occupata ed il tempo di simbolo è una costante: tanto minore è questa costante, tanto migliore è la modulazione. Il parametro che caratterizza l’efficienza di una modulazione dal punto di vista della sua occupazione spettrale, da ora in avanti definita Efficienza Spettrale (ES), è il numero di bit per tempo di simbolo, k, diviso il prodotto del tempo di simbolo Ts per la banda W, ovvero EE= k TsW (53) Il rapporto fra il tempo di simbolo Ts ed il numero di bit per tempo di simbolo k, fornisce il tempo di bit (tempo necessario per trasportare un bit) che chiameremo Tb. L’inverso del tempo di bit, che chiameremo Rb = 1/ Tb, fornisce il numero di bit inviati al secondo (è una misura della velocità di trasmissione). L’espressione (53) può ora essere riscritta come: EE= Rb W (54) L’efficienza spettrale mi dice dunque quanti bit al secondo vengono trasmessi per ogni Hertz di banda: se la banda ad esempio è 100 KHz ed EE = 0.5, si riescono a trasmettere 50 Kbit/s. Considerando ora la classe delle modulazioni M-PSK che utilizzano un impulso rettangolare in banda base (si veda Figura 5). In questo caso la (52) assume la forma indicata in Figura 32 dove si è supposto Ts = 1s e fc = 10 Hz. Figura 32 Per questo tipo di impulsi dunque, si può assumere la larghezza di banda uguale a 2 volte l’inverso del tempo di simbolo (in Figura 32 uguale a 2 Hz), ovvero WTs = 2. Ovviamente, le cose possono migliorare utilizzando impulsi più larghi di Ts. Tuttavia questa scelta può comportare l’inconveniente di introdurre interferenza fra i simboli trasmessi. L’impulso che permette la minore occupazione di banda senza introdurre interferenza fra i simboli, insieme al contenuto spettrale per Ts = 1s e fc = 10 Hz, è mostrato Figura 33. In questo caso, il prodotto WTs = 1. Figura 33 I casi di Figura 33 e di Figura 33 sono dei casi limite; nella realtà l’impulso in banda base sarà tale che 1 < WTs < 2. Per quanto riguarda il valore dell’efficienza spettrale avremo nei due casi limite: Modulazione 2-PSK 4-PSK M-PSK EE1 0.5 1 0.5log2(M) EE2 1 2 log2(M) dove EE1 e EE1 rappresentano i casi di Figura 32 e di Figura 33, rispettivamente. Rimane da analizzare il caso delle modulazioni M-FSK. In questo caso il segnale modulato può essere (approssimativamente) visto in frequenza come una sequenza di portanti a frequenza data dalla (17). Ovviamente anche qui varrà la considerazione fatta prima sulla natura della sequenza informativa. Se infatti i qn della (17) sono tutti uguali, il segnale si riduce ad una sola riga spettrale. Assumeremo quindi di essere nel caso di simboli indipendenti. In questo caso, l’occupazione in banda sarà ovviamente proporzionale alla massima distanza fra le frequenze utilizzate. Tale valore è pari a ∆f= (M − 1) h Ts (55) Si vede dalla (55) che per avere la minima occupazione di banda possibile occorre scegliere il minimo h. Limitandosi a modulazioni ortogonali (si veda Modulazioni M-FSK) si ha che il minimo valore di h possibile è 0.5. In questo caso, considerando che l’occupazione in banda può essere approssimativamente considerata uguale a W = ∆f + 1 M = 2Ts 2Ts (56) si può ricavare l’efficienza spettrale definita in (53) per questa classe di modulazioni come EE= 2 log 2 ( M ) M che, diversamente dal caso M-PSK, diminuisce all’aumentare di M. (57) 2.1. Importanza delle Modulazioni ad inviluppo costante Data la rappresentazione di un segnale digitale modulato vista in (1), si definisce un segnale ad inviluppo costante quando l’ampiezza A(t) non varia nel tempo, ovvero, A(t) = A0, in qualsiasi istante di tempo. In questo caso il segnale modulato può essere espresso come: s (t ) = A0 cos[2πf c + ϕ (t )] (46) Appartengono a questa categoria tutte le modulazioni di fase viste nonché le modulazioni di frequenza e le modulazioni a fase continua. Le modulazioni di ampiezza invece (non trattate qui), non appartengono a questa categoria. L’esigenza di avere un inviluppo costante è particolarmente sentita in quelle applicazioni dove, presumibilmente, il segnale modulato deve essere trattato da dispositivi non lineari. Questo è il caso ad esempio delle applicazioni radiomobili dove, a causa delle bassissime potenze con cui arrivano i segnali a destinazione, si rendono necessari amplificatori che lavorano in “saturazione”. Essi garantiscono le massime amplificazioni possibili ma introducono al tempo stesso delle distorsioni dovute alle non linearità. Un dispositivo non lineare è un dispositivo che ha una relazione ingresso-uscita in cui, in generale, non vale la legge della sovrapposizione degli effetti (ovvero se l’ingresso aumenta di un fattore α anche l’uscita aumenta dello stesso fattore). In Figura (28) viene mostrato un esempio della tipica relazione ingresso-uscita di un amplificatore, in cui si è indicato con x(t) l’ingresso e con y(t) l’uscita. Figura 28 Dalla Figura 46 che se si vogliono sfruttare al massimo le capacità dell’amplificatore, bisogna farlo funzionare per valori più elevati possibile degli ingressi, ovvero in zona non lineare. La relazione ingresso-uscita di un dispositivo non lineare può in generale essere espressa come: y (t ) = a1 x (t ) + a1 x 2 (t ) + a1 x 3 (t ) + K (47) dove le non linearità sono dovute ai termini dal secondo in poi. Se l’ingresso è dato da una forma d’onda la cui espressione generale è quella data in (1), assumendo che la banda occupata dal segnale sia molto minore della frequenza centrale fc (cosa questa sempre vera per i segnali modulati) si ha che l’uscita è data da tanti termini che si trovano a frequenze 0, fc, 2fc, 3 fc ,... che non si sovrappongono (in frequenza). Questo è dovuto alle proprietà della funzione cos[2πfct + ϕ(t)]n, che può essere scomposta nella somma di tanti contributi a frequenza multipla di fc. Utilizzando un filtro passa banda in uscita all’amplificatore per isolare la componente a frequenza fc (quella di interesse), si ha: 3 5 ⎡ ⎤ s (t ) = ⎢ a1 A(t ) + a3 A3 (t ) + a 4 A5 (t ) + K⎥ cos[2πf c + ϕ (t )] 4 8 ⎣ ⎦ (48) L’ampiezza del segnale risulta allora fortemente distorta, cosa questa che può comportare un forte deterioramento delle prestazioni del sistema. Nel caso in cui invece si abbia in ingresso un segnale modulato ad inviluppo costante come quello visto in (46), l’uscita assume la forma: 3 5 ⎡ ⎤ s (t ) = ⎢a1 A0 + a3 A03 + a 4 A05 + K⎥ cos[2πf c + ϕ (t )] 4 8 ⎣ ⎦ (49) che è esattamente identico al segnale di ingresso moltiplicato per una costante (ovvero non c’è distorsione). La conclusione di questo ragionamento è che per applicazioni in cui sono necessari dispositivi che introducono non linearità, sono senz’altro preferibili le modulazioni ad inviluppo costante. All’inizio di questo paragrafo, abbiamo elencato quelle che, stando alle definizioni viste nei paragrafi precedenti, possono essere classificate come modulazioni ad inviluppo costante. Tuttavia già si era accennato precedentemente al fatto che, per avere inviluppo costante nelle modulazioni di fase, occorre che la forma d’onda in banda base, denominata g(t), sia un rettangolo perfetto. Questo nella realtà non sarà possibile perché una forma d’onda di tale natura risulterebbe fortemente distorta dal canale. Per questo, le modulazioni di fase prevedono l’utilizzo di un filtro passa basso (si veda a tal proposito la Figura 6); questo le rende di fatto appartenenti alla classe delle modulazioni ad inviluppo non costante. In Figura 29 si riporta un esempio di modulazione 4-PSK che utilizza delle forme d’onda non rettangolari, da cui risulta evidente che l’ampiezza del segnale non è costante. Figura 29 3. Demodulazione di dati numerici 3.1. Rumore termico Quando si invia un segnale modulato digitale che ha un’espressione come quella mostrata in (1) in un canale (radio, cavo telefonico, fibra ottica, ecc.), si ha, in ricezione, un segnale r(t) che può essere espresso: r (t ) = A(t ) cos [2πf c + ϕ (t ) + ϕ 0 ] + n (t ) (58) dove ϕ0 è uno sfasamento introdotto dal canale e n(t) è contributo di rumore (indesiderato) che è principalmente dovuto al canale e all’amplificatore di antenna in ricezione. Questo genere di rumore viene detto anche termico ed è presente per il fatto che gli apparati resistivi che costituiscono i blocchi circuitali dei ricevitori funzionano a una temperatura maggiore dello zero assoluto e, quindi, producono un movimento casuale degli elettroni. Inoltre, gli apparati riceventi (modellabili con quadrupoli) introducono un rumore essi stessi della stessa natura del rumore termico nel tentativo di amplificare il segnale ricevuto e renderlo così intelligibile ai blocchi che seguono (rumore di apparato, indipendente dalla temperatura di rumore). La temperatura equivalente di rumore è una grandezza utilizzata in elettronica e nel campo delle telecomunicazioni assieme alla cifra di rumore per quantificare la rumorosità di un sistema (in genere un quadripolo che modella un ricevitore). La determinazione della rumorosità di un quadripolo viene effettuata mediante il confronto con la rumorosità introdotta da un riferimento, il quale è in generale la resistenza che adatta in potenza la porta d'ingresso del quadripolo stesso e che si trova alla temperatura assoluta di 290 kelvin (17 °C). Nello schema dNi indica la potenza disponibile di rumore (in una banda di frequenze infinitesima) introdotta dal resistore posto all'ingresso del quadripolo mentre dNu indica la potenza disponibile di rumore misurata all'uscita. La potenza disponibile di rumore dNi è data da: dNi=kTdf in cui k = 1.38 × 10−23 J / K è la costante di Boltzmann e T è la temperatura assoluta a cui si trova il resistore (per convenzione si pone T=290 kelvin ogniqualvolta non è specificato). La potenza disponibile di rumore dNu può essere scomposta come la somma di due contributi: dNu=G dNi+dNa con G guadagno del quadrupolo. Il primo tiene conto della rumorosità dovuta al solo riferimento R (alla temperatura assoluta T) mentre il secondo termine tiene conto della rumorosità introdotta dal solo quadripolo, la quale non dipende dalla temperatura alla quale si trova il riferimento. Considerando il quadripolo ideale (e quindi non rumoroso) è possibile determinare il valore della temperatura assoluta Tr alla quale dovrebbe trovarsi il riferimento R per poter misurare ai morsetti di uscita del quadripolo stesso la potenza dNa. Tr prende il nome di temperatura equivalente di rumore. La potenza disponibile di rumore dNu è quindi data da: dNu=G dNi+dNa=kTdf G+k Tr df G=k(T+Tr)dfG In altri termini, la temperatura equivalente di rumore è la temperatura che si dovrebbe sommare alla temperatura T del riferimento R per poter misurare ai morsetti d'uscita del quadripolo, considerato ideale, la potenza disponibile di rumore dNu. È importante sottolineare che la temperatura equivalente di rumore non è la temperatura fisica alla quale si trova l'apparato; è per sottolineare questa sostanziale differenza che si utilizza il termine equivalente. Il parametro che definisce la bontà di un apparato in termini di rumore introdotto è spesso la cifra di rumore F. Tale parametro indica il rapporto fra il rapporto segnale rumore in ingresso al dispositivo e quello in uscita. Ovviamente, poiché il dispositivo introduce rumore, il valore di F è sempre maggiore di uno, e tanto più è grande e quanto peggiore è il dispositivo. La temperatura equivalente di rumore e la cifra di rumore sono fra loro legate dalle seguenti relazioni, ottenibili confrontando le espressioni di dNu che si ottengono utilizzando F o Tr in riferimento allo stesso quadripolo: F=(T+Tr)/T Tr=(F-1)T in cui T è la temperatura assoluta del riferimento alla quale è stata calcolata F (in genere 290 kelvin). In genere un ricevitore è costituito da una cascata di dispositivi modellabili come quadrupoli, ognuno dei quali sarà caratterizzato da una cifra di rumore. Nel caso di una cascata di quadrupoli caratterizzati dai guadagni G1,G2,….,GN, è facile verificare che la cifra di rumore complessiva del quadrupolo che modella la cascata con guadagni G = G1 G2 …. GN è: F = F1 + (F2-1)/G1 + (F3-1)/(G1G2) + ……. + (FN-1)/(G1G2….GN-1) Poiché in genere il primo blocco introduce una forte amplificazione (G1 elevato), si possono trascurare i termini seguenti il primo che rimane come quello più importante ai fini del rumore. Il rumore termico sopra descritto può essere ragionevolmente modellato come una funzione aleatoria (ovvero il cui valore in funzione del tempo non è noto, ma può essere solo descritto statisticamente) di tipo bianco e Gaussiano. Il primo aggettivo (bianco) sta ad indicare che il suo contenuto spettrale è costante su tutte le frequenze. Tale valore costante (definito densità spettrale di potenza) viene spesso indicato con N0. Questo vuol dire che se filtriamo il rumore con un filtro di larghezza di banda W, la potenza del rumore in uscita (ovvero il valore medio del rumore al quadrato) è sempre uguale a WN0 indipendentemente dalla frequenza fc in cui è centrato il filtro. Si veda a tal proposito la Figura 34, che rappresenta il contenuto spettrale N(f) del rumore in funzione della frequenza. Figura 34 Il secondo aggettivo (Gaussiano) sta ad indicare che la sua distribuzione di probabilità è Gaussiana, ovvero che la distribuzione di probabilità del rumore in ogni istante segue un andamento Gaussiano. Questo tipo di distribuzioni sono caratterizzate dal valore medio (nullo nel caso di rumore bianco) e dalla varianza (che rappresenta proprio la potenza del rumore). Ad esempio in uscita da un filtro di larghezza W il rumore è caratterizzato dall’avere valore medio nullo e varianza WN0. Il modello riportato in (58) viene dunque spesso indicato come canale additivo bianco e Gaussiano. 3.2. Demodulazione Il problema generale della demodulazione digitale è quello di estrarre da r(t) il segnale digitale originario che è in qualche modo inserito nell’ampiezza e/o nella fase di s(t) (in dipendenza del tipo di modulazione scelta). Lo schema generale del modello di canale additivo e della procedura di demodulazione è mostrato in Figura 35. Figura 35 Il blocco Demodulatore analogico ha il compito di riportare il segnale (che si trova a frequenza fc) in banda base, cercando di limitare al massimo l’influenza (negativa) del rumore. Fra i demodulatori si distinguono i demodulatori coerenti e quelli incoerenti. Nel caso coerente, si assume che il demodulatore sia a conoscenza dello sfasamento ϕ0 introdotto dal canale. Ovviamente questo non è possibile in generale, per cui dire che il demodulatore conosce ϕ0 equivale a dire che è in grado di stimarla. Il processo di stima della fase, oltre ad aumentare la complessità del ricevitore, introduce spesso degli errori di stima che possono degradare notevolmente le prestazioni del ricevitore. Per questo, sono state studiate tecniche alternative di demodulazione, cosiddette incoerenti, in cui la fase ϕ0 è assunta del tutto sconosciuta (ovvero che può assumere qualsiasi valore fra 0 e 2π con uguale probabilità). In questo caso ovviamente non c’è bisogno di stimare ϕ0, per cui si evitano gli errori di stima della fase anche se si devono accettare delle degradazioni di prestazioni rispetto al ricevitore coerente ottimo. Il sincronizzatore ha poi il compito di selezionare il segnale in banda base negli istanti esatti di inizio simbolo, in modo da poter estrarre dei numeri (o coppie di numeri come vedremo) che sono direttamente relazionati al simbolo informativo trasmesso. Si noti che questa operazione richiede che il ricevitore sia a conoscenza degli istanti di inizio trasmissione dei bit. Questo, in generale, non è possibile in un sistema di telecomunicazione, per cui si renderà necessaria una stima di tali istanti. Tale stima può essere soggetta ad errori di sincronismo che possono avere talvolta effetti devastanti nelle prestazioni del ricevitore. Da ora in poi assumeremo tuttavia che il sincronismo di simbolo sia perfetto. Il Mappatore digitale infine ha il compito di associare al segnale digitale in ingresso campionato un simbolo informativo (e quindi una sequenza di bit). Nel fare questo il mappatore deve effettuare una decisione, poiché per effetto del rumore il segnale digitale ricostruito sarà diverso da quello trasmesso. Le prestazioni di un demodulatore digitale sono date in termini di probabilità di errore per bit, ovvero probabilità che il decisore scelga per un 1 quando è stato trasmesso uno 0, o viceversa. Ovviamente queste prestazioni dipenderanno dalla potenza del rumore rispetto a quella del segnale. Se infatti il rumore è insignificante il decisore non sbaglia mai, ovvero la probabilità di errore è nulla. Se viceversa il rumore è nettamente preponderante, il decisore non potrà far altro che prendere decisioni casuali, ovvero la probabilità di errore è massima ed uguale a 0.5. Si definisce ora con Energia per simbolo Es, l’energia del segnale ricevuto contenuta in un tempo di simbolo, ovvero: Es = Ts ∫A 2 (t ) cos 2 [2πf c + ϕ (t ) + ϕ 0 ]dt (60) 0 Si definisce ora con Energia per bit Eb, l’energia del segnale ricevuto contenuta in un bit; essa sarà uguale a Es/k, dove k è il numero di bit per tempo di simbolo. Questo termine è dato dalla potenza del segnale ricevuto P (dove con potenza si intende il valore medio del quadrato del segnale in un tempo di simbolo) moltiplicata per il tempo di bit Tb ovvero dalla potenza divisa per la velocità di trasmissione Rb. La probabilità di errore per bit, definita Pe,b di un demodulatore sarà allora in generale una funzione decrescente del rapporto fra l’energia per bit e la densità spettrale del rumore, ovvero: ⎛E ⎞ Pe ,b = f ⎜⎜ b ⎟⎟ ⎝ N0 ⎠ dove f è una funzione decrescente che assumerà valori compresi fra 0.5 e 0, e che dipenderà dal tipo di modulazione e di demodulazione scelte. Le modulazioni (e demodulazioni) migliori sono quelle che forniscono la minore probabilità di errore a parità di Eb/N0. Si noti che, a parità di densità spettrale di rumore, le stesse prestazioni in termini di probabilità di errore si ottengono raddoppiando la potenza e raddoppiando la velocità di trasmissione. Questo vuol dire che si vuole trasmettere più veloce bisogna trasmettere più potente (a parità di prestazioni). La cosa non deve sembrare strana, poiché la banda del segnale digitale è direttamente proporzionale alla velocità Rb, per cui, aumentando la velocità aumenta la banda, ovvero aumenta il rumore, la cui potenza, a sua volta, è direttamente proporzionale alla banda. 3.3. Demodulazione coerente per modulazioni lineari Nelle modulazioni lineari, il segnale modulato s(t) può essere espresso come s (t ) = +∞ ∑ α n g (t − nTs ) cos(2πf c t ) −β n g (t − nTs ) sin(2πf c t ) (59) n = −∞ dove αn e βn sono dei numeri reali in qualche modo legati al simbolo digitale trasmesso nell’intervallo [nTs, (n+1)Ts], e g(t) è l’impulso in banda base associato alla trasmissione del simbolo Il segnale ricevuto è allora della forma: r (t ) = +∞ ∑ α n g (t − nTs ) cos(2πf c t + ϕ 0 ) −β n g (t − nTs ) sin(2πf c t + ϕ 0 ) + n(t ) (60) n = −∞ Nel caso di demodulazione coerente la fase ϕ0 è nota al ricevitore, per cui il segnale (60) può essere riportato in banda base attraverso un schema come quello mostrato in Figura 36. Figura 36 Per comprendere il funzionamento dello schema di Figura 36 riportiamo i seguenti risultati di trigonometria: 1 cos (4πf c t + 2ϕ o ) + 2 2 1 cos (4πf c t + 2ϕ o ) sin 2 (2πf c t + ϕ o ) = − 2 2 sin (4πf c t + 2ϕ o ) sin (2πf c t + ϕ o )cos (2πf c t + ϕ o ) = 2 cos 2 (2πf c t + ϕ o ) = (61) Allora, se consideriamo che il filtro passa basso elimina le componenti ad alta frequenza (ovvero a frequenza 2fc), è immediato verificare che l’uscita del filtro può essere rappresentata, come: rI (t ) = rQ (t ) = +∞ ∑ α n x(t − lTs ) +n I (t ) l = −∞ +∞ (62) ∑ β n x(t − lTs ) +nQ (t ) l = −∞ dove x(t) è l’uscita dell’impulso g(t) al filtro passa basso che ha risposta in frequenza H(f), mentre i termini nI e nQ sono rumori Gaussiani con valore medio nullo e varianza che dipende da N0 e dalla banda passante del filtro. L’uscita del sincronizzatore mostrata in Figura 36 può ora essere facilmente ricavata dalla (62) ponendo t = nTs, assumendo senza perdere in generalità, x0 = 1, e supponendo che l’impulso x(t) in uscita dal filtro sia tale per cui: x(mTs) = 0 per m ≠ 0. Questa ultima condizione significa che non c’è interferenza fra i vari simboli informativi e che quindi è possibile demodulare un simbolo per volta. Il filtro passa basso H(f) va costruito in maniera tale da ridurre il più possibile la potenza di rumore, mantenendo al tempo stesso inalterato (per quanto è possibile) il segnale utile. Si può dimostrare che il filtro che consente di massimizzare il rapporto segnale rumore in uscita è il filtro adattato, quello che ha cioè una risposta in frequenza pari al complesso coniugato della trasformata di Fourier dell’impulso in banda base, ovvero H(f) = G*(f). Ne deriva ovviamente che la trasformata di Fourier dell’impulso in uscita x(t), che denomineremo X(f), vale: X(f) = |G(f)|2. Dalle proprietà delle trasformate di Fourier è immediato verificare che l’impulso in uscita x(t) è dato da: +∞ x (t ) = ∫ g (τ ) g (τ − t )dt −∞ che è un impulso simmetrico rispetto all’asse t=0, con valore massimo nell’origine (pari all’integrale del quadrato dell’impulso g(t), ovvero alla sua energia). In Figura si riportano due esempi di impulsi x(t) messi in relazione a possibili forme d’onda g(t). Sempre assumendo senza perdere in generalità x0 = 1, si può ricavare dalla (60): (α n2 + β n2 ) = 2 E s = 2kE b var( n I ) =var( nQ )=N 0 (I) Si noti che il rapporto fra la somma dei quadrati delle variabili di decisione in fase e in quadratura e la somma delle varianze dei rumori in fase e in quadratura è pari a Es/N0. Adesso rimane il problema della decisione sul simbolo informativo. Il decisore osserva i due numeri provenienti dai due rami del demodulatore e sceglie il simbolo informativo corrispondente. Ovviamente, i due numeri reali αn e βn sono in corrispondenza 1:1 con il simbolo informativo trasmesso all’istante n, per cui il problema del decisore si può spostare sulla decisione di quale coppia di numeri αn e βn è stata trasmessa una volta osservata la coppia αn + nI e βn + nQ, che ne è una versione rumorosa. Per chiarire meglio, consideriamo una modulazione 4-PSK. In questo caso, αn = an = ± A e βn = bn = ± A , rappresentano i due bit informativi trasmessi nell’intervallo [nTs, (n+1)Ts]. Se non ci fosse rumore il decisore riceverebbe in ingresso ogni volta una coppia di numeri fra quelle indicate in Figura 37 (a) e deciderebbe di conseguenza i due bit senza commettere errori. Viceversa in presenza di rumore, il decisore si trova in ingresso delle coppie che possono assumere valori diversi, come in Figura 37 (b). In questo caso si pone il problema della decisione. Ovviamente, tanto maggiore è la varianza del rumore e tanto più si allargano le nuvolette in Figura 37 (b), rendendo sempre più incerta la decisione Figura 37 Si può dimostrare che la regola di decisione ottima (nel senso che rende più piccola possibile la probabilità di errore) consiste nello scegliere come simbolo informativo quello che è caratterizzato dalla coppia αn e βn più “vicina” alla coppia ricevuta αn + nI e βn + nQ, dove la vicinanza va intesa in senso geometrico. In questo modo il decisore può stabilire delle regioni di decisione, ovvero delle regioni associate con ciascun simbolo informativo tali per cui, se la coppia di valori cade in quella regione, allora si decide per quel simbolo. Nel caso della modulazione 4-PSK le regioni di decisione sono mostrate in Figura 38. Figura 38. Ovviamente quando il rumore è molto elevato, è possibile che una coppia relativa ad un certo simbolo informativo cada in una regione di decisione diversa: in questo caso si ha l’evento errore. Quello a cui siamo interessati, per valutare le prestazioni del ricevitore, è la probabilità che questo evento errore avvenga. Il calcolo esatto della probabilità di errore sul simbolo può essere in molti casi molto complesso. Ci riferiremo in questa sede ad un’approssimazione (spesso utilizzata nella pratica) in cui si considerano solamente gli eventi errore relativi ai simboli più vicini fra loro. Allora, il procedimento per il calcolo approssimato della probabilità di errore è il seguente: • Ci si condiziona ad uno qualsiasi dei simboli informativi trasmessi. • Per quel simbolo si vanno a misurare tutte le distanze con gli altri simboli nella rappresentazione bidimensionale. • Si va a misurare la distanza minima e si chiama dfree. • Questa distanza minima ricorrerà per un certo numero di volte: si chiama con L tale numero A questo punto si deriva la probabilità Pe,s di errore sul simbolo come: Pe , s ⎛ d2 ⎞ free ⎟ = 0.5 L × erfc ⎜ ⎜ 8N 0 ⎟ ⎝ ⎠ (63) dove la funzione erfc(x) viene detta funzione errore complementare. Nella Tabella sottostante vengono mostrati i valori della funzione erfc per valori di x nell’intervallo [1,4]. x erfc(x) 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3 3.2 3.4 3.6 3.8 4 1.58 10-1 8.97 10-2 4.78 10-2 2.37 10-2 1.10 10-2 4.68 10-3 1.87 10-3 6.89 10-4 2.37 10-4 7.50 10-5 2.21 10-5 6.03 10-6 1.52 10-6 3.56 10-7 7.70 10-7 1.54 10-8 Riguardo al primo punto della procedura elencata sopra si osserva come, ad esempio nel caso 4PSK, cambiando il simbolo informativo trasmesso non cambia il calcolo della probabilità (63). Questo è vero per tutte le modulazioni da noi considerate (non è tuttavia vero in generale). Tornando alla (63), si osserva che per poter caratterizzare le prestazioni del demodulatore mancano ancora due cose. La prima è quella di relazionare la dfree con l’energia per Eb. La seconda è quella di relazionare la probabilità di errore sul simbolo con la probabilità di errore sul bit. In questo caso si può approssimativamente dire che Pe,b ≅ Pe,s / k, dove k è il numero di bit per simbolo. Siamo ora in grado di valutare la probabilità di errore per bit in funzione di Eb/N0 per tutte le modulazioni lineari considerate. Svilupperemo qui il ragionamento per la modulazione 4-PSK. Partiamo dal simbolo informativo 1,1 (si veda Figura 37 (a)). Si osserva che la minima distanza è in questo caso d2free = 4A2. Tale minima distanza la si ottiene due volte (con i simboli 1,-1 e –1,1). Perciò L = 2. Osservando che l’energia per bit è in questo caso pari ad A2/2 (si veda equazione (I)) e che k = 2, si ottiene infine: ⎛ Eb ⎞ ⎟ Pe ,b = 0.5 × erfc ⎜⎜ ⎟ N 0 ⎠ ⎝ (64) Si riporta nella Tabella seguente il valore della probabilità di errore per bit per le modulazioni lineari viste: Modulazione Probabilità di errore per bit 2-PSK 4-PSK ⎛ Pe ,b = 0.5 × erfc ⎜⎜ ⎝ ⎛ Pe ,b = 0.5 × erfc ⎜⎜ ⎝ M-PSK (M > 4) Pe ,b ASK QASK MSK ⎞ ⎟ ⎟ ⎠ Eb ⎞ ⎟ N 0 ⎟⎠ ⎡ ⎛ π ⎞ log 2 ( M ) Eb ⎤ 1 ≅ × erfc ⎢ sin ⎜ ⎟ ⎥ log 2 ( M ) N0 ⎣ ⎝M ⎠ ⎦ Eb N0 ⎡ 2 Eb ⎤ Pe ,b ≅ 0.5 × erfc ⎢ ⎥ ⎣ 5N 0 ⎦ ⎡ 2 Eb ⎤ 3 Pe ,b ≅ × erfc ⎢ ⎥ 4 ⎣ 5N 0 ⎦ ⎛ Eb ⎞ ⎟ Pe ,b = 0.5 × erfc ⎜⎜ ⎟ N 0 ⎠ ⎝ In Figura 39 si mostra infine il grafico della probabilità di errore per le diverse modulazioni considerate. Figura 39 Se analizziamo il comportamento delle modulazioni M-PSK in particolare, ci accorgiamo che aumentando M si ottiene un peggioramento delle prestazioni (a parte per il caso 4-PSK che è uguale al 2-PSK). Del resto, si era visto che aumentando M si ha un miglioramento dell’efficienza spettrale. Si ha cioè un risultato che si può generalizzare a tutte le modulazioni numeriche: se si vuole guadagnare in banda bisogna pagare in termini di probabilità di errore, e viceversa. Il caso 4- PSK è un caso particolare in cui si ha, rispetto al 2-PSK, un miglioramento in banda senza pagare in probabilità di errore. Per questo le modulazioni 4-PSK sono in genere le più usate fra le M-PSK. 4. Capacità di canale Abbiamo quindi visto come sono relazionate fra di loro le risorse Banda e Potenza in un sistema di comunicazione digitale che fa uso di modulazioni numeriche. Le prestazioni viste in precedenza in particolare ci dicono quanta energia per bit è necessaria per avere buone prestazioni in termini di probabilità di errore per un dato livello di rumore, o in altri termini, di quanta potenza è necessaria per un dato bit rate e un dato livello di rumore. Un modo molto interessante per confrontare fra di loro le modulazioni numeriche è quello di ricorrere al grafico EE contro Eb/N0. Per ottenere tale grafico si fissa la probabilità di errore per bit che vogliamo ottenere, ad esempio Pe,b = 0.001 e invertendo le formule della tabella precedente si trova Eb/N0. La corrispondente EE è quella tipica della modulazione considerata. I punti corrispondenti alle diverse modulazioni sono riportati nella figura sottostante. La curva continua corrisponde al limite teorico di Shannon dato dalla formula: ⎛ E ⎞ EE = log 2 ⎜⎜ 1 + EE b ⎟⎟ N0 ⎠ ⎝ Tale limite può essere avvicinato tramite l’utilizzo di tecniche di codifica di canale in cui la sequenza in ingresso al trasmettitore è generata da un codificatore che associa in maniera opportuna a una sequenza di k bit d’ingresso una sequenza di n bit di uscita (eventualmente occupando più tempi di simbolo) e in cui il demodulatore manda i bit demodulati al decodificatore di canale che ricostruisce la sequenza originaria (correggendo fino a un certo numero massimo di errori se presenti). Il significato della figura è che se vogliamo risparmiare in potenza/energia occorre spostarsi a sinistra e questo lo si paga con una minore efficienza spettrale, ovvero con il consumo di più banda per trasmettere lo stesso bit rate. D’altra parte, se vogliamo risparmiare banda a parità di bit rate occorre spostarsi verso l’alto e questo lo si paga con una maggiore potenza. Quando le risorse banda/potenza sono risorse critiche, diventa necessario cercare di avvicinare il più possibile il limite teorico di Shannon, ovvero utilizzare tecniche di modulazione/codifica di canale più efficienti possibile.