da Piero Marietti La rivoluzione digitale senza intemperanze 1. Introduzione: perché del successo delle tecniche digitali (numeriche) nel trattamento dell’informazione. L’ informazione è l’oggetto di un possibile dialogo tra un ente trasmittente e uno ricevente: libro-lettore, fumate indiane-accampamento, studio televisivo-televisore, altoparlante-orecchio. L’informazione può essere trasmessa, ricevuta, memorizzata, modificata: in questo consiste il suo trattamento. Il successo delle tecniche di trattamento digitale (numerico) dell’informazione è stato trainato dal successo del calcolatore. Che a sua volta gode di una tecnologia che sembra non conoscere limiti di perfezionamento e che fa del calcolatore un componente sempre più affidabile, veloce e a buon mercato. L’informazione ci arriva sempre codificata: esplicitamente (la scrittura) o implicitamente (la prospettiva brunelleschiana o un quadro cubista) e il codice può essere a interpretazione immediata, mediata dalla cultura e dal suo livello, oppure indecifrabile (e questo è il sogno di ogni servizio segreto). La decodifica è quindi il prodotto di un ambiente: se mi regalano un CD di Paolo Conte non posso dire di averne goduto l’ascolto se non lo infilo nel lettore e non lo faccio suonare dal mio hi-fi. Messa così dice molto, ma non spiega niente. Il calcolatore, infatti, serve a fare calcoli (non ragionamenti, ossia calcoli con uno scopo intrinseco), ma calcoli da eseguire secondo regole premesse. L’unico codice che il calcolatore “capisce” sono i numeri: perché esso possa trattare l’informazione, questa deve essere tradotta (codificata) in una serie di numeri. Come avviene quindi che il calcolatore possa trattare l’informazione è cosa che deve essere spiegata: lo si può fare partendo dal cinematografo. Perché il cinematografo? Perché, diversamente da quelli che pensano che l’origine della digitalizzazione si debba a Babbage, a Boole o al pallottoliere cinese, penso che ad aprire la strada alla digitalizzazione siano stati i fratelli Lumière, il cinematografo. Cioè quel tentativo coscientemente intrapreso di ricostruire il movimento avendo a disposizione la registrazione degli spostamenti che lo compongono. I Lumière e tutti quelli che avevano prima tentato la stessa strada con giochi di specchietti rotanti e curiosità da fiera di paese, sui quali giganteggia, per intuizione e maestria dell'esecuzione, la misura della velocità della luce ad opera di Fizeau. I Lumière, per sovrappiù, confidavano nell'esistenza e nell'efficacia di qualcosa che non era loro ancora chiara del tutto: essi intuirono l'interpolatore, ossia un meccanismo che ricostruisse il movimento "inventandosi" cosa avviene tra un fotogramma e il successivo. Chiariamo bene questo passaggio perché è cruciale per arrivare a comprendere. Cosa fa il cinema? Scatta una sequenza di fotografie e poi le proietta su uno schermo una dopo l’altra nello stesso ordine e con la stessa velocità con i quali sono state eseguite. Quando si scattano le foto e le si registrano su una pellicola si sta acquisendo l’informazione (spesso si dice “il dato“) relativa alla scena che interessa: ogni foto è un campione della scena che evolve con continuità nel tempo. Quando si proiettano le foto 1 sullo schermo si sta restituendo l’informazione acquisita. Quindi si deve eseguire la proiezione con gli stessi tempi adoperati nell’acquisizione, né più velocemente né più lentamente. Se si interviene sul processo di passaggio dal negativo al positivo, per esempio alterando i colori o andando “al rallentatore“, si sta elaborando l’informazione (scena) acquisita per fini da dichiarare. Il cinema usa 24 foto al secondo: è esperienza comune che un’acquisizione più lenta, per esempio 12 foto al secondo, renderebbe una proiezione procedente a scatti, mentre una acquisizione più veloce non migliorerebbe la visione, contribuendo solo a complicare la macchina (da ripresa e da proiezione) che dovrebbero lavorare a velocità maggiore. Ne deriva quindi che il numero di foto al secondo deve essere superiore ad una certa soglia, ma di quanto superiore importa poco. Quando la soglia è sorpassata, l’occhio non si accorge di essere davanti ad un fenomeno che non si svolge con continuità nel tempo, cioè lo “interpola“ correttamente “inventandosi“, grazie anche al contributo del suo calcolatore biologico, il cervello, il modo in cui la scena evolve tra un fotogramma e l’altro. Come spesso succede, l’uomo tenta di estendere ad altro ambito un risultato ottenuto in un certo contesto. Se il cinema risponde alla domanda: “Ogni quanto devo fotografare una scena affinché lo spettatore che guarda la proiezione dei fotogrammi non si accorga della discontinuità tra una foto e l’altra?“, ci si può porre una domanda dello stesso tipo riferita però ad altra questione. Per esempio: “Ogni quanto devo misurare il Dow Jones per avere una ragionevole idea dell’andamento del NYSE?“. Oppure: “Ogni quanto devo rilevare il costo della vita per avere un’idea precisa dell’inflazione?“, ossia, generalizzando: Ogni quanto devo acquisire il valore di una funzione per poterla dignitosamente ricostruire?“. A queste domande risponde il Teorema del Campionamento sul quale ci soffermeremo al paragrafo 2. Supponiamo, ora, di aver ottenuto la risposta corretta: allora, come la scena è stata congelata in un certo numero di fotogrammi in sequenza e di temporizzazione nota (uno ogni ventiquattresimo di secondo), così la funzione invece di un grafico su un piano cartesiano è diventata una tabella di numeri. A un certo istante corrisponde 3, a un altro 1,8, a un terzo 0, a un quarto –0,5 e così via. Un esempio di numerizzazione di una funzione è mostrato in Fig. 1dove la temperatura giornaliera in un certo lasso di tempo è rappresentata come funzione e come tabella di numeri campionati alle 12 di ogni giorno. 2 Temperatura Lu 22 Ma 20 Me 18 Gi Ve 16 12 Sa Do Lu 10 Ma 14 Lu Ma Me Gi Ve Sa Do Lu MaMe ... alle 12.00 15,5° 15,0° 14,2° 14,0° 13,8° 13,8° 13,8° 13,8° 14,5° ... Fig. 1 Qui c’è il punto di svolta: se una funzione, ossia un modello matematico che rappresenta un fatto fisico, è diventata una sequenza di numeri, questi possono essere trattati, ossia mantenuti, cambiati in un modo oppure in un altro, inviati a qualcun altro, eccetera, da qualcosa che sappia maneggiare numeri. E chi meglio di un calcolatore che è nato (e cresciuto) proprio per eseguire questo compito? Poiché abbiamo fatto grandi progressi negli ultimi 30 anni della costruzione e nell’uso dei calcolatori tanto che oggi un calcolatore è un componente (un chip) di circa un centimetro di lato e può costare pochi euro, dotare un sistema materiale di un calcolatore non è proibitivo. Abbiamo un chip (calcolatore) in automobile, nella lavatrice, nel lettore di CD, nell’autoradio e, ovviamente, nel calcolatore. Questo processo di campionamento, numerizzazione e trattazione dell’informazione a mezzo calcolatore risulta a buon mercato e alla portata di tutti: quindi le tecniche digitali hanno invaso la nostra vita. A questo punto del nostro discorso il lettore può assumere due atteggiamenti: contentarsi delle considerazioni svolte e affidarsi alla sua intuizione per proseguire saltando il prossimo paragrafo, oppure richiedere un maggiore rigore e addentrarsi nella lettura del paragrafo successivo. 2. I teoremi sui quali si fondano le tecniche digitali. Tra i vari teoremi di matematica applicata alla Teoria dell’Informazione sui quali si basano tutte le moderne tecniche elettroniche e quindi anche quelle digitali (numeriche), illustriamo il Teorema di Fourier (TdF, 1822) e il Teorema del Campionamento (TdC, Nyquist, 1928). Se vogliamo capire bene questi due Teoremi dobbiamo costruirci un linguaggio comune, una base di comprensione reciproca. Quindi ricorriamo ad esempi non barbosi e alla nostra intuizione. Si consideri una figura di qualunque natura: un quadro del Botticelli, l’andamento dell’indice Mibtel nel tempo, la foto di una bella ragazza. Ebbene queste figure non sono che distribuzioni di linee, di zone o campi colorati ed eventualmente di simboli 3 (per es. alfabetici) sullo spazio che si è deciso di utilizzare: la tela del pittore, un foglio di carta millimetrata, la carta fotografica. Non è difficile convincersi che queste “distribuzioni” siano traducibili in funzioni matematiche: perfino la tela del Botticelli. Essa corrisponderà a quattro funzioni: tre che per ogni punto forniranno la quantità di rosso, quella di verde e quella di blu per stabilire il tipo di colore, mentre la quarta ci darà, punto per punto, la luminosità. Messa così, queste funzioni sono assai ricche di informazioni, perché i punti di un’immagine sono tanti, ma tanti, insomma: sono infiniti e le quattro funzioni devono dare la informazione relativa ad un punto qualunque dell’immagine. Funzioni di questo tipo si dicono “analogiche” perché evolvono rappresentando fedelmente punto per punto, ossia “in analogia” con, le proprietà che identificano la cosa che vogliono rappresentare. Per trattare le funzioni analogiche (FA, compito dell’Analisi Matematica) gli scienziati si sono costruiti dei metodi, alcuni dei quali consistono nello scomporre le FA nella somma di altre funzioni, sempre FA, ma ciascuna più semplice (molto più semplice) di quella di partenza. Per fare un esempio, una folla è un oggetto complicato che si può scomporre in base: a) al colore degli occhi, oppure b) al colore dei capelli, oppure c) al sesso, d) alle classi d’età, e) al censo, f) al credo politico o religioso e si potrebbe seguitare. Una volta scomposta la folla, se si ri-uniscono (si ri-sommano) tutti i pezzi della scomposizione, qualunque essa sia stata, si ri-ottiene sempre la stessa folla di partenza. Una delle scomposizioni più semplici e comode di una FA è quella di Fourier che la scompone in “onde” (meglio dette sinusoidi), anche loro essendo FA ma particolarmente semplici e facilmente immaginabili. A prima vista non è immediato convincersi che le onde, così arrotondate e ripetitive, possano, sommandosi tra di loro, ricostruire, per dirne una, un brusco passaggio dal verde al rosso. Eppure Fourier, e c’è da credergli perché lo dimostra rigorosamente, ci assicura che ciò è possibile e ci dà anche il modo di farlo, nel quale non entriamo perché non interessa al nostro discorso. E’ necessario però notare che le onde possono essere di ampiezza grande (cavalloni del mare) e piccola (increspature) e di frequenza bassa (lente ondulazioni, quelle che in acustica corrispondono ai suoni gravi) oppure alta (oscillazioni veloci emesse da un soprano o addirittura ultrasuoni): ogni FA avrà bisogno del suo gruppo di onde, di ampiezza e di frequenza opportune e adatte, sommandosi, a ricostruire proprio quella FA e non un'altra, insomma ogni FA ha le sue onde, come ognuno di noi ha il suo DNA o le sue impronte digitali. Detta fL la frequenza dell’onda più lenta (L sta per Low) ed fH quella dell’onda più rapida del gruppo che appartiene ad una certa FA, l’intervallo BW = fH – fL è la banda di frequenze (BW = Band Width, larghezza di banda) occupata dal gruppo, quindi dalla FA. Con parole appena più precise. Tanti fenomeni possono essere descritti da una FA. In questa sede a noi interessano quelle FA che evolvono nel tempo(*), in simboli f(t) e che comunemente vengono chiamate “segnali”: la sirena dei vigili del fuoco, le fumate indiane, lo squillo del telefono, il campo elettromagnetico causato da un’antenna e che viene, con una certa fatica, convertito in suoni (radio) e in immagini e suoni (televisione). Conclusione: i segnali sono rappresentati da FA e possono anche essere pensati come somma di un gruppo di onde opportunamente formato. (*) Il Teorema vale per funzioni di qualunque variabile e anche per funzioni di più variabili come la luminosità di una scena. 4 Proviamo quindi a concludere con una formulazione del TdF (Teorema delle Funzioni): data una funzione del tempo f(t) che non sia particolarmente bizzarra (rigorosamente: continua e derivabile fino ad un ordine n qualsiasi) essa può essere sempre ottenuta come somma di un certo numero, magari infinito, di funzioni sinusoidali (onde) di ampiezza e mutua posizione opportuna e frequenza compresa tra un valore iniziale fL e un valore finale fH. Se f(t) è un segnale elettrico si parla di frequenze contenute nel segnale e fH-fL=BW è la banda occupata dal segnale(*). Il TdF è un enunciato assai robusto: fornisce il metodo per il calcolo delle "onde opportune", sopporta di essere applicato con un certo successo anche a funzioni, quindi a segnali, che non siano esenti da bizzarrie (discontinuità, periodicità, etc.) e stabilisce che le ampiezze delle componenti sinusoidali decrescono all'aumentare della loro frequenza, magari non monotonamente, ma decrescono. Questo permette di considerare sempre BW finite anche se la matematica decide che fH valga infinito: fH è, nella pratica, l'ultima frequenza con un'ampiezza ancora percettibile. Proviamo ora ad enunciare il TdC (sempre senza volere essere troppo precisi): dato un segnale f(t), se si conoscono solo i suoi valori (campioni) negli istanti kTc, cioè se si conoscono i valori f(Tc), f(2Tc), f(3Tc)...f(kTc)...f(nTc)..., è possibile ricostruire il segnale f(t) tramite un interpolatore che "inventi" i valori non noti tra un istante di campionamento e l’altro, ossia genericamente tra kTc e (k+1)Tc, a patto che il tempo (periodo) di campionamento Tc sia tale da corrispondere a una frequenza 1/Tc>2fH. In altre parole: l’operazione è possibile se si campiona un po’ più velocemente di un certo tot. Esempio: se si assume che la massima frequenza contenuta in un segnale vocale sia di 5.000 Hz (1 Hz = 1 Hertz = 1 oscillazione al secondo, 5000 Hz = 5000 oscillazioni al secondo), allora 2fH = 10.000 Hz e il segnale sarà ricostruibile se se ne conoscono i campioni presi ogni Tc < 100 sec, dove sta per un milionesimo. Anche il TdC è un enunciato assai robusto: tranne per la condizione su Tc che deve essere strettamente rispettata, permette di campionare segnali della più svariata forma e svolgimento nel tempo e indica anche l'interpolatore capace di "inventare" nel modo corretto i valori che mancano: si tratta di un filtro capace di far passare solo le frequenze contenute in BW e buttare via le altre. Non pretendo che tutto questo discorso risulti chiarissimo, mi contenterei che risultasse chiaro il percorso mentale, per cui mi aiuterò con qualche disegnino. Nella Fig. 2 è rappresentato il processo di analisi alla Fourier: dal segnale f(t) si ricavano le sue componenti sinusoidali che, se si sommano, ricompongono f(t). Il processo di Fourier passa al processo del Campionamento le informazioni su fL e fH. (*) Si faccia attenzione a non confondere le frequenze "contenute" in un segnale con le frequenze di trasmissione. Ogni stazione trasmittente (per es. Rai 1) usa una frequenza di trasmissione detta "portante" che "porta" appunto su di sé il segnale (sonoro, televisivo e quant'altro) con tutte le sue frequenze. L'operazione che ha permesso al segnale di diventare il fantino della portante si chiama modulazione e in essa non entriamo. Assegnare una frequenza di trasmissione serve a distinguere una stazione dall'altra. 5 Tante componenti sinusoidali Segnale Somma delle componenti Analisi di Fourier Segnale Teorema del Campionamento Informazioni su f e f L H Fig. 2 Con queste informazioni (Fig. 3) si esegue il campionamento del segnale f(t) simbolicamente rappresentato da un interruttore che si chiude ogni Tc secondi e si riapre subito in modo da far passare il segnale agli istanti di campionamento (come un occhio che guardi una scena aprendosi e chiudendosi ritmicamente, i fratelli Lumière per l'appunto). Il valore dei campioni viene misurato ma, per essere realisti, bisogna decidere il numero di cifre significative da usare per dare il risultato di questa misura. Per esempio, ottenuto il risultato 13,651874 se non avvertiamo il bisogno di tante cifre decimali, possiamo decidere che quel campione vale 13,7 oppure 13,652 oppure come ci fa comodo. A questo punto abbiamo ridotto il segnale ad una sequenza di numeri con i quali il TdC ci assicura che possiamo ricostruirlo (certo non perfettamente se abbiamo anche arrotondato, ma decentemente quanto ci basta) e decidiamo come rappresentare questi numeri. E' qui che vengono fuori i famosi bit, che altro non sono se non una rappresentazione comoda per l'elettronica: quando essa viene usata per esprimere i numeri-campioni di un segnale numerizzato si dice che il segnale è stato digitalizzato. Tutto questo procedimento avviene nel convertitore analogico digitale (Fig.4), o ADC: esso riceve il segnale analogico f(t) e un segnale di temporizzazione (che chiamiamo Clock), il quale ogni Tc secondi comanda all'ADC di campionare, numerizzare e digitalizzare il segnale f(t). L'ADC fornisce il segnale digitalizzato sotto forma di N bit che "dicono" il numero relativo ad ogni campione. Teorema del Campionamento Chiude ogni T c secondi Segnale f(t) Tempo-continuo analogico Misura del valore dei campioni Segnale f(kT c ) tempodiscreto analogico Approssimazione dei valori Rappresentazione dei valori approssimati Da qui escono i bit 6 Fig. 3 Segnale analogico ADC Segnale digitale di N bit Ck (Tc ) Fig. 4 Il segnale digitale che rappresenta f(t) è fatto di N bit ogni Tc secondi. Per esempio 8 bit (pari a 1 byte) ogni milionesimo di secondo, quindi 8 Megabit al secondo, oppure 1 Megabyte al secondo, abbreviato in 1 Mbyte/sec o 1 MB/sec. Il numero N dei bit gioca lo stesso ruolo delle cifre significative di un numero espresso in decimali: più N (o il numero delle cifre significative) è alto, più il numero rappresenta con precisione il valore indicato. Il TdC ci assicura che possiamo ricostruire il segnale analogico: a questo pensa il convertitore digitale analogico (DAC, Fig. 5) che riceve bit e fornisce f(t) avendo l'informazione di Clock e nascondendo dentro di sé l'interpolatore. Se collegassimo i bit uscenti dell'ADC di Fig. 4 a quelli entranti nel DAC di Fig. 5 non avremmo combinato un gran che essendo partiti da f(t) e ad essa ritornati, ma avremmo dimostrato l'efficacia dell'analisi di Fourier e del TdC. Segnale digitale di N bit DAC Segnale analogico Ck (Tc ) Fig. 5 Si può fare ed è anche un esercizio divertente. 3. Alcune importanti conseguenze del processo di digitalizzazione Si è visto che il segnale analogico occupa una banda BW=fH-fL: proviamo ad elencare una serie di corollari e conseguenze di una tale acquisizione e della conseguente operazione di digitalizzazione del segnale. 7 1. Cosa significa decidere che fH è l'ultima frequenza con un'ampiezza ancora percettibile? Come ci azzardiamo a troncare a un certo valore quello che la matematica ha decretato essere un insieme di valori che si estendono magari fino ad infinito? Non si dimentichi mai che l'Elettronica ha un grande nemico: il rumore. Esso è dappertutto, è inevitabile, contrastabile ma non eliminabile, può essere contenuto, ma non vinto. Se la matematica mi dice che c'è una sinusoide la cui ampiezza è uguale o inferiore al rumore, si può ringraziare questa della fatica di esistere, ma tale "onda" è inutilizzabile. Quella componente sinusoidale non la vedrò mai, sta dentro il rumore e stanno dentro al rumore tutte quelle di frequenza maggiore, quindi per me non esistono, posso piazzare fH prima del loro valore. 2. Il TdC impone di campionare ogni Tc<1/2fH: quindi, più fH è alto, cioè più il segnale contiene frequenze elevate ancora percettibili, più il campionatore (l'interruttore di Fig. 3) deve andare veloce e meno tempo si ha a disposizione per la conversione, cioè il convertitore deve lavorare più in fretta. Andare veloce è sempre più difficile che andare lentamente. 3. Una volta stabilito il Tc, si passa a stabilire il numero N di bit. Se Tc è 1 sec e N=8 avrò, come già detto, 1 Mbyte/sec, ma se scelgo N=12 dovrò sfornare una volta e mezza i bit al secondo, cioè 1,5 Mbyte/sec. Quindi devo andare più veloce se voglio aumentare la precisione della conversione. 4. Se ne deduce che: il sistema (per es. un calcolatore) che dovrà elaborare i dati digitali dovrà farlo ogni Tc secondi e su N bit, ossia dovrà digerire N/Tc bit/sec. La sua velocità aumenta sia se si diminuisce Tc che se si aumenta N. La capacità di elaborazione si misura in bit al secondo (bit/sec). 5. Va da sé che il costo di un ADC, di un DAC e di un elaboratore digitale aumenta con la sua velocità espressa in bit/sec elaborati. 6. Poiché il mondo ci appare, diciamo "è", analogico, per entrare nel mondo digitale dobbiamo acquisire i dati dal mondo come è (Fig.6), sottoporli a conversione, elaborarli con un elaboratore (calcolatore) digitale e risottoporli a conversione inversa perché noi umani dei bit non sappiamo che farcene, ci servono suoni, luci, colori, caratteri alfanumerici e tante altre cose che fanno la vita bella e non arida. 7. Si tenga sempre presente che il flusso dei dati e delle operazioni che su di essi si eseguono non può svolgersi in maniera disordinata nel tempo: elaborare dati che non sono ancora pronti o elaborare un dato scambiandolo per un altro porta al fallimento dell'elaborazione. C'è bisogno cioè di una generale sincronizzazione di tutto il sistema. La sincronizzazione in elettronica è l'analogo del solfeggio nella musica. 8 Mondo Raccolta dei dati ADC Elaboratore Digitale Analogico DAC Risultati Mondo Analogico Clock (Tc ) Digitale Fig. 6 8. Quando si digitalizza un segnale analogico che occupa una certa BW si produce un segnale fatto di bit che ha una BW che possiamo considerare grossolanamente pari a circa N volte BW se N è il numero di bit usati. Questo è uno svantaggio del digitale rispetto all'analogico. 9. Grandi capacità di elaborazione sono necessarie nei calcoli scientifici, per le previsioni meteorologiche, per la trasmissione di immagini, specie se in movimento (televisione, simulatori di volo, etc.), per alcuni sistemi di controllo in tempo reale (tipicamente sistemi di guida di mobili ad alta velocità, come aerei e bombe intelligenti). Ne consegue che per scrivere una lettera, collegarsi ad internet, inviare email, controllare le movimentazioni di una catena di produzione, i 2 Ghz di Clock con i quali si reclamizzano i PC attualmente in vendita sono proprio sprecati. Non vorrei banalizzare, ma i veri utenti di questa capacità di calcolo sono i ragazzini delle famiglie che si divertono con i giochi interattivi e le play station. 10. Visto che abbiamo ricordato i simulatori di volo, cioè stazioni di addestramento per futuri piloti, permettetemi un cenno ai sistemi creatori di altre vite, cioè di realtà virtuale (VR). A costo di sembrare arido, non sprecherò per essi la più piccola delle lodi. Sono un monumento al consumismo, poiché implicano l'uso di risorse cospicue (capacità di calcolo), costose (guanti sensibili, caschi visori, etc.) e per di più restano avari di contributi scientifici, una sorta di montagne russe ad alta tecnologia per gente in cerca di sensazioni forti che non costino il rischio della vita. Alcune occasionali ricadute sulle conoscenze in merito ai meccanismi cognitivi e alle elaborazioni di dati per via biologica possono essere ottenute in maniera più sistematica e meno costosa e non giustificano gli entusiasmi sollevati da questi sistemi. 4. Accuse di oscurantismo da considerare attentamente prima di rinviarle al mittente. Me le aspetto, queste accuse, e dico subito che mi fanno paura, in primo luogo perché possono essere vere, poi perché spesso prendono la forma di bolle papali, fatwa, editti, insomma roba con la quale discutere è assai pericoloso. 9 Dice: è il progresso, il progresso è stato possibile anche grazie ai consumi privati, quando questi aumentano la gente sta meglio, guarda i nostri paesi (i cosiddetti occidentali) e confronta la condizione media di oggi con quella di cento anni fa. Controbattere questi argomenti, corroborati da antibiotici, sparizione dei briganti fra Lodi e Milano, possibilità di divertirsi oltre che lavorare e così via benedicendo, non solo non è facile, ma non è nemmeno nelle mie intenzioni. Non sogno un generale ritorno alla società delle sorelle Materassi, di Senilità o dell'Albero degli Zoccoli. Mi contento di mettere in luce le qualità straordinarie che un calcolatore palesa quando lo si usa come controllore di processo e l'assenza quasi totale, viceversa, di controllo del processo sociale che chiamiamo post-industriale. Ho spazio (e cultura) per quattro flash, non per un'analisi esauriente. A proposito, nove volte su dieci avreste letto "esaustiva", traduzione della parola inglese "exaustive" la cui radice "exaust" vale anche per gas di scarico, materiale di rifiuto, quindi è usata in maniera ambigua, troppo convenzionale per essere poetica, si confronti col francesismo "eclatante", entrato nel parlare comune senza forzare i tempi, senza correre dietro al mito della velocità di calcolo. Più in generale: è indubbio che, benché gli scienziati dell'elettronica operino più o meno sparsi per il mondo, siano stati gli USA a fare dell'elettronica un prodotto di uso e di consumo di massa. La lingua ufficiale dell'elettronica è quindi l'anglo-americano, che è anche la lingua dell'economia più grande del mondo. La contaminazione linguistica è benvenuta per la sua capacità di rendere vive le lingue nazionali, ma quando si esagera, si esagera. Mi sono creato un link da un data beis da cui ho anloadato tutti i faile utili a costruire un report da presentare al miting, è una frase polemicamente costruita, ma purtroppo plausibile. Sono cattivo fino in fondo: metto in relazione questo con il fiorire di attimini, dove sei?, come ti chiami da dove chiami, con ogni cosa che non si sa descrivere che diventa "particolare", con "tipologia" al posto del più ordinario "tipo", insomma con l'impoverimento e la mistificazione del vocabolario, la caduta del livello del linguaggio. Secondo flash. Fate l'esperimento di andare in Inghilterra (perché non usa gli euro) e cambiate 100 euro a uno sportello che espone la quotazione, buy 0,67. Lo/a impiegato/a batterà su una calcolatrice l'operazione 0,67x100=67. C'è un bellissimo racconto di fantascienza nella raccolta "Le Meraviglie del Possibile", Edizioni Einaudi, intitolato 7x9=63 nel quale...ma non ve lo voglio anticipare, leggetelo. Il primo e il secondo flash ci illustrano una grave insostenibilità: un'acuta contraddizione tra livello di cultura desiderabile per il cittadino e livello di cultura bastevole al (e desiderato dal) tipo di lavoro che viene dato da svolgere. Con la conseguenza che aumenta la rabbia e la frustrazione di chi si sente ogni giorno meno in grado di comporre sintesi rispetto ai problemi esistenziali o alla complessità del sociale in cui si vive. Non è responsabilità della rivoluzione digitale, ma non trascurerei il suo contributo. Terzo flash. Dice: la rivoluzione digitale affranca l'uomo dalla fatica dei lavori faticosi, dai pericoli di quelli pericolosi e dalla miseria di quelli miserabili. Non ne sono convinto, a meno che per "uomo" si intenda solo una parte del genere umano e mi spiego. Cominciamo con l'automazione: si chiamava Artwright quello del telaio, diciamo, automatico? poi Watt che aumentò a dismisura rendimento e sicurezza delle macchine a vapore? poi...insomma la rivoluzione industriale, che ha cambiato il modo di lavorare, la quantità del lavoro pro-capite e tutte le cose che sappiamo. In un paio di secoli un bel pezzo di mondo è cambiato e il procedimento si è sostenuto perché a misura che si 10 cancellavano posti di lavoro se ne creavano di nuovi e di inediti. Anche la rivoluzione digitale tenta la stessa strada, ma quanto potrà andare avanti senza incepparsi il meccanismo espulsione-riqualificazione-sostituzione? Sembra arrivato il momento di ammettere che questo meccanismo che aumenta a dismisura la produttività dell'individuo non è più sostenuto dall'abbassamento del costo per pezzo prodotto e dall'aumento del reddito pro-capite da rivolgere al consumo: non è più sostenibile. In presenza di un'organizzazione della società che stenta ad adeguarsi al fenomeno, c'è chi ci prova con le 35 ore settimanali, ma fa scricchiolare altri istituti, il sistema pensionistico in primo luogo e i diritti del lavoro subito appresso. Senza parlare delle contraddizioni planetarie tipo nord-sud, materie prime-trasformazione, tecnologieprodotti e altro al che assistiamo quotidianamente. Inoltre, hai voglia a digitalizzare, ma a un certo punto: prosciutto, scarpe, armadi e quant'altro devi pure produrli e non lo può fare nemmeno il più intelligente complesso di bit. Allora escono fuori i "lavori che gli italiani non vogliono più fare" che producono immigrazione, oppure il "decentramento produttivo" che produce sconquassi economici, sociali ed ecologici, come avviene con la nube di inquinamento che staziona sull'estremo oriente asiatico. Insomma entra in gioco la contraddizione prodotti-servizi: i primi sono in maggioranza materia, i secondi in maggioranza bit. A proposito di inquinamento, quarto flash, il sogno di un'industria "pulita", quella degli apparati elettronici, si poggia su una verifica non eseguita dei suoi modi di produzione, che impongono un'estrema pulizia "dentro" l'industria, ma usano materiali che puliti non sono come il silano, velenosissimo, e i CFC, forse oggi dismessi, in quantità superiore a quella dei flaconi per le lacche delle signore. Confessiamo poi che puntare su una qualunque produzione pulita qui, significa spostare quella sporca là, un là generico, basta che sia lontano da casa mia. Per chiudere sull'inquinamento, riporto un episodio di cui sono stato testimone. Un grosso palazzo era in fermento perché si era saputo che su un edificio vicino avrebbero piazzato un'antenna per i cellulari. C'era, nel cortile, un buon numero di inquilini preoccupati dell'inquinamento elettromagnetico (non di quello estetico) che discutevano animatamente e protestavano e telefonavano chi al deputato, chi all'assessore...con il loro cellulare. Fine dell'episodio. Infine, i flash erano quindi cinque, c'è una questione più sottile. Tante volte si usano oggetti dei quali non capiamo il funzionamento e abbiamo vaghe idee su come sono stati pensati e prodotti. Ma sono oggetti che servono a fare una sola cosa. Lavare i piatti: lavastoviglie, camminarci dentro: scarpe, farci un panino: pane, sedercisi sopra: sedia, andarci a cavalcioni: moto, e anche se con le scarpe posso spiaccicare uno scarafaggio, le cose che ci posso fare sono poche e tutte chiare. Se mi dò da fare, è facile che incontri uno che sa come funziona la lavastoviglie, come si fa il pane o come si mettono le mani nel motore della mia moto, pur non essendo un adepto zen. Quanto devo penare per trovare uno che sappia come funziona un telefonino? E un calcolatore? Non che lo sappia usare, ma che sappia bene che cos'è e come funziona e come viene pensato e prodotto. La gran parte dei laureati in informatica non è in grado di inventarsi un software di una qualche importanza e non gli sarà chiesto di farlo, ma di usare programmi già preconfezionati, i laureati in elettronica raramente saranno chiamati a progettare un sistema di elaborazione. Insomma, la rivoluzione digitale pretende di rivoluzionarci la vita, ma si affida ad un ristretto numero di sapienti, geni del bit, geni rari e imprenditori casuali (napster?). A noi rimane solo un assordante, assillante, stupido e spesso volgare battage pubblicitario funzionale a un fenomeno commerciale di dimensioni planetarie. 11 Per finire con i flash, un'ultima considerazione (e sei). Avevamo un paio di automobili in famiglia più qualche motorino: crisi dell'auto. Avevamo un televisore per camera, anche in bagno: crisi delle vendite di televisori, tentativo HDTV un flop, oggi pay-tv, pay per view, problema dell'ultimo miglio, probabili prossimi flop. Il Nasdaq e affini che salgono, salgono, salgono e poi scendono, scendono, scendono. Ci insegnano qualcosa oppure niente? Non mi oppongo alla rivoluzione digitale, ma ai suoi sacerdoti invasati e ai suoi seguaci acritici, mi oppongo alle folle che, aspettando il miracolo del sole che rotea nel cielo, finiscono per bruciarsi la retina. Non mi propongo quindi di finirla col digitale: desidererei che se ne governassero le conseguenze mettendo al passo leggi e istituti sociali con le nuove, sopraggiunte tecnologie. 5. La rivoluzione digitale ha portato un avanzamento delle conoscenze E' questa una delle posizioni più fortemente difese dai partigiani intemperanti della rivoluzione digitale. Ma a me sembra che si faccia confusione fra scienza, tecnica e tecnologia. Il TdF, il TdC, l'algebra di Boole, i Teoremi e i lavori di Logica Matematica di Turing hanno posto le basi scientifiche dell'elaborazione digitale dei segnali e di alcune applicazioni molto brillanti, come il filtro di Kalman e l'algoritmo di Viterbi. Questa è scienza, cioè avanzamento della conoscenza. La macchina di Turing e il suo perfezionamento dovuto a Von Neuman hanno dimostrato la fattibilità e l'efficienza del calcolo automatico. Lo studio dei codici ha permesso di contenere in proporzioni accettabili l'aumento di banda conseguente alla digitalizzazione del segnale. Forse l'elenco non è completo, ma cerchiamo di intenderci. Questa è tecnica, cioè dimostrazione di fattibilità. Ammetto che le divisioni sono sempre arbitrarie e spesso venate di soggettivismo: sono pronto a travasare un articolo da qui a lì e viceversa, adesso mi interessa ottenere un benevolo cenno d'intesa. Il resto è pura tecnologia, lo scopo della quale è produrre dei componenti più complessi, più efficienti, più affidabili, più veloci. Non c'è stato nessun episodio di vera e propria svolta nel panorama dell'elettronica da quando è stato prodotto il primo integrato o il primo microcircuito (diciamo 1970). Si aspetta un'innovazione pari al cambio valvoletransistor (1947), si cercano nuovi materiali, ma il vecchio silicio ancora non incontra competitori, anzi guadagna terreno, si spera nell'elettronica molecolare e nei materiali organici, ma non si vede ancora un risultato da far leccare i baffi. Certo, la potenza di calcolo ha permesso agli scienziati l'uso di modelli matematici estremamente complicati e molto fedelmente descrittivi delle realtà studiate, la mappatura del genoma non sarebbe stata possibile con carta e matita, nemmeno le imprese spaziali, i satelliti per TLC, il GPS e tutte quelle meraviglie raccontate nei film di 007. C'è stato un avanzamento delle conoscenze grazie allo strumento, mentre lo stesso strumento è servito per spingere al limite le prestazioni di se stesso, non per mutarne la sostanza. Si è governata la complessità, ma non mi sembra si siano sciolte le difficoltà. Se avessi cultura in materia, mi azzarderei a dire qualcosa su studi tipici delle scienze della cognizione, della psicologia, diciamo in generale delle scienze umane. Sulla cosiddetta intelligenza artificiale non mi pronuncio, so poche cose e non mi 12 convincono, l'idea di usare un robot sostitutivo del comportamento umano mi sembra più un obiettivo da saga di Guerre Stellari che un'esigenza dell'uomo. Dice Negroponte (par. 8, op.cit. pag. 209):"...i bambini impareranno concetti fisici e logici che voi e io abbiamo imparato all'università". Non so a voi, ma a me un esercito di gremlins famelici e per di più estremamente colti mi fa terrore. Non sarebbe meglio aumentare il numero di quelli che vanno all'università, contemporaneamente allentando il vincolo fra la cultura posseduta e il lavoro prestato? L'ho buttata lì, chissà che cresca. Della produzione di software e dei suoi creatori non so decidermi a dire: a volte mi sembra che facciano un lavoro di alto contenuto scientifico, a volte non mi entusiasmano più degli inventori dei giochi di società, degli indovinelli o delle parole incrociate. Il loro prodotto finale è sicuramente una secrezione di pura intelligenza umana codificata, immagazzinata e pronta per l'uso. Per diventare prodotto, deve però essere dotata di un'interfaccia che la renda di facile uso anche a chi non capisce niente di elettronica, informatica e telecomunicazioni. Ne consegue che pochi, pochissimi cervelloni rendono facili per tanti utenti operazioni assai complicate (prenotazioni, banche, servizi postali, etc.). Sia chiaro: facili, nel senso eseguibili senza capire, non semplici nel senso da eseguire perché si sono capite. La vecchia realtà si capovolge: invece dello scemo del villaggio, abbiamo l'intelligente del villaggio. Questo dovrebbe preoccuparci. Infine, si sostiene che, prima della rivoluzione digitale, c'erano cose che l'elettronica non era in grado di fare cioè, detto in gergo, ci sono operazioni che sono fattibili solo in digitale e non in analogico. Bisogna intendersi su cosa si intende per "fattibili". Spesso si intende che sono più comode, più semplici, più precise: se devo svitare un bullone è bene usare una chiave inglese, ma, in mancanza, anche una pinza può servire allo scopo. Il più grande vantaggio del digitale rispetto all'analogico è, mi sembra, nel tipo di memoria utilizzabile: in analogico si ricorre ad aggeggi come il nastro magnetico che è lento, scomodo, soggetto ad errori, ha parti in movimento. A confronto, una RAM, una ROM, un disco o dischetto, un CD sono anni luce avanti. Applicando il TdC memorizzo i segnali e poi li elaboro quando mi fa comodo. E' un vantaggio di proporzioni gigantesche, che da solo giustificherebbe la vittoria della rivoluzione digitale. Anzi, si deve insegnare agli studenti che, appena sia possibile la digitalizzazione dei segnali, 99,9 volte su cento conviene passare al digitale e abbandonare l'analogico: quasi sempre il digitale ti fornisce la chiave inglese per il tuo bullone e, anche se non è detto che la cosa non si potrebbe fare in analogico, il digitale la fa più rapida, più precisa e, una volta che hai comprato il calcolatore, anche in maniera più semplice. Ma ci sono cose che il digitale non sa fare e devono essere fatte in analogico: l'acquisitore di dati della Fig. 6 è analogico, una trasmissione radio o Tv o satellitare è un'operazione analogica, il trattamento di segnali a microonde è elettronica analogica. Altro è quindi riconoscere i meriti della rivoluzione digitale, altro è cambiarle nome e farla diventare dittatura digitale, attribuirle facoltà taumaturgiche o magiche paventando digital divide o addirittura digital gap, modellare la propria vita sui prodotti che essa suggerisce e propone. Per non rischiare quindi la fine dell'apprendista stregone, quello di Fantasia della Disney, affogato nei suoi stessi sogni in compagnia di tutti quelli che hanno perso i loro risparmi investendo nel listino Nasdaq e affini per il mondo, forse è bene mantenere i piedi per terra, non idolatrare né demonizzare quella che è solo una tecnica come altre, la cui peculiarità, la velocità ottenibile, è da usarsi solo se serve. 13 In altre parole, sarebbe bene soffermarsi a cercare le risposte alle seguenti domande, tra le tante che si potrebbero porre proprio sul terreno della sostenibilità. a) In cosa la TV digitale (v. par. 6) migliora le nostre vite? b) In cosa l'UMTS (le videotelefonate in generale) migliora la nostra vita? c) E’ di utilità per la gente (e non solo per quattro manager) potersi collegare a internet anche se si sta a prendere il sole sul molo di Viareggio (si fa per dire)? d) Quattro milioni di pubblicazioni mediche disponibili via internet riescono a migliorare le prestazioni del mio medico? e) I Paesi in Via di Sviluppo hanno bisogno prioritariamente di colmare il digital-gap? Prima di rispondere, chiedere in Liberia o nel Ruanda-Burundi. f) Sappiamo cosa significhi "digital-gap"? Prima di rispondere informarsi presso i meninhos da rua a Rio o a Sao Paulo. g) E’ giusto che spenda 1500 euro per comprare un PC (portatile, sigh!) da 1,5 GHz (1 GHz = 1 Gigahertz = 1 miliardo di oscillazioni al secondo) a mio figlio che poi mi chiederà i soldi per comprarsi strani giochi, strani DVD, collegarsi ad internet via il mio telefono fisso, ci passerà un sacco di tempo incollato (vai al capitolo "bollette salate") e non avrà imparato nemmeno l'abc della programmazione? h) E' molto raro che il calcolatore dei nostri figli sia dotato di ADC e DAC. Per cui non è possibile per quell'oggetto dialogare col mondo in generale, ma solo con quella fetta di mondo costruita da, per, con, su, tra calcolatori: i già citati giochi, DVD, internet. Solo l'e-mail e i suoi surrogati (chat line?) lo mettono in contatto col mondo: giudicate voi. i) Non sarà che questa rivoluzione digitale ha rivoluzionato anche il livello di welfare (pensioni, sanità, istruzione, rieducazione, interventi nel sociale) per il quale non trovo più soldi da investire visto che devo pagare tutti quei bit di mio figlio, socialmente inteso? 6. Puntualizzazioni tecniche che possono essere saltate da chi non ne può proprio più. Nei parr. precedenti sono state discusse le caratteristiche basilari dell'elaborazione digitale (o numerica) dei segnali ed esposte alcune delle ragioni che la fanno preferire, quando essa sia possibile, a quella analogica. Tale scelta risulta conveniente, nonostante si debba passare per l'operazione di conversione analogico-digitale (ADC) e per quella inversa (DAC) a fine elaborazione. Riassumiamo le motivazioni a favore dell'elaborazione digitale: a) Semplicità del ricevitore. Un ricevitore di segnale digitale deve discernere basicamente tra due tipi di segnali: il bit 1 e quello 0, sì o no, bianco o nero: deve cioè fare una scelta dicotomica. Si comprende che si sbaglia meno a separare il bianco dal nero (digitale) piuttosto che a valutare il tono di un grigio (analogico). Un tale ricevitore ha una più bassa probabilità di errore. b) E' conseguentemente semplice predisporre il ricevitore a ricevere "bene" il segnale in dipendenza dal dove e dal come gli arriva. In altre parole, è più semplice minimizzare gli effetti del rumore che accompagna il segnale in arrivo. c) Flessibilità dell'elaboratore: il calcolatore può svolgere compiti diversi dipendendo dalla sua programmazione (SoftWare = SW) e non dalla sua costruzione (HardWare = HW). 14 d) Comodità di risolvere a livello di elaborazione i problemi di precisione che risultano legati al numero di bit usati. e) Possibilità di lavorare con componenti ad alto grado di integrazione (i chip) grazie alla estrema semplicità con la quale si può trattare e memorizzare un segnale che può assumere due valori (bit) e al basso livello di energia (0.1-10 pJ) necessario per memorizzarlo per un tempo praticamente illimitato. Ciò abbassa i costi dei sistemi di elaborazione e ne aumenta l'affidabilità intesa sia come occorrenza dei guasti che come possibilità di errori di elaborazione. f) Diminuzione delle energie impiegate a parità di funzione eseguita con conseguenti risparmio e semplificazione del progetto termo-meccanico del sistema e della sua costruzione. Riassumiamo anche i problemi posti dall'elaborazione digitale: a) Poiché tutti i bit sono fisicamente equivalenti, la probabilità di errore sul bit meno importante è uguale a quella sul bit più importante. Ciò impone di dotarsi di mezzi per riconoscere l'accadimento di un'errata rivelazione di uno o più bit: si adottano, per questo compito, speciali codifiche dell'informazione dette codici a correzione di errore. Ciò aumenta le operazioni che si devono eseguire, complica l'elaborazione e richiede più tempo a parità di altre condizioni. b) L'elaborazione digitale esalta la necessità della sincronizzazione tra le varie parti del sistema: non è azzardato affermare che, dei problemi di progetto, è a questo che si deve dedicare la cura maggiore a parità di velocità di esecuzione. c) A proposito di velocità di esecuzione, terminiamo col dire che vantaggi e problemi sopra elencati devono comunque fare i conti con questo fondamentale parametro che, in ultima analisi, determina (Teorema del Campionamento) la banda di frequenza nella quale il sistema è in grado di operare. Infatti, all'aumentare della velocità di elaborazione, misurata in bit/sec, tutte le parti del sistema devono aumentare la loro velocità di elaborazione, aumenta conseguentemente la potenza da impiegare nella elaborazione, riportando all'attenzione il problema del progetto termo-meccanico del sistema, aumenta la probabilità di errore, aumenta la difficoltà della sincronizzazione tra le varie parti del sistema. Poiché tutti i problemi posti scalano di importanza al diminuire della velocità, la individuazione della minima velocità che ancora risolve il problema è un criterio di progetto da osservare strettamente. Proprio il contrario della corsa a dotarsi del calcolatore più veloce e più costoso. Per contrasto, la individuazione della massima velocità di elaborazione permessa dalla tecnologia disponibile (qui e ora) segna il confine oltre il quale è giocoforza ricorrere all'elaborazione analogica dei segnali. 7. La televisione digitale Ultimamente in Italia si è parlato tanto di televisione digitale (DTV) che si è finito per identificarla con la rivoluzione digitale. E' quindi necessario entrare dentro l'argomento per venirne poi fuori un po' meglio attrezzati. 15 7a. Cosa è la TV Lo dice la parola stessa: è la tecnica che permette ad una stazione ricevente di ricevere un'immagine considerata da una stazione trasmittente. La radio trasmette e riceve suoni che vengono acquisiti tramite un microfono e riprodotti tramite un altoparlante. La TV trasmette e riceve immagini (con o senza suono aggregato) che vengono acquisite da una telecamera e riprodotte da uno schermo (e da un altoparlante) o cinescopio che fa parte dell'apparecchio televisivo (detto brevemente televisore, TV). Le immagini considerate dalla trasmittente possono essere: - Sintetiche o grafiche: disegni originati da calcolatore o dall'uomo. - Naturali: riproduzione di scene esistenti in natura, dette anche immagini fotografiche. - In bianco e nero (b/n): per le quali si specificano i livelli di grigio, da 2 a un numero molto alto. - A colori: per le quali si specifica il numero dei colori, per esempio 256, ognuno dei quali è ricavabile indicando il dosaggio dei tre colori fondamentali rosso, verde e blu (RGB). - Fisse: una tale immagine ha bisogno di essere trasmessa, ricevuta, memorizzata (registrata) e riprodotta. - In movimento: ha bisogno di essere trasmessa, ricevuta, riprodotta fotogramma per fotogramma e, se del caso, registrata. Per capire come può venire trasmessa un'immagine, cominciamo a considerarne una fissa e in bianco e nero e tracciamo su di essa un certo numero di linee parallele, come è schematizzato in Fig. 7. Quante linee lo decidiamo tra un momento. Fig. 7 Si chiama telecamera un aggeggio capace di seguire la prima, poi la seconda, poi la terza, e così via, linea e di fornire un segnale proporzionale alla gradazione di grigio incontrata lungo la linea. Si ottiene quindi un segnale come in Fig. 8. Si trasmette questo segnale che verrà utilizzato da un altro aggeggio chiamato televisore, ce l'abbiamo in casa, che riproduce sul suo schermo, linea per linea, i vari livelli di grigio. Naturalmente la trasmissione dovrà provvedere ad informare il televisore sulla 16 Gradazione di grigio posizione della linea tal dei tali, sull'inizio e la fine di ogni fascio di linee, cioè su tutto quello che abbiamo prima chiamato "sincronizzazione". I segnali di sincronizzazione occupano il tempo che si infila tra il segnale di una linea e di quella successiva. Adesso domandiamoci: con quante linee si deve esaminare (scandire) e trasmettere l'immagine? Risposta: tante quanto servono e bastano per riprodurre sul mio schermo l'immagine senza che l'occhio si "accorga" che è stata scomposta in righe, poi giustapposte per tentare di riformarla. tempo ...riga 78 riga 79 riga 80 riga 81 riga 82 riga 83 riga 84... Fig. 8 La nostra TV usa 625 righe per ogni immagine o quadro: se si va vicino allo schermo ci si può accorgere della scomposizione, ma alla distanza di osservazione l'occhio non riesce a risolvere le righe e vede un'immagine accettabile come un continuum. Quattro considerazioni: 1. Il procedimento di scomposizione in linee (scansione) altro non è che un campionamento dell'immagine lungo la sua verticale: l'occhio fa da interpolatore tra riga e riga, come fa da interpolatore tra fotogramma e fotogramma al cinema e tra quadro e quadro in TV. 2. Se la scansione è eseguita abbastanza velocemente i successivi fotogrammi possono riprodurre immagini in movimento, ossia la TV b/n. La nostra TV usa 25 fotogrammi o quadri al secondo, come il cinema. 3. Se oltre all'intensità del bianco e del nero (livelli di grigio) si complica un po' il segnale acquisito e lo si trasmette completo dell'informazione RGB (telecamera a colori) allora si fa la TVC. Naturalmente anche il televisore deve essere TVC. 4. Il segnale TV può arrivare al televisore via etere (antenna), via cavo (per es. cavo telefonico), via fibra ottica, via satellite (antenna parabolica). In ciascuno dei casi si dovrà disporre di un apparecchio diverso per "accogliere" correttamente il segnale, ma alla fine, dopo opportuna elaborazione, il segnale fornito al cinescopio per ricostruire l'immagine dovrà avere sempre la stessa natura di segnale TV (analogico) scandito per righe. 7b. Che cosa è la TV digitale 17 La cosa da considerare risolutiva nella tecnica TV è la scansione per righe (Fig. 7) che ha convertito un'immagine in un segnale f(t) (Fig. 8). Questo può essere campionato (rispettando il TdC), convertito in digitale, trasmesso come segnale numerico (invece che analogico), ricevuto come tale e riconvertito dal nostro televisore che dovrà essere ora un DTV o un DTVC. Quando si campiona il segnale TV, ogni campione viene detto pixel, il numero dei bit per pixel dice quanto accuratamente viene trasmesso il livello di grigio del pixel, e, se si tratta di TVC, quanto giocano in quel punto i tre colori base. Con lo stesso principio funziona il fax: quando la pagina (immagine) da trasmettere entra nella macchina, una fila di sensori acquisisce riga per riga il bianco e il nero. Questi vengono convertiti in digitale e spediti sulla linea telefonica. Si può dire che la macchina fax che riceve è una DTV che, invece di avere uno schermo, stampa l'immagine su un foglio di carta. Con sistemi analoghi, qualche tempo fa, si spedivano le telefoto. Tre considerazioni: 1. Come si è detto al punto 8 del par. 3, la digitalizzazione del segnale TVC provoca un forte aumento della banda occupata. Se da analogico il segnale occupava una banda di 5MHz, da digitale lo troviamo su una banda di circa 250 MHz. E' necessaria un'operazione di compressione mediante codifica: fortunatamente il segnale TV è assai ridondante e non è necessario trasmettere tutto quello che esce dalla telecamera digitale per permettere al televisore di ricostruire l'immagine. Lo standard di codifica adottato nel mondo è detto MPEG. Ne consegue che un DTVC deve avere per prima cosa un decodificatore MPEG. 2. Il segnale può arrivare al televisore per le stesse vie del segnale analogico: si ripetono pari pari le considerazioni del punto 4 del paragrafo precedente. Si sottolinea che il segnale che comanda il cinescopio è sempre della stessa natura di segnale TV scandito per righe: l'unica differenza tra un TVC e un DTVC è quindi nella presenza del decodificatore MPEG e del convertitore DAC. In altre parole, se partono le trasmissioni terrestri, queste possono essere ricevute con la solita antenna senza grossi problemi: basta aggiungere il decodificatore (che contiene il DAC) al vecchio TVC. 3. Si deve aggiungere a quanto detto, che, per comprimere ulteriormente l'occupazione di banda, la trasmissione usa un formato di modulazione detto a molti livelli. In un certo senso, il segnale digitale, per essere trasmesso con modalità accettabili, deve ridiventare un po' analogico. Ma su questa nemesi sorvoliamo. 7c. La qualità del servizio: confronto tra TVC e DTVC Per qualità del servizio (QoS) si intende sia la qualità dell'immagine riprodotta dal TVC, sia il complesso dei servizi aggiuntivi che il gestore propone all'utente. Sulla qualità dell'immagine influiscono anche la classe del cinescopio, quella dell'apparato ricevitore e l'adeguatezza e la posizione dell'antenna. Si deve, quindi, confrontare la qualità dell'immagine trasmessa in analogica con quella trasmessa in digitale a parità di altre condizioni. Se il confronto si fa a parità di intensità del segnale ricevuto dall'antenna, il processo di codifica e decodifica, di modulazione multilivello e tutte le trasformazioni da analogico a digitale e di nuovo ad analogico possono peggiorare la resa dell'immagine. D’altra parte, la trasmissione digitale ha bisogno di un segnale meno potente per ottenere lo “stesso risultato” sullo schermo. In particolare e con più precisione, riferendoci a 18 trasmissioni via etere terrestri, per una TV analogica (su ≈5 Mhz di banda) si danno, in ordine crescente, tre gradi di qualità: - Qualità VHS, cioè quella ottenibile da una cassetta con nastro magnetico. - Qualità PAL, quella ottenuta da una trasmissione via etere in condizioni ottimali di ricezione. - Qualità studio, quella che si ottiene connettendo direttamente via cavo la telecamera al televisore. Per una DTVC si ha che: - Una trasmissione intorno a 2 Mbit/sec garantisce la qualità VHS. - Una trasmissione a 4 - 5 Mbit/sec garantisce la qualità PAL. - Una trasmissione a 20 Mbit/sec garantisce la qualità circa pari a quella studio, detta ad alta definizione (HDTV). In questo caso il televisore deve essere in grado di fornire la qualità HDTV a non si tratta quindi di un normale DTVC. Come ormai sappiamo, all'aumentare del numero dei bit al secondo aumenta la banda occupata dal collegamento: poiché ciò diminuisce il numero di canali contemporaneamente possibili in un dato intervallo di frequenze di trasmissione, ciascun canale costa di più. Può quindi convenire (con qualche inconveniente aggiuntivo) di spostare la trasmittente sul satellite che illumina un'area utente assai più grande di quella servita da un'antenna terrestre. Serve quindi la parabola e uno speciale apparecchio (il convertitore) per riportare il segnale in formato utilizzabile dal TVC di casa. Va da sé che, provenendo dal lontano (36.000 km) satellite, il segnale che arriva all'antenna è proprio piccolo: si rischia cioè di perdere i vantaggi della banda larga e di avere alla fine della storia una qualità dell'immagine non tanto migliorata quanto ci si aspetterebbe. Altro discorso vale per i collegamenti via cavo o fibra ottica. Per prima cosa il collegamento deve arrivare fino a casa e ciò implica opere di istallazione. Poi, il collegamento deve essere capace di trasportare la banda necessaria, il che non è un problema per le fibre, mentre ne pone qualcuno per il cavo. La fibra ottica riesce a fornire un segnale assai buono: sembra quindi un collegamento ideale, a parte le opere di muratura per farla arrivare fino a casa e il maggiore costo del ricevitore ottico. Possiamo in definitiva concludere col detto popolare: dove la va la viene, cioè non c'è un netto miglioramento della qualità dell'immagine nel passare dalle trasmissioni analogiche a quelle digitali se non si usa un collegamento che permetta di aumentare il numero di bit/sec ricevuti: il che aumenta l’occupazione di banda o costringe a trasmissioni più sofisticate (fibra ottica, modulazioni a costellazione). A favore della trasmissione digitale si può portare il fatto che la trasmissione via etere, se il confronto si fa a parità di qualità dell'immagine riprodotta, richiede una potenza emessa minore (circa un decimo) rispetto a quella analogica. Questo è l'unico vantaggio che si può elencare con sicurezza per la DTVC: riportando la potenza trasmessa alla parità con quella analogica nel tentativo di migliorare la qualità dell'immagine, si può essere frustrati dal tipo di palazzo che si ha di fronte. Meno male che, da un certo punto in poi, l'occhio si contenta e gode. 7d. La TV interattiva 19 C'è ancora da commentare la questione dell'interattività, cioè la possibilità per l'utente di colloquiare col gestore al fine di ricevere informazioni e/o servizi su richiesta. E' evidente la necessità di stabilire un canale di comunicazione reciproco rispetto a quello attraverso il quale si riceve il segnale TV. Si tratta di un canale con caratteristiche di assai più basso livello rispetto a quello primario: un messaggio di tipo verbale, in pratica un e-mail per di più presumibilmente corto, occupa una banda esigua rispetto al segnale TV. L'unica esigenza da soddisfare è quella di individuare senza errori il mittente. Un canale di comunicazione con queste caratteristiche già esiste ed è il sistema dei telefoni fissi e mobili. Ad esso ricorrono televenditori e quizzaroli, indagatori dilettanti, sondaggisti e conduttori di gare canore per organizzarsi la interattività di cui hanno bisogno. Ad esso ricorre la DTVC che prevede, nel decodificatore, l'attacco per il telefono. Per le caratteristiche della comunicazione e del televisore che si ha in casa non sembra di poter prevedere servizi che si discostino dalla scelta di una voce su un menu prestabilito. Si tratta, comunque, di un'interattività assai rudimentale, ma già capace di dare utili informazioni sulla strutturazione di un tale servizio. Una cosa è certa: il telefono esisteva prima della DTVC e veniva usato come canale interattivo anche in tempi di TVC (senza D). 7e. La grande innovazione La DTV è una grande innovazione, con essa aumentano di un fattore 10 i canali disponibili, la TV diventa per ciò stesso più democratica, ci sarà la TV di quartiere e via illustrando le magnifiche sorti e progressive. Questo è quanto si sente dire e si legge scritto in giro. Possiamo cominciare un lungo dibattito a partire da un “magari 10 no ma 4 sì”: non andremmo lontano, a mio parere s’intende, e non potrei che riaffermare le cautele alle quali ho invitato il lettore delle considerazioni che precedono. Alcuni altri, come si vedrà al par. 9, condividono queste cautele come anche qualche mio scetticismo. Detto in chiaro: a me non sembra che la DTVC sia la tecnologia che disincaglierà i problemi di crisi produttiva o di traino del livello tecnologico del Paese in generale: confido molto di più sull’alta velocità, sulle autostrade del mare, sulle nuove tecnologie mediche e chirurgiche, sulla ricerca di energie alternative e sul ripensamento profondo dell’organizzazione dello Stato. Ma su questo sono consapevole di poter sbagliare. Di una cosa sono maggiormente certo: fare una TV costa di più che fare una radio e tanto di più quanto più la si vuole digitale, interattiva, ad alta QoS e chi più ne ha più ne metta. Perché per fare una TV si deve anche produrre in proprio spettacoli, non ci si può limitare a mandare in onda chiacchierate da bar o da salotto e brani musicali. Quindi la democrazia passa per la disponibilità di capitali di investimento che attendono ritorni pubblicitari. Concluda il lettore. E poi, chi ha le frequenze di trasmissione se le tiene, il che prefigura una moltiplicazione per 4 di ogni canale, prospettiva che vorrei evitare di vivere. 8. Considerazioni su alcuni modi di dire invalsi nell’uso. Ho avuto tra le mani un documento di ambiente Fondazione Di Vittorio intitolato "Le 150 ore del digitale". Lo giudico un buon documento con uno strano primo paragrafo. E vorrei spiegarmi: questo primo paragrafo è un buon campionario di tutti i vizi indotti 20 dall'uso acritico di parole di incerta semantica. Ne riporterò i passi commentandoli: è sufficientemente corto. "Le applicazioni dell'informatica alla produzione, consumi, servizi ed alla cultura ed intrattenimento, la sua penetrazione in tutti gli ambiti della società moderna, sono l'effetto di una grande innovazione tecnologica: il passaggio - di tecniche, linguaggi, simboli - dall'analogico al digitale." Se il lettore ha avuto la pazienza di arrivare fino a questo punto, può riferirsi alla Fig. 6 dove si è affermato che l'utente della tecnologia parte dall'analogico e torna all'analogico, perché dei bit non sa cosa fare, con un procedimento che 999 su 1000 gli è trasparente. La tecnica è cambiata, ma di questo egli non sa, mentre linguaggi e simboli (a parte la foia inglesizzante dei venditori) non mi sembra siano stati alterati. Insomma: ancora non mi è successo di essere sedotto per via digitale né da una donna, né da un'amatriciana, né tantomeno dalla lettura di un romanzo del commissario Montalbano. L’uso della parola “informatica” in maniera così generalizzante e sintetizzante meriterebbe un commento a sé: ma non ne abbiamo il tempo e lo spazio. "Questa innovazione è nata cinquanta anni fa, nell'embrione del primo calcolatore; è cresciuta con il silicio dei semiconduttori; ma in questi anni raggiunge la piena maturità, con lo sviluppo del sistema nervoso centrale e periferico: le reti, i terminali, e l'immensa disponibilità dei software operativi. La digitalizzazione si estende al lavoro, ai servizi, al tempo libero, ed al linguaggio; tutti questi, formatisi storicamente secondo il millenario impiego del paradigma analogico, vengono oggi ridefiniti, con una velocità crescente, sulla base del paradigma numerale binario, e così descritti, comunicati e resi applicativi." Mi dissocio con leggerezza d'animo dall'enfasi del tono, dal linguaggio antropomorfo e dalle considerazioni tecniche tipo silicio e sistema nervoso centrale e periferico. Mi sfugge quale sia il "paradigma analogico" e, conseguentemente, la sua ridefinizione digitale. Se ci si riferisce a modificazioni nell’organizzazione del lavoro sono d’accordo nell’additarle all’attenzione della politica e del sindacato, come del resto è stato fatto nel par. 4 di questo scritto. "Ampio è il dibattito sulle conseguenze di questa rivoluzione - sui suoi effetti sul lavoro e l'occupazione, sugli stili di vita, sul modo stesso di pensare e comunicare, sui linguaggi, sulla coesione sociale - visto che in questa fase coesistono - e talvolta confliggono - i due paradigmi diversi. Tutti concordano, tuttavia, su una mutazione in atto, antropologica e culturale." E' vero, il dibattito c'è, ma non credo che sia dissimile da quanto avvenne all'epoca di Ludd. E con gli stessi problemi come ho avuto modo di accennare sopra. Vorrei però rassicurare estensore della nota e lettori su due cose. Intanto i due modi di trattare l'informazione (meglio dire così che scomodare i paradigmi) non confliggono affatto: uno si fa da parte quando non è applicabile mentre lo risulta l'altro. In secondo luogo, posso assicurare che il "digitale" non esiste: trattasi sempre di corrente, tensione, silicio, schermi e fili. Più analogico di così... Cambia l'interpretazione di questi enti fisici e questo cambio di visione (paradigma?) schiude possibilità nuove di elaborazione che portano vantaggi e richiedono prezzi. Infine, prego caldamente di considerarmi fuori da quel "tutti concordano": non per snobismo, ma perché spero di sottrarmi al dramma di una mutazione antropologica e culturale pilotata da quattro schifosissimi bit. 21 9. Proviamo a tirare conclusioni Il 26 gennaio 2004 si è svolto un interessante convegno su questi temi, organizzato dalla Fondazione Di Vittorio: gli atti possono essere reperiti sulla News Letter 78 del 30 gennaio 2004. Abituati da tanto tempo a congressi, convegni, discorsi e dibattiti dei quali poi si riesce a salvare una percentuale lontana dal 100, possiamo dare agli organizzatori e ai convegnisti una calda nota di plauso. Il Convegno ha colpito nel segno di tutti i bersagli che si era prefissato di considerare. La prima conclusione alla quale il convegno ha dato corpo ha riguardato il bisogno di contrastare una certa superficialità e inadeguatezza tecnica con le quali troppo spesso, e questo è stato il caso della DTV, si dipanano i dibattiti politici sulle scelte da compiere nei più svariati campi tecnici (vedi fecondazione assistita e cellule staminali). Nel caso DTVC le scelte si sono rapidamente raccolte nel contenitore rappresentato dalla Legge Gasparri e dall'invenzione del SIC. Il Dipartimento Ricerca e Sostenibilità della Fondazione si era formato con l’obiettivo di rinforzare la consapevolezza tecnica di quanto coinvolto dalle scelte politiche: non possiamo che essere lieti del risultato ottenuto dal Convegno. Riporto alcuni passi del dibattito che mi sono risultati particolarmente significativi. Pur riconoscendo l'immanenza del fatto che la TV veicola valori e modi di vita (Mattioli) e che c'è il problema di definire "servizio pubblico" (Manca), si è riconosciuto anche che la questione democratica non si gioca sul digitale (Serventi Longhi). Come dire che spesso le tecniche sono realmente neutre rispetto ai temi politici. Si sono messe in luce, ed era ora, tutta una serie di "sopravvalutazioni" (Pucci dello IULM), che hanno informato finora il dibattito politico e quel poco di opinione pubblica interessata al caso: i tempi di diffusione delle nuove tecnologie non si stanno mostrando brevi, le risorse finanziarie messe a disposizione della DTVC non sono all'altezza, la pluralizzazione dei gestori è un orizzonte dipinto sul muro. In poche parole: niente è andato come si era desiderato o sperato a seguito di un approccio che giustamente è stato definito positivista. Una quarta sopravvalutazione, quella del fascino della interattività, è stata convincentemente smontata da Luciana Castellina, mentre si sono commentate con scetticismo le opinioni dominanti sulla qualità dell'immagine e sulla scarsezza dello spettro di frequenze a disposizione. Alla fine si è riconosciuto (Epifani) che il fenomeno marcia con un motore potente rappresentato dall'azione degli attuali gestori per non essere tagliati fuori da un possibile boom della nuova tecnologia e per occupare posizioni di preminenza sul piano della concorrenza commerciale e politica. Il che pone al Sindacato problemi di gestione di una risposta che, se non si presenta impegnata sul fronte dell'occupazione e dei rapporti di lavoro per il fatto di non avere ancora caratteri di massa critica, gode, si fa per dire, della specificità della situazione italiana. Il convegno non ha tirato conclusioni sul futuro della tecnica in sé, anche se Pucci aveva lanciato al dibattito l'esca della diffusione via cavo del segnale. Detto quanto precede, se mi è permesso di tirare una conclusione su questo punto, mi azzardo, per una volta, ad essere d'accordo col già citato Negroponte, laddove dice: "La chiave per il futuro della televisione è smettere di pensare ad essa in termini di televisione". 22 Resteranno i palinsesti e le programmazioni delle reti tradizionali, ma si affermerà una visione dominata dal desiderio del singolo. La via sarà quella di prendere coscienza che il cavo è meglio dell'etere, che il cavo già esiste, che la televisione deve farsi telefono, anzi telèdato, nel senso che mi deve arrivare quello che voglio vedere e che ho chiesto al negozio di film registrati che sta proprio sotto casa, oppure alla Biblioteca del Congresso, oppure al mio amico che sta a Vigevano o a Melbourne. Ora, un telèdato avrà anche uno schermo, un cinescopio come quello del televisore, ma non è un passivo ricevitore di idee altrui, può scegliere perché ha la possibilità di selezionare tra tante scelte possibili e di ricevere con la velocità necessaria (e sufficiente). Un telèdato è un televisore con la possibilità di essere programmato, di trasmettere e di elaborare, si direbbe un televisore "intelligente", ma allora non si chiama più televisore, si chiama calcolatore, il calcolatore di casa diventato un nodo della rete. E sarà lui a fare anche il lavoro di decodifica e riconversione in analogica. Ecco il futuro che si può disegnare: il calcolatore di casa prepara la serata televisiva ricevendo e mettendo in memoria, durante la giornata (quindi con la dovuta calma e lentezza che abbassa i costi) i programmi che si desiderano e non necessitano di essere visti in tempo reale. Su questi si sbizzarrirà la voglia di interattività del cliente e gli auguriamo buon divertimento. Altrimenti la serata sarà allietata da programmi trasmessi con la velocità necessaria a una visione in diretta su canali che lo permettano. Naturalmente questo scenario interessa assai le compagnie telefoniche proprietarie della rete di comunicazione: esse hanno però da risolvere qualche problemuccio che è bene mettere in luce. Allo stato attuale le linee telefoniche riescono a garantire, a quasi tutti gli utenti, il servizio ADSL, la più popolare Alice. Lo standard di questo servizio non permette la visione diretta di programmi televisivi con qualità almeno VHS: o ci si contenta o, come si diceva prima, il programma viene trasmesso più lentamente di come poi sarà visto e quindi la visione non può che essere differita. Si sta studiando la possibilità di trasmissioni più rapide, ma ci sono ancora molti problemi da risolvere: la diffusione della cablatura in fibra è ancora troppo bassa e il costo di impianto non è trascurabile, sia per i gestori che per le famiglie. Ma i guai non sono finiti: alla disponibilità di collegamenti capaci di supportare la necessaria velocità, bisogna affiancare una struttura di rete, a cominciare dalle centrali telefoniche, che sia all'altezza proprio dell'aumentata velocità dei collegamenti. Si tratta di investimenti di migliaia di milioni di Euro. Come si è più volte detto, il collegamento ideale sarebbe la fibra ottica: segnale pulito, banda quanta se ne vuole. Si ricorderà che Telecom iniziò un'operazione di cablaggio di alcune città, che risultarono sconvolte a lungo da questi lavori. Ebbene, il programma fu presto abbandonato e oggi rimangono molti chilometri di tubi corrugati vuoti che serpeggiano nei nostri sottosuoli. Era avvenuto che qualcuno si era fatto due conti e aveva scoperto che, per rientrare dall'investimento necessario per un cablaggio massiccio in fibra e per l'adeguamento della rete, si doveva avere un ritorno dell'ordine di 100 Euro al mese per cliente, fatturati solo per i servizi aggiuntivi alla TV. Qualche Azienda sta tentando di subentrare a questo programma: l'acquisto di dismissioni, rinunce o fallimenti può abbassare i costi di prima istallazione. L’uso al meglio delle tecnologie a disposizione può anche fornire una QoS accettabile. Ma le tariffe che per ora vengono richieste non sembrano remunerative: possiamo sbagliare, ma si sta lavorando sul capitale. Soddisfatte tutte queste precondizioni, si può sperare di veder fiorire un nugolo di gestori di dimensioni simili a quelle delle Aziende che si incontrano nel sistema industriale italiano: piccole, medie, grandi. Il calcolatore di rete potrebbe, in questo 23 caso, fare il miracolo della alfabetizzazione informatica e della diffusione delle sorgenti TV: siccome di un miracolo si tratterebbe, si è usata molta cautela, ma l'ipotesi non poggia su presupposti tecnici inventati. A meno di un intervento pubblico o di una sconvolgente novità tecnologica o di qualcosa che oggi non siamo in grado di prevedere, un tale scenario è però da mettere in dubbio. Sopravvivrà una TV a trasmissione sia terrestre che da satellite, affiancata, per servizi aggiuntivi e decentemente interattivi, dalla TV via cavo telefonico da fruirsi in differita: sarà comunque meglio attrezzarsi col telèdato. Se qualcuno carezzava l'idea di avere la DTV alleata in una battaglia per la democrazia nell'informazione ho paura che si debba ricredere: la partita se la deve vincere da solo anche se sarà trasmessa a reti unificate in digitale, formato MPEG. 9. Alcune indicazioni bibliografiche Mi piacque molto un libretto, uscito qualche tempo fa, si chiama "L'emozione di pensare: psicologia dell'informatica" di Gianni Zanarini, Clup-Clued, 1985. Per chi vuole districarsi fra termini e frasi che spesso facciamo solo finta di capire, è molto ben fatto e anche colto "Il Mondo Digitale" di Fabio Ciotti e Gino Roncaglia, Ed. Laterza, 2000. Una trattazione molto affascinante, un po' difficile, è "Il Virtuale", di Pierre Levy, Cortina Editore, 1997. Una cavalcata disincantata e divertente è "Schiavi del computer?", di G.J. E. Rawlins, Ed. Laterza, 2001. Infine, come posso non citare Nicolas Negroponte, "Essere digitali", Sperling Paperback? Trascurerei uno dei più fulgidi esempi di sacerdote invasato in cerca di seguaci acritici. Leggetelo e poi mi direte. Piero Marietti, La Sapienza (non io, l’Università) 24