da
Piero Marietti
La rivoluzione digitale senza intemperanze
1. Introduzione: perché del successo delle tecniche digitali (numeriche) nel trattamento
dell’informazione.
L’ informazione è l’oggetto di un possibile dialogo tra un ente trasmittente e uno
ricevente: libro-lettore, fumate indiane-accampamento, studio televisivo-televisore,
altoparlante-orecchio.
L’informazione può essere trasmessa, ricevuta, memorizzata, modificata: in questo
consiste il suo trattamento.
Il successo delle tecniche di trattamento digitale (numerico) dell’informazione è stato
trainato dal successo del calcolatore. Che a sua volta gode di una tecnologia che sembra
non conoscere limiti di perfezionamento e che fa del calcolatore un componente sempre
più affidabile, veloce e a buon mercato.
L’informazione ci arriva sempre codificata: esplicitamente (la scrittura) o
implicitamente (la prospettiva brunelleschiana o un quadro cubista) e il codice può
essere a interpretazione immediata, mediata dalla cultura e dal suo livello, oppure
indecifrabile (e questo è il sogno di ogni servizio segreto). La decodifica è quindi il
prodotto di un ambiente: se mi regalano un CD di Paolo Conte non posso dire di averne
goduto l’ascolto se non lo infilo nel lettore e non lo faccio suonare dal mio hi-fi.
Messa così dice molto, ma non spiega niente. Il calcolatore, infatti, serve a fare calcoli
(non ragionamenti, ossia calcoli con uno scopo intrinseco), ma calcoli da eseguire
secondo regole premesse. L’unico codice che il calcolatore “capisce” sono i numeri:
perché esso possa trattare l’informazione, questa deve essere tradotta (codificata) in una
serie di numeri.
Come avviene quindi che il calcolatore possa trattare l’informazione è cosa che deve
essere spiegata: lo si può fare partendo dal cinematografo.
Perché il cinematografo? Perché, diversamente da quelli che pensano che l’origine della
digitalizzazione si debba a Babbage, a Boole o al pallottoliere cinese, penso che ad
aprire la strada alla digitalizzazione siano stati i fratelli Lumière, il cinematografo. Cioè
quel tentativo coscientemente intrapreso di ricostruire il movimento avendo a
disposizione la registrazione degli spostamenti che lo compongono. I Lumière e tutti
quelli che avevano prima tentato la stessa strada con giochi di specchietti rotanti e
curiosità da fiera di paese, sui quali giganteggia, per intuizione e maestria
dell'esecuzione, la misura della velocità della luce ad opera di Fizeau.
I Lumière, per sovrappiù, confidavano nell'esistenza e nell'efficacia di qualcosa che non
era loro ancora chiara del tutto: essi intuirono l'interpolatore, ossia un meccanismo che
ricostruisse il movimento "inventandosi" cosa avviene tra un fotogramma e il
successivo.
Chiariamo bene questo passaggio perché è cruciale per arrivare a comprendere.
Cosa fa il cinema? Scatta una sequenza di fotografie e poi le proietta su uno schermo
una dopo l’altra nello stesso ordine e con la stessa velocità con i quali sono state
eseguite. Quando si scattano le foto e le si registrano su una pellicola si sta acquisendo
l’informazione (spesso si dice “il dato“) relativa alla scena che interessa: ogni foto è un
campione della scena che evolve con continuità nel tempo. Quando si proiettano le foto
1
sullo schermo si sta restituendo l’informazione acquisita. Quindi si deve eseguire la
proiezione con gli stessi tempi adoperati nell’acquisizione, né più velocemente né più
lentamente. Se si interviene sul processo di passaggio dal negativo al positivo, per
esempio alterando i colori o andando “al rallentatore“, si sta elaborando l’informazione
(scena) acquisita per fini da dichiarare.
Il cinema usa 24 foto al secondo: è esperienza comune che un’acquisizione più lenta,
per esempio 12 foto al secondo, renderebbe una proiezione procedente a scatti, mentre
una acquisizione più veloce non migliorerebbe la visione, contribuendo solo a
complicare la macchina (da ripresa e da proiezione) che dovrebbero lavorare a velocità
maggiore.
Ne deriva quindi che il numero di foto al secondo deve essere superiore ad una certa
soglia, ma di quanto superiore importa poco. Quando la soglia è sorpassata, l’occhio
non si accorge di essere davanti ad un fenomeno che non si svolge con continuità nel
tempo, cioè lo “interpola“ correttamente “inventandosi“, grazie anche al contributo del
suo calcolatore biologico, il cervello, il modo in cui la scena evolve tra un fotogramma
e l’altro.
Come spesso succede, l’uomo tenta di estendere ad altro ambito un risultato ottenuto in
un certo contesto. Se il cinema risponde alla domanda: “Ogni quanto devo fotografare
una scena affinché lo spettatore che guarda la proiezione dei fotogrammi non si accorga
della discontinuità tra una foto e l’altra?“, ci si può porre una domanda dello stesso tipo
riferita però ad altra questione. Per esempio: “Ogni quanto devo misurare il Dow Jones
per avere una ragionevole idea dell’andamento del NYSE?“. Oppure: “Ogni quanto
devo rilevare il costo della vita per avere un’idea precisa dell’inflazione?“, ossia,
generalizzando: Ogni quanto devo acquisire il valore di una funzione per poterla
dignitosamente ricostruire?“.
A queste domande risponde il Teorema del Campionamento sul quale ci soffermeremo
al paragrafo 2. Supponiamo, ora, di aver ottenuto la risposta corretta: allora, come la
scena è stata congelata in un certo numero di fotogrammi in sequenza e di
temporizzazione nota (uno ogni ventiquattresimo di secondo), così la funzione invece di
un grafico su un piano cartesiano è diventata una tabella di numeri. A un certo istante
corrisponde 3, a un altro 1,8, a un terzo 0, a un quarto –0,5 e così via. Un esempio di
numerizzazione di una funzione è mostrato in Fig. 1dove la temperatura giornaliera in
un certo lasso di tempo è rappresentata come funzione e come tabella di numeri
campionati alle 12 di ogni giorno.
2
Temperatura
Lu
22
Ma
20
Me
18
Gi
Ve
16
12
Sa
Do
Lu
10
Ma
14
Lu Ma Me Gi Ve Sa Do Lu MaMe
...
alle 12.00
15,5°
15,0°
14,2°
14,0°
13,8°
13,8°
13,8°
13,8°
14,5°
...
Fig. 1
Qui c’è il punto di svolta: se una funzione, ossia un modello matematico che
rappresenta un fatto fisico, è diventata una sequenza di numeri, questi possono essere
trattati, ossia mantenuti, cambiati in un modo oppure in un altro, inviati a qualcun altro,
eccetera, da qualcosa che sappia maneggiare numeri. E chi meglio di un calcolatore che
è nato (e cresciuto) proprio per eseguire questo compito?
Poiché abbiamo fatto grandi progressi negli ultimi 30 anni della costruzione e nell’uso
dei calcolatori tanto che oggi un calcolatore è un componente (un chip) di circa un
centimetro di lato e può costare pochi euro, dotare un sistema materiale di un
calcolatore non è proibitivo. Abbiamo un chip (calcolatore) in automobile, nella
lavatrice, nel lettore di CD, nell’autoradio e, ovviamente, nel calcolatore. Questo
processo di campionamento, numerizzazione e trattazione dell’informazione a mezzo
calcolatore risulta a buon mercato e alla portata di tutti: quindi le tecniche digitali
hanno invaso la nostra vita.
A questo punto del nostro discorso il lettore può assumere due atteggiamenti:
contentarsi delle considerazioni svolte e affidarsi alla sua intuizione per proseguire
saltando il prossimo paragrafo, oppure richiedere un maggiore rigore e addentrarsi
nella lettura del paragrafo successivo.
2. I teoremi sui quali si fondano le tecniche digitali.
Tra i vari teoremi di matematica applicata alla Teoria dell’Informazione sui quali si
basano tutte le moderne tecniche elettroniche e quindi anche quelle digitali
(numeriche), illustriamo il Teorema di Fourier (TdF, 1822) e il Teorema del
Campionamento (TdC, Nyquist, 1928).
Se vogliamo capire bene questi due Teoremi dobbiamo costruirci un linguaggio
comune, una base di comprensione reciproca. Quindi ricorriamo ad esempi non barbosi
e alla nostra intuizione.
Si consideri una figura di qualunque natura: un quadro del Botticelli, l’andamento
dell’indice Mibtel nel tempo, la foto di una bella ragazza. Ebbene queste figure non
sono che distribuzioni di linee, di zone o campi colorati ed eventualmente di simboli
3
(per es. alfabetici) sullo spazio che si è deciso di utilizzare: la tela del pittore, un foglio
di carta millimetrata, la carta fotografica.
Non è difficile convincersi che queste “distribuzioni” siano traducibili in funzioni
matematiche: perfino la tela del Botticelli. Essa corrisponderà a quattro funzioni: tre
che per ogni punto forniranno la quantità di rosso, quella di verde e quella di blu per
stabilire il tipo di colore, mentre la quarta ci darà, punto per punto, la luminosità.
Messa così, queste funzioni sono assai ricche di informazioni, perché i punti di
un’immagine sono tanti, ma tanti, insomma: sono infiniti e le quattro funzioni devono
dare la informazione relativa ad un punto qualunque dell’immagine. Funzioni di questo
tipo si dicono “analogiche” perché evolvono rappresentando fedelmente punto per
punto, ossia “in analogia” con, le proprietà che identificano la cosa che vogliono
rappresentare.
Per trattare le funzioni analogiche (FA, compito dell’Analisi Matematica) gli scienziati
si sono costruiti dei metodi, alcuni dei quali consistono nello scomporre le FA nella
somma di altre funzioni, sempre FA, ma ciascuna più semplice (molto più semplice) di
quella di partenza.
Per fare un esempio, una folla è un oggetto complicato che si può scomporre in base: a)
al colore degli occhi, oppure b) al colore dei capelli, oppure c) al sesso, d) alle classi
d’età, e) al censo, f) al credo politico o religioso e si potrebbe seguitare. Una volta
scomposta la folla, se si ri-uniscono (si ri-sommano) tutti i pezzi della scomposizione,
qualunque essa sia stata, si ri-ottiene sempre la stessa folla di partenza.
Una delle scomposizioni più semplici e comode di una FA è quella di Fourier che la
scompone in “onde” (meglio dette sinusoidi), anche loro essendo FA ma
particolarmente semplici e facilmente immaginabili. A prima vista non è immediato
convincersi che le onde, così arrotondate e ripetitive, possano, sommandosi tra di loro,
ricostruire, per dirne una, un brusco passaggio dal verde al rosso. Eppure Fourier, e c’è
da credergli perché lo dimostra rigorosamente, ci assicura che ciò è possibile e ci dà
anche il modo di farlo, nel quale non entriamo perché non interessa al nostro discorso.
E’ necessario però notare che le onde possono essere di ampiezza grande (cavalloni del
mare) e piccola (increspature) e di frequenza bassa (lente ondulazioni, quelle che in
acustica corrispondono ai suoni gravi) oppure alta (oscillazioni veloci emesse da un
soprano o addirittura ultrasuoni): ogni FA avrà bisogno del suo gruppo di onde, di
ampiezza e di frequenza opportune e adatte, sommandosi, a ricostruire proprio quella
FA e non un'altra, insomma ogni FA ha le sue onde, come ognuno di noi ha il suo DNA
o le sue impronte digitali.
Detta fL la frequenza dell’onda più lenta (L sta per Low) ed fH quella dell’onda più
rapida del gruppo che appartiene ad una certa FA, l’intervallo BW = fH – fL è la banda
di frequenze (BW = Band Width, larghezza di banda) occupata dal gruppo, quindi dalla
FA.
Con parole appena più precise. Tanti fenomeni possono essere descritti da una FA. In
questa sede a noi interessano quelle FA che evolvono nel tempo(*), in simboli f(t) e che
comunemente vengono chiamate “segnali”: la sirena dei vigili del fuoco, le fumate
indiane, lo squillo del telefono, il campo elettromagnetico causato da un’antenna e che
viene, con una certa fatica, convertito in suoni (radio) e in immagini e suoni
(televisione). Conclusione: i segnali sono rappresentati da FA e possono anche essere
pensati come somma di un gruppo di onde opportunamente formato.
(*)
Il Teorema vale per funzioni di qualunque variabile e anche per funzioni di più variabili come la luminosità
di una scena.
4
Proviamo quindi a concludere con una formulazione del TdF (Teorema delle Funzioni):
data una funzione del tempo f(t) che non sia particolarmente bizzarra (rigorosamente:
continua e derivabile fino ad un ordine n qualsiasi) essa può essere sempre ottenuta
come somma di un certo numero, magari infinito, di funzioni sinusoidali (onde) di
ampiezza e mutua posizione opportuna e frequenza compresa tra un valore iniziale fL e
un valore finale fH. Se f(t) è un segnale elettrico si parla di frequenze contenute nel
segnale e fH-fL=BW è la banda occupata dal segnale(*).
Il TdF è un enunciato assai robusto: fornisce il metodo per il calcolo delle "onde
opportune", sopporta di essere applicato con un certo successo anche a funzioni, quindi
a segnali, che non siano esenti da bizzarrie (discontinuità, periodicità, etc.) e stabilisce
che le ampiezze delle componenti sinusoidali decrescono all'aumentare della loro
frequenza, magari non monotonamente, ma decrescono. Questo permette di considerare
sempre BW finite anche se la matematica decide che fH valga infinito: fH è, nella
pratica, l'ultima frequenza con un'ampiezza ancora percettibile.
Proviamo ora ad enunciare il TdC (sempre senza volere essere troppo precisi): dato un
segnale f(t), se si conoscono solo i suoi valori (campioni) negli istanti kTc, cioè se si
conoscono i valori f(Tc), f(2Tc), f(3Tc)...f(kTc)...f(nTc)..., è possibile ricostruire il
segnale f(t) tramite un interpolatore che "inventi" i valori non noti tra un istante di
campionamento e l’altro, ossia genericamente tra kTc e (k+1)Tc, a patto che il tempo
(periodo) di campionamento Tc sia tale da corrispondere a una frequenza 1/Tc>2fH. In
altre parole: l’operazione è possibile se si campiona un po’ più velocemente di un certo
tot.
Esempio: se si assume che la massima frequenza contenuta in un segnale vocale sia di
5.000 Hz (1 Hz = 1 Hertz = 1 oscillazione al secondo, 5000 Hz = 5000 oscillazioni al
secondo), allora 2fH = 10.000 Hz e il segnale sarà ricostruibile se se ne conoscono i
campioni presi ogni Tc < 100 sec, dove
sta per un milionesimo.
Anche il TdC è un enunciato assai robusto: tranne per la condizione su Tc che deve
essere strettamente rispettata, permette di campionare segnali della più svariata forma e
svolgimento nel tempo e indica anche l'interpolatore capace di "inventare" nel modo
corretto i valori che mancano: si tratta di un filtro capace di far passare solo le
frequenze contenute in BW e buttare via le altre.
Non pretendo che tutto questo discorso risulti chiarissimo, mi contenterei che risultasse
chiaro il percorso mentale, per cui mi aiuterò con qualche disegnino.
Nella Fig. 2 è rappresentato il processo di analisi alla Fourier: dal segnale f(t) si
ricavano le sue componenti sinusoidali che, se si sommano, ricompongono f(t). Il
processo di Fourier passa al processo del Campionamento le informazioni su fL e fH.
(*)
Si faccia attenzione a non confondere le frequenze "contenute" in un segnale con le frequenze di
trasmissione. Ogni stazione trasmittente (per es. Rai 1) usa una frequenza di trasmissione detta "portante" che
"porta" appunto su di sé il segnale (sonoro, televisivo e quant'altro) con tutte le sue frequenze. L'operazione che
ha permesso al segnale di diventare il fantino della portante si chiama modulazione e in essa non entriamo.
Assegnare una frequenza di trasmissione serve a distinguere una stazione dall'altra.
5
Tante componenti
sinusoidali
Segnale
Somma delle
componenti
Analisi di
Fourier
Segnale
Teorema del
Campionamento
Informazioni su f e f
L
H
Fig. 2
Con queste informazioni (Fig. 3) si esegue il campionamento del segnale f(t)
simbolicamente rappresentato da un interruttore che si chiude ogni Tc secondi e si
riapre subito in modo da far passare il segnale agli istanti di campionamento (come un
occhio che guardi una scena aprendosi e chiudendosi ritmicamente, i fratelli Lumière
per l'appunto).
Il valore dei campioni viene misurato ma, per essere realisti, bisogna decidere il numero
di cifre significative da usare per dare il risultato di questa misura. Per esempio,
ottenuto il risultato 13,651874 se non avvertiamo il bisogno di tante cifre decimali,
possiamo decidere che quel campione vale 13,7 oppure 13,652 oppure come ci fa
comodo. A questo punto abbiamo ridotto il segnale ad una sequenza di numeri con i
quali il TdC ci assicura che possiamo ricostruirlo (certo non perfettamente se abbiamo
anche arrotondato, ma decentemente quanto ci basta) e decidiamo come rappresentare
questi numeri. E' qui che vengono fuori i famosi bit, che altro non sono se non una
rappresentazione comoda per l'elettronica: quando essa viene usata per esprimere i
numeri-campioni di un segnale numerizzato si dice che il segnale è stato digitalizzato.
Tutto questo procedimento avviene nel convertitore analogico digitale (Fig.4), o ADC:
esso riceve il segnale analogico f(t) e un segnale di temporizzazione (che chiamiamo
Clock), il quale ogni Tc secondi comanda all'ADC di campionare, numerizzare e
digitalizzare il segnale f(t). L'ADC fornisce il segnale digitalizzato sotto forma di N bit
che "dicono" il numero relativo ad ogni campione.
Teorema del
Campionamento
Chiude ogni T
c
secondi
Segnale f(t)
Tempo-continuo
analogico
Misura del valore
dei campioni
Segnale f(kT c )
tempodiscreto
analogico
Approssimazione
dei valori
Rappresentazione dei
valori approssimati
Da qui escono i bit
6
Fig. 3
Segnale analogico
ADC
Segnale digitale
di N bit
Ck (Tc )
Fig. 4
Il segnale digitale che rappresenta f(t) è fatto di N bit ogni Tc secondi. Per esempio 8
bit (pari a 1 byte) ogni milionesimo di secondo, quindi 8 Megabit al secondo, oppure 1
Megabyte al secondo, abbreviato in 1 Mbyte/sec o 1 MB/sec. Il numero N dei bit gioca
lo stesso ruolo delle cifre significative di un numero espresso in decimali: più N (o il
numero delle cifre significative) è alto, più il numero rappresenta con precisione il
valore indicato.
Il TdC ci assicura che possiamo ricostruire il segnale analogico: a questo pensa il
convertitore digitale analogico (DAC, Fig. 5) che riceve bit e fornisce f(t) avendo
l'informazione di Clock e nascondendo dentro di sé l'interpolatore. Se collegassimo i bit
uscenti dell'ADC di Fig. 4 a quelli entranti nel DAC di Fig. 5 non avremmo combinato
un gran che essendo partiti da f(t) e ad essa ritornati, ma avremmo dimostrato l'efficacia
dell'analisi di Fourier e del TdC.
Segnale digitale
di N bit
DAC
Segnale analogico
Ck (Tc )
Fig. 5
Si può fare ed è anche un esercizio divertente.
3. Alcune importanti conseguenze del processo di digitalizzazione
Si è visto che il segnale analogico occupa una banda BW=fH-fL: proviamo ad elencare
una serie di corollari e conseguenze di una tale acquisizione e della conseguente
operazione di digitalizzazione del segnale.
7
1. Cosa significa decidere che fH è l'ultima frequenza con un'ampiezza ancora
percettibile? Come ci azzardiamo a troncare a un certo valore quello che la matematica
ha decretato essere un insieme di valori che si estendono magari fino ad infinito?
Non si dimentichi mai che l'Elettronica ha un grande nemico: il rumore. Esso è
dappertutto, è inevitabile, contrastabile ma non eliminabile, può essere contenuto, ma
non vinto. Se la matematica mi dice che c'è una sinusoide la cui ampiezza è uguale o
inferiore al rumore, si può ringraziare questa della fatica di esistere, ma tale "onda" è
inutilizzabile. Quella componente sinusoidale non la vedrò mai, sta dentro il rumore e
stanno dentro al rumore tutte quelle di frequenza maggiore, quindi per me non esistono,
posso piazzare fH prima del loro valore.
2. Il TdC impone di campionare ogni Tc<1/2fH: quindi, più fH è alto, cioè più il
segnale contiene frequenze elevate ancora percettibili, più il campionatore (l'interruttore
di Fig. 3) deve andare veloce e meno tempo si ha a disposizione per la conversione,
cioè il convertitore deve lavorare più in fretta. Andare veloce è sempre più difficile che
andare lentamente.
3. Una volta stabilito il Tc, si passa a stabilire il numero N di bit. Se Tc è 1 sec e N=8
avrò, come già detto, 1 Mbyte/sec, ma se scelgo N=12 dovrò sfornare una volta e mezza
i bit al secondo, cioè 1,5 Mbyte/sec. Quindi devo andare più veloce se voglio aumentare
la precisione della conversione.
4. Se ne deduce che: il sistema (per es. un calcolatore) che dovrà elaborare i dati digitali
dovrà farlo ogni Tc secondi e su N bit, ossia dovrà digerire N/Tc bit/sec. La sua velocità
aumenta sia se si diminuisce Tc che se si aumenta N. La capacità di elaborazione si
misura in bit al secondo (bit/sec).
5. Va da sé che il costo di un ADC, di un DAC e di un elaboratore digitale aumenta con
la sua velocità espressa in bit/sec elaborati.
6. Poiché il mondo ci appare, diciamo "è", analogico, per entrare nel mondo digitale
dobbiamo acquisire i dati dal mondo come è (Fig.6), sottoporli a conversione, elaborarli
con un elaboratore (calcolatore) digitale e risottoporli a conversione inversa perché noi
umani dei bit non sappiamo che farcene, ci servono suoni, luci, colori, caratteri alfanumerici e tante altre cose che fanno la vita bella e non arida.
7. Si tenga sempre presente che il flusso dei dati e delle operazioni che su di essi si
eseguono non può svolgersi in maniera disordinata nel tempo: elaborare dati che non
sono ancora pronti o elaborare un dato scambiandolo per un altro porta al fallimento
dell'elaborazione. C'è bisogno cioè di una generale sincronizzazione di tutto il sistema.
La sincronizzazione in elettronica è l'analogo del solfeggio nella musica.
8
Mondo
Raccolta
dei dati
ADC
Elaboratore
Digitale
Analogico
DAC
Risultati
Mondo
Analogico
Clock (Tc )
Digitale
Fig. 6
8. Quando si digitalizza un segnale analogico che occupa una certa BW si produce un
segnale fatto di bit che ha una BW che possiamo considerare grossolanamente pari a
circa N volte BW se N è il numero di bit usati. Questo è uno svantaggio del digitale
rispetto all'analogico.
9. Grandi capacità di elaborazione sono necessarie nei calcoli scientifici, per le
previsioni meteorologiche, per la trasmissione di immagini, specie se in movimento
(televisione, simulatori di volo, etc.), per alcuni sistemi di controllo in tempo reale
(tipicamente sistemi di guida di mobili ad alta velocità, come aerei e bombe
intelligenti). Ne consegue che per scrivere una lettera, collegarsi ad internet, inviare email, controllare le movimentazioni di una catena di produzione, i 2 Ghz di Clock con i
quali si reclamizzano i PC attualmente in vendita sono proprio sprecati. Non vorrei
banalizzare, ma i veri utenti di questa capacità di calcolo sono i ragazzini delle famiglie
che si divertono con i giochi interattivi e le play station.
10. Visto che abbiamo ricordato i simulatori di volo, cioè stazioni di addestramento per
futuri piloti, permettetemi un cenno ai sistemi creatori di altre vite, cioè di realtà
virtuale (VR). A costo di sembrare arido, non sprecherò per essi la più piccola delle
lodi. Sono un monumento al consumismo, poiché implicano l'uso di risorse cospicue
(capacità di calcolo), costose (guanti sensibili, caschi visori, etc.) e per di più restano
avari di contributi scientifici, una sorta di montagne russe ad alta tecnologia per gente
in cerca di sensazioni forti che non costino il rischio della vita. Alcune occasionali
ricadute sulle conoscenze in merito ai meccanismi cognitivi e alle elaborazioni di dati
per via biologica possono essere ottenute in maniera più sistematica e meno costosa e
non giustificano gli entusiasmi sollevati da questi sistemi.
4. Accuse di oscurantismo da considerare attentamente prima di rinviarle al
mittente.
Me le aspetto, queste accuse, e dico subito che mi fanno paura, in primo luogo perché
possono essere vere, poi perché spesso prendono la forma di bolle papali, fatwa, editti,
insomma roba con la quale discutere è assai pericoloso.
9
Dice: è il progresso, il progresso è stato possibile anche grazie ai consumi privati,
quando questi aumentano la gente sta meglio, guarda i nostri paesi (i cosiddetti
occidentali) e confronta la condizione media di oggi con quella di cento anni fa.
Controbattere questi argomenti, corroborati da antibiotici, sparizione dei briganti fra
Lodi e Milano, possibilità di divertirsi oltre che lavorare e così via benedicendo, non
solo non è facile, ma non è nemmeno nelle mie intenzioni. Non sogno un generale
ritorno alla società delle sorelle Materassi, di Senilità o dell'Albero degli Zoccoli. Mi
contento di mettere in luce le qualità straordinarie che un calcolatore palesa quando lo
si usa come controllore di processo e l'assenza quasi totale, viceversa, di controllo del
processo sociale che chiamiamo post-industriale. Ho spazio (e cultura) per quattro
flash, non per un'analisi esauriente.
A proposito, nove volte su dieci avreste letto "esaustiva", traduzione della parola
inglese "exaustive" la cui radice "exaust" vale anche per gas di scarico, materiale di
rifiuto, quindi è usata in maniera ambigua, troppo convenzionale per essere poetica, si
confronti col francesismo "eclatante", entrato nel parlare comune senza forzare i tempi,
senza correre dietro al mito della velocità di calcolo.
Più in generale: è indubbio che, benché gli scienziati dell'elettronica operino più o
meno sparsi per il mondo, siano stati gli USA a fare dell'elettronica un prodotto di uso e
di consumo di massa. La lingua ufficiale dell'elettronica è quindi l'anglo-americano, che
è anche la lingua dell'economia più grande del mondo. La contaminazione linguistica è
benvenuta per la sua capacità di rendere vive le lingue nazionali, ma quando si esagera,
si esagera.
Mi sono creato un link da un data beis da cui ho anloadato tutti i faile utili a costruire
un report da presentare al miting, è una frase polemicamente costruita, ma purtroppo
plausibile.
Sono cattivo fino in fondo: metto in relazione questo con il fiorire di attimini, dove sei?,
come ti chiami da dove chiami, con ogni cosa che non si sa descrivere che diventa
"particolare", con "tipologia" al posto del più ordinario "tipo", insomma con
l'impoverimento e la mistificazione del vocabolario, la caduta del livello del linguaggio.
Secondo flash. Fate l'esperimento di andare in Inghilterra (perché non usa gli euro) e
cambiate 100 euro a uno sportello che espone la quotazione, buy 0,67. Lo/a impiegato/a
batterà su una calcolatrice l'operazione 0,67x100=67. C'è un bellissimo racconto di
fantascienza nella raccolta "Le Meraviglie del Possibile", Edizioni Einaudi, intitolato
7x9=63 nel quale...ma non ve lo voglio anticipare, leggetelo.
Il primo e il secondo flash ci illustrano una grave insostenibilità: un'acuta
contraddizione tra livello di cultura desiderabile per il cittadino e livello di cultura
bastevole al (e desiderato dal) tipo di lavoro che viene dato da svolgere. Con la
conseguenza che aumenta la rabbia e la frustrazione di chi si sente ogni giorno meno in
grado di comporre sintesi rispetto ai problemi esistenziali o alla complessità del sociale
in cui si vive. Non è responsabilità della rivoluzione digitale, ma non trascurerei il suo
contributo.
Terzo flash. Dice: la rivoluzione digitale affranca l'uomo dalla fatica dei lavori faticosi,
dai pericoli di quelli pericolosi e dalla miseria di quelli miserabili. Non ne sono
convinto, a meno che per "uomo" si intenda solo una parte del genere umano e mi
spiego.
Cominciamo con l'automazione: si chiamava Artwright quello del telaio, diciamo,
automatico? poi Watt che aumentò a dismisura rendimento e sicurezza delle macchine a
vapore? poi...insomma la rivoluzione industriale, che ha cambiato il modo di lavorare,
la quantità del lavoro pro-capite e tutte le cose che sappiamo. In un paio di secoli un bel
pezzo di mondo è cambiato e il procedimento si è sostenuto perché a misura che si
10
cancellavano posti di lavoro se ne creavano di nuovi e di inediti. Anche la rivoluzione
digitale tenta la stessa strada, ma quanto potrà andare avanti senza incepparsi il
meccanismo espulsione-riqualificazione-sostituzione? Sembra arrivato il momento di
ammettere che questo meccanismo che aumenta a dismisura la produttività
dell'individuo non è più sostenuto dall'abbassamento del costo per pezzo prodotto e
dall'aumento del reddito pro-capite da rivolgere al consumo: non è più sostenibile. In
presenza di un'organizzazione della società che stenta ad adeguarsi al fenomeno, c'è chi
ci prova con le 35 ore settimanali, ma fa scricchiolare altri istituti, il sistema
pensionistico in primo luogo e i diritti del lavoro subito appresso. Senza parlare delle
contraddizioni planetarie tipo nord-sud, materie prime-trasformazione, tecnologieprodotti e altro al che assistiamo quotidianamente.
Inoltre, hai voglia a digitalizzare, ma a un certo punto: prosciutto, scarpe, armadi e
quant'altro devi pure produrli e non lo può fare nemmeno il più intelligente complesso
di bit. Allora escono fuori i "lavori che gli italiani non vogliono più fare" che
producono immigrazione, oppure il "decentramento produttivo" che produce sconquassi
economici, sociali ed ecologici, come avviene con la nube di inquinamento che staziona
sull'estremo oriente asiatico. Insomma entra in gioco la contraddizione prodotti-servizi:
i primi sono in maggioranza materia, i secondi in maggioranza bit.
A proposito di inquinamento, quarto flash, il sogno di un'industria "pulita", quella degli
apparati elettronici, si poggia su una verifica non eseguita dei suoi modi di produzione,
che impongono un'estrema pulizia "dentro" l'industria, ma usano materiali che puliti
non sono come il silano, velenosissimo, e i CFC, forse oggi dismessi, in quantità
superiore a quella dei flaconi per le lacche delle signore. Confessiamo poi che puntare
su una qualunque produzione pulita qui, significa spostare quella sporca là, un là
generico, basta che sia lontano da casa mia.
Per chiudere sull'inquinamento, riporto un episodio di cui sono stato testimone. Un
grosso palazzo era in fermento perché si era saputo che su un edificio vicino avrebbero
piazzato un'antenna per i cellulari. C'era, nel cortile, un buon numero di inquilini
preoccupati dell'inquinamento elettromagnetico (non di quello estetico) che discutevano
animatamente e protestavano e telefonavano chi al deputato, chi all'assessore...con il
loro cellulare. Fine dell'episodio.
Infine, i flash erano quindi cinque, c'è una questione più sottile. Tante volte si usano
oggetti dei quali non capiamo il funzionamento e abbiamo vaghe idee su come sono
stati pensati e prodotti. Ma sono oggetti che servono a fare una sola cosa. Lavare i
piatti: lavastoviglie, camminarci dentro: scarpe, farci un panino: pane, sedercisi sopra:
sedia, andarci a cavalcioni: moto, e anche se con le scarpe posso spiaccicare uno
scarafaggio, le cose che ci posso fare sono poche e tutte chiare. Se mi dò da fare, è
facile che incontri uno che sa come funziona la lavastoviglie, come si fa il pane o come
si mettono le mani nel motore della mia moto, pur non essendo un adepto zen.
Quanto devo penare per trovare uno che sappia come funziona un telefonino? E un
calcolatore? Non che lo sappia usare, ma che sappia bene che cos'è e come funziona e
come viene pensato e prodotto. La gran parte dei laureati in informatica non è in grado
di inventarsi un software di una qualche importanza e non gli sarà chiesto di farlo, ma
di usare programmi già preconfezionati, i laureati in elettronica raramente saranno
chiamati a progettare un sistema di elaborazione. Insomma, la rivoluzione digitale
pretende di rivoluzionarci la vita, ma si affida ad un ristretto numero di sapienti, geni
del bit, geni rari e imprenditori casuali (napster?). A noi rimane solo un assordante,
assillante, stupido e spesso volgare battage pubblicitario funzionale a un fenomeno
commerciale di dimensioni planetarie.
11
Per finire con i flash, un'ultima considerazione (e sei). Avevamo un paio di automobili
in famiglia più qualche motorino: crisi dell'auto. Avevamo un televisore per camera,
anche in bagno: crisi delle vendite di televisori, tentativo HDTV un flop, oggi pay-tv,
pay per view, problema dell'ultimo miglio, probabili prossimi flop. Il Nasdaq e affini
che salgono, salgono, salgono e poi scendono, scendono, scendono. Ci insegnano
qualcosa oppure niente?
Non mi oppongo alla rivoluzione digitale, ma ai suoi sacerdoti invasati e ai suoi seguaci
acritici, mi oppongo alle folle che, aspettando il miracolo del sole che rotea nel cielo,
finiscono per bruciarsi la retina.
Non mi propongo quindi di finirla col digitale: desidererei che se ne governassero le
conseguenze mettendo al passo leggi e istituti sociali con le nuove, sopraggiunte
tecnologie.
5. La rivoluzione digitale ha portato un avanzamento delle conoscenze
E' questa una delle posizioni più fortemente difese dai partigiani intemperanti della
rivoluzione digitale. Ma a me sembra che si faccia confusione fra scienza, tecnica e
tecnologia.
Il TdF, il TdC, l'algebra di Boole, i Teoremi e i lavori di Logica Matematica di Turing
hanno posto le basi scientifiche dell'elaborazione digitale dei segnali e di alcune
applicazioni molto brillanti, come il filtro di Kalman e l'algoritmo di Viterbi. Questa è
scienza, cioè avanzamento della conoscenza.
La macchina di Turing e il suo perfezionamento dovuto a Von Neuman hanno
dimostrato la fattibilità e l'efficienza del calcolo automatico. Lo studio dei codici ha
permesso di contenere in proporzioni accettabili l'aumento di banda conseguente alla
digitalizzazione del segnale. Forse l'elenco non è completo, ma cerchiamo di intenderci.
Questa è tecnica, cioè dimostrazione di fattibilità. Ammetto che le divisioni sono
sempre arbitrarie e spesso venate di soggettivismo: sono pronto a travasare un articolo
da qui a lì e viceversa, adesso mi interessa ottenere un benevolo cenno d'intesa.
Il resto è pura tecnologia, lo scopo della quale è produrre dei componenti più complessi,
più efficienti, più affidabili, più veloci. Non c'è stato nessun episodio di vera e propria
svolta nel panorama dell'elettronica da quando è stato prodotto il primo integrato o il
primo microcircuito (diciamo 1970). Si aspetta un'innovazione pari al cambio valvoletransistor (1947), si cercano nuovi materiali, ma il vecchio silicio ancora non incontra
competitori, anzi guadagna terreno, si spera nell'elettronica molecolare e nei materiali
organici, ma non si vede ancora un risultato da far leccare i baffi.
Certo, la potenza di calcolo ha permesso agli scienziati l'uso di modelli matematici
estremamente complicati e molto fedelmente descrittivi delle realtà studiate, la
mappatura del genoma non sarebbe stata possibile con carta e matita, nemmeno le
imprese spaziali, i satelliti per TLC, il GPS e tutte quelle meraviglie raccontate nei film
di 007. C'è stato un avanzamento delle conoscenze grazie allo strumento, mentre lo
stesso strumento è servito per spingere al limite le prestazioni di se stesso, non per
mutarne la sostanza. Si è governata la complessità, ma non mi sembra si siano sciolte le
difficoltà.
Se avessi cultura in materia, mi azzarderei a dire qualcosa su studi tipici delle scienze
della cognizione, della psicologia, diciamo in generale delle scienze umane. Sulla
cosiddetta intelligenza artificiale non mi pronuncio, so poche cose e non mi
12
convincono, l'idea di usare un robot sostitutivo del comportamento umano mi sembra
più un obiettivo da saga di Guerre Stellari che un'esigenza dell'uomo.
Dice Negroponte (par. 8, op.cit. pag. 209):"...i bambini impareranno concetti fisici e
logici che voi e io abbiamo imparato all'università". Non so a voi, ma a me un esercito
di gremlins famelici e per di più estremamente colti mi fa terrore. Non sarebbe meglio
aumentare il numero di quelli che vanno all'università, contemporaneamente allentando
il vincolo fra la cultura posseduta e il lavoro prestato? L'ho buttata lì, chissà che cresca.
Della produzione di software e dei suoi creatori non so decidermi a dire: a volte mi
sembra che facciano un lavoro di alto contenuto scientifico, a volte non mi
entusiasmano più degli inventori dei giochi di società, degli indovinelli o delle parole
incrociate. Il loro prodotto finale è sicuramente una secrezione di pura intelligenza
umana codificata, immagazzinata e pronta per l'uso. Per diventare prodotto, deve però
essere dotata di un'interfaccia che la renda di facile uso anche a chi non capisce niente
di elettronica, informatica e telecomunicazioni. Ne consegue che pochi, pochissimi
cervelloni rendono facili per tanti utenti operazioni assai complicate (prenotazioni,
banche, servizi postali, etc.). Sia chiaro: facili, nel senso eseguibili senza capire, non
semplici nel senso da eseguire perché si sono capite. La vecchia realtà si capovolge:
invece dello scemo del villaggio, abbiamo l'intelligente del villaggio. Questo dovrebbe
preoccuparci.
Infine, si sostiene che, prima della rivoluzione digitale, c'erano cose che l'elettronica
non era in grado di fare cioè, detto in gergo, ci sono operazioni che sono fattibili solo in
digitale e non in analogico.
Bisogna intendersi su cosa si intende per "fattibili". Spesso si intende che sono più
comode, più semplici, più precise: se devo svitare un bullone è bene usare una chiave
inglese, ma, in mancanza, anche una pinza può servire allo scopo.
Il più grande vantaggio del digitale rispetto all'analogico è, mi sembra, nel tipo di
memoria utilizzabile: in analogico si ricorre ad aggeggi come il nastro magnetico che è
lento, scomodo, soggetto ad errori, ha parti in movimento. A confronto, una RAM, una
ROM, un disco o dischetto, un CD sono anni luce avanti. Applicando il TdC
memorizzo i segnali e poi li elaboro quando mi fa comodo.
E' un vantaggio di proporzioni gigantesche, che da solo giustificherebbe la vittoria della
rivoluzione digitale. Anzi, si deve insegnare agli studenti che, appena sia possibile la
digitalizzazione dei segnali, 99,9 volte su cento conviene passare al digitale e
abbandonare l'analogico: quasi sempre il digitale ti fornisce la chiave inglese per il tuo
bullone e, anche se non è detto che la cosa non si potrebbe fare in analogico, il digitale
la fa più rapida, più precisa e, una volta che hai comprato il calcolatore, anche in
maniera più semplice.
Ma ci sono cose che il digitale non sa fare e devono essere fatte in analogico:
l'acquisitore di dati della Fig. 6 è analogico, una trasmissione radio o Tv o satellitare è
un'operazione analogica, il trattamento di segnali a microonde è elettronica analogica.
Altro è quindi riconoscere i meriti della rivoluzione digitale, altro è cambiarle nome e
farla diventare dittatura digitale, attribuirle facoltà taumaturgiche o magiche
paventando digital divide o addirittura digital gap, modellare la propria vita sui prodotti
che essa suggerisce e propone.
Per non rischiare quindi la fine dell'apprendista stregone, quello di Fantasia della
Disney, affogato nei suoi stessi sogni in compagnia di tutti quelli che hanno perso i loro
risparmi investendo nel listino Nasdaq e affini per il mondo, forse è bene mantenere i
piedi per terra, non idolatrare né demonizzare quella che è solo una tecnica come altre,
la cui peculiarità, la velocità ottenibile, è da usarsi solo se serve.
13
In altre parole, sarebbe bene soffermarsi a cercare le risposte alle seguenti domande, tra
le tante che si potrebbero porre proprio sul terreno della sostenibilità.
a) In cosa la TV digitale (v. par. 6) migliora le nostre vite?
b) In cosa l'UMTS (le videotelefonate in generale) migliora la nostra vita?
c) E’ di utilità per la gente (e non solo per quattro manager) potersi collegare a internet
anche se si sta a prendere il sole sul molo di Viareggio (si fa per dire)?
d) Quattro milioni di pubblicazioni mediche disponibili via internet riescono a
migliorare le prestazioni del mio medico?
e) I Paesi in Via di Sviluppo hanno bisogno prioritariamente di colmare il digital-gap?
Prima di rispondere, chiedere in Liberia o nel Ruanda-Burundi.
f) Sappiamo cosa significhi "digital-gap"? Prima di rispondere informarsi presso i
meninhos da rua a Rio o a Sao Paulo.
g) E’ giusto che spenda 1500 euro per comprare un PC (portatile, sigh!) da 1,5 GHz (1
GHz = 1 Gigahertz = 1 miliardo di oscillazioni al secondo) a mio figlio che poi mi
chiederà i soldi per comprarsi strani giochi, strani DVD, collegarsi ad internet via il mio
telefono fisso, ci passerà un sacco di tempo incollato (vai al capitolo "bollette salate") e
non avrà imparato nemmeno l'abc della programmazione?
h) E' molto raro che il calcolatore dei nostri figli sia dotato di ADC e DAC. Per cui non
è possibile per quell'oggetto dialogare col mondo in generale, ma solo con quella fetta
di mondo costruita da, per, con, su, tra calcolatori: i già citati giochi, DVD, internet.
Solo l'e-mail e i suoi surrogati (chat line?) lo mettono in contatto col mondo: giudicate
voi.
i) Non sarà che questa rivoluzione digitale ha rivoluzionato anche il livello di welfare
(pensioni, sanità, istruzione, rieducazione, interventi nel sociale) per il quale non trovo
più soldi da investire visto che devo pagare tutti quei bit di mio figlio, socialmente
inteso?
6. Puntualizzazioni tecniche che possono essere saltate da chi non ne può proprio
più.
Nei parr. precedenti sono state discusse le caratteristiche basilari dell'elaborazione
digitale (o numerica) dei segnali ed esposte alcune delle ragioni che la fanno preferire,
quando essa sia possibile, a quella analogica. Tale scelta risulta conveniente, nonostante
si debba passare per l'operazione di conversione analogico-digitale (ADC) e per quella
inversa (DAC) a fine elaborazione.
Riassumiamo le motivazioni a favore dell'elaborazione digitale:
a)
Semplicità del ricevitore. Un ricevitore di segnale digitale deve discernere
basicamente tra due tipi di segnali: il bit 1 e quello 0, sì o no, bianco o nero: deve cioè
fare una scelta dicotomica. Si comprende che si sbaglia meno a separare il bianco dal
nero (digitale) piuttosto che a valutare il tono di un grigio (analogico). Un tale
ricevitore ha una più bassa probabilità di errore.
b)
E' conseguentemente semplice predisporre il ricevitore a ricevere "bene" il
segnale in dipendenza dal dove e dal come gli arriva. In altre parole, è più semplice
minimizzare gli effetti del rumore che accompagna il segnale in arrivo.
c)
Flessibilità dell'elaboratore: il calcolatore può svolgere compiti diversi
dipendendo dalla sua programmazione (SoftWare = SW) e non dalla sua costruzione
(HardWare = HW).
14
d)
Comodità di risolvere a livello di elaborazione i problemi di precisione che
risultano legati al numero di bit usati.
e)
Possibilità di lavorare con componenti ad alto grado di integrazione (i chip)
grazie alla estrema semplicità con la quale si può trattare e memorizzare un segnale che
può assumere due valori (bit) e al basso livello di energia (0.1-10 pJ) necessario per
memorizzarlo per un tempo praticamente illimitato. Ciò abbassa i costi dei sistemi di
elaborazione e ne aumenta l'affidabilità intesa sia come occorrenza dei guasti che come
possibilità di errori di elaborazione.
f)
Diminuzione delle energie impiegate a parità di funzione eseguita con
conseguenti risparmio e semplificazione del progetto termo-meccanico del sistema e
della sua costruzione.
Riassumiamo anche i problemi posti dall'elaborazione digitale:
a)
Poiché tutti i bit sono fisicamente equivalenti, la probabilità di errore sul bit
meno importante è uguale a quella sul bit più importante. Ciò impone di dotarsi di
mezzi per riconoscere l'accadimento di un'errata rivelazione di uno o più bit: si
adottano, per questo compito, speciali codifiche dell'informazione dette codici a
correzione di errore. Ciò aumenta le operazioni che si devono eseguire, complica
l'elaborazione e richiede più tempo a parità di altre condizioni.
b)
L'elaborazione digitale esalta la necessità della sincronizzazione tra le varie parti
del sistema: non è azzardato affermare che, dei problemi di progetto, è a questo che si
deve dedicare la cura maggiore a parità di velocità di esecuzione.
c)
A proposito di velocità di esecuzione, terminiamo col dire che vantaggi e
problemi sopra elencati devono comunque fare i conti con questo fondamentale
parametro che, in ultima analisi, determina (Teorema del Campionamento) la banda di
frequenza nella quale il sistema è in grado di operare. Infatti, all'aumentare della
velocità di elaborazione, misurata in bit/sec, tutte le parti del sistema devono aumentare
la loro velocità di elaborazione, aumenta conseguentemente la potenza da impiegare
nella elaborazione, riportando all'attenzione il problema del progetto termo-meccanico
del sistema, aumenta la probabilità di errore, aumenta la difficoltà della
sincronizzazione tra le varie parti del sistema.
Poiché tutti i problemi posti scalano di importanza al diminuire della velocità, la
individuazione della minima velocità che ancora risolve il problema è un criterio di
progetto da osservare strettamente. Proprio il contrario della corsa a dotarsi del
calcolatore più veloce e più costoso.
Per contrasto, la individuazione della massima velocità di elaborazione permessa dalla
tecnologia disponibile (qui e ora) segna il confine oltre il quale è giocoforza ricorrere
all'elaborazione analogica dei segnali.
7. La televisione digitale
Ultimamente in Italia si è parlato tanto di televisione digitale (DTV) che si è finito per
identificarla con la rivoluzione digitale. E' quindi necessario entrare dentro l'argomento
per venirne poi fuori un po' meglio attrezzati.
15
7a. Cosa è la TV
Lo dice la parola stessa: è la tecnica che permette ad una stazione ricevente di ricevere
un'immagine considerata da una stazione trasmittente. La radio trasmette e riceve suoni
che vengono acquisiti tramite un microfono e riprodotti tramite un altoparlante. La TV
trasmette e riceve immagini (con o senza suono aggregato) che vengono acquisite da
una telecamera e riprodotte da uno schermo (e da un altoparlante) o cinescopio che fa
parte dell'apparecchio televisivo (detto brevemente televisore, TV).
Le immagini considerate dalla trasmittente possono essere:
- Sintetiche o grafiche: disegni originati da calcolatore o dall'uomo.
- Naturali: riproduzione di scene esistenti in natura, dette anche immagini fotografiche.
- In bianco e nero (b/n): per le quali si specificano i livelli di grigio, da 2 a un numero
molto alto.
- A colori: per le quali si specifica il numero dei colori, per esempio 256, ognuno dei
quali è ricavabile indicando il dosaggio dei tre colori fondamentali rosso, verde e blu
(RGB).
- Fisse: una tale immagine ha bisogno di essere trasmessa, ricevuta, memorizzata
(registrata) e riprodotta.
- In movimento: ha bisogno di essere trasmessa, ricevuta, riprodotta fotogramma per
fotogramma e, se del caso, registrata.
Per capire come può venire trasmessa un'immagine, cominciamo a considerarne una
fissa e in bianco e nero e tracciamo su di essa un certo numero di linee parallele, come è
schematizzato in Fig. 7. Quante linee lo decidiamo tra un momento.
Fig. 7
Si chiama telecamera un aggeggio capace di seguire la prima, poi la seconda, poi la
terza, e così via, linea e di fornire un segnale proporzionale alla gradazione di grigio
incontrata lungo la linea. Si ottiene quindi un segnale come in Fig. 8. Si trasmette
questo segnale che verrà utilizzato da un altro aggeggio chiamato televisore, ce
l'abbiamo in casa, che riproduce sul suo schermo, linea per linea, i vari livelli di grigio.
Naturalmente la trasmissione dovrà provvedere ad informare il televisore sulla
16
Gradazione di grigio
posizione della linea tal dei tali, sull'inizio e la fine di ogni fascio di linee, cioè su tutto
quello che abbiamo prima chiamato "sincronizzazione". I segnali di sincronizzazione
occupano il tempo che si infila tra il segnale di una linea e di quella successiva.
Adesso domandiamoci: con quante linee si deve esaminare (scandire) e trasmettere
l'immagine? Risposta: tante quanto servono e bastano per riprodurre sul mio schermo
l'immagine senza che l'occhio si "accorga" che è stata scomposta in righe, poi
giustapposte per tentare di riformarla.
tempo
...riga 78
riga 79
riga 80
riga 81
riga 82
riga 83
riga 84...
Fig. 8
La nostra TV usa 625 righe per ogni immagine o quadro: se si va vicino allo schermo ci
si può accorgere della scomposizione, ma alla distanza di osservazione l'occhio non
riesce a risolvere le righe e vede un'immagine accettabile come un continuum.
Quattro considerazioni:
1. Il procedimento di scomposizione in linee (scansione) altro non è che un
campionamento dell'immagine lungo la sua verticale: l'occhio fa da interpolatore tra
riga e riga, come fa da interpolatore tra fotogramma e fotogramma al cinema e tra
quadro e quadro in TV.
2. Se la scansione è eseguita abbastanza velocemente i successivi fotogrammi possono
riprodurre immagini in movimento, ossia la TV b/n. La nostra TV usa 25 fotogrammi o
quadri al secondo, come il cinema.
3. Se oltre all'intensità del bianco e del nero (livelli di grigio) si complica un po' il
segnale acquisito e lo si trasmette completo dell'informazione RGB (telecamera a
colori) allora si fa la TVC. Naturalmente anche il televisore deve essere TVC.
4. Il segnale TV può arrivare al televisore via etere (antenna), via cavo (per es. cavo
telefonico), via fibra ottica, via satellite (antenna parabolica). In ciascuno dei casi si
dovrà disporre di un apparecchio diverso per "accogliere" correttamente il segnale, ma
alla fine, dopo opportuna elaborazione, il segnale fornito al cinescopio per ricostruire
l'immagine dovrà avere sempre la stessa natura di segnale TV (analogico) scandito per
righe.
7b. Che cosa è la TV digitale
17
La cosa da considerare risolutiva nella tecnica TV è la scansione per righe (Fig. 7) che
ha convertito un'immagine in un segnale f(t) (Fig. 8). Questo può essere campionato
(rispettando il TdC), convertito in digitale, trasmesso come segnale numerico (invece
che analogico), ricevuto come tale e riconvertito dal nostro televisore che dovrà essere
ora un DTV o un DTVC.
Quando si campiona il segnale TV, ogni campione viene detto pixel, il numero dei bit
per pixel dice quanto accuratamente viene trasmesso il livello di grigio del pixel, e, se si
tratta di TVC, quanto giocano in quel punto i tre colori base.
Con lo stesso principio funziona il fax: quando la pagina (immagine) da trasmettere
entra nella macchina, una fila di sensori acquisisce riga per riga il bianco e il nero.
Questi vengono convertiti in digitale e spediti sulla linea telefonica. Si può dire che la
macchina fax che riceve è una DTV che, invece di avere uno schermo, stampa
l'immagine su un foglio di carta. Con sistemi analoghi, qualche tempo fa, si spedivano
le telefoto.
Tre considerazioni:
1. Come si è detto al punto 8 del par. 3, la digitalizzazione del segnale TVC provoca un
forte aumento della banda occupata. Se da analogico il segnale occupava una banda di
5MHz, da digitale lo troviamo su una banda di circa 250 MHz. E' necessaria
un'operazione di compressione mediante codifica: fortunatamente il segnale TV è assai
ridondante e non è necessario trasmettere tutto quello che esce dalla telecamera digitale
per permettere al televisore di ricostruire l'immagine. Lo standard di codifica adottato
nel mondo è detto MPEG. Ne consegue che un DTVC deve avere per prima cosa un
decodificatore MPEG.
2. Il segnale può arrivare al televisore per le stesse vie del segnale analogico: si
ripetono pari pari le considerazioni del punto 4 del paragrafo precedente. Si sottolinea
che il segnale che comanda il cinescopio è sempre della stessa natura di segnale TV
scandito per righe: l'unica differenza tra un TVC e un DTVC è quindi nella presenza del
decodificatore MPEG e del convertitore DAC. In altre parole, se partono le trasmissioni
terrestri, queste possono essere ricevute con la solita antenna senza grossi problemi:
basta aggiungere il decodificatore (che contiene il DAC) al vecchio TVC.
3. Si deve aggiungere a quanto detto, che, per comprimere ulteriormente l'occupazione
di banda, la trasmissione usa un formato di modulazione detto a molti livelli. In un certo
senso, il segnale digitale, per essere trasmesso con modalità accettabili, deve ridiventare
un po' analogico. Ma su questa nemesi sorvoliamo.
7c. La qualità del servizio: confronto tra TVC e DTVC
Per qualità del servizio (QoS) si intende sia la qualità dell'immagine riprodotta dal
TVC, sia il complesso dei servizi aggiuntivi che il gestore propone all'utente.
Sulla qualità dell'immagine influiscono anche la classe del cinescopio, quella
dell'apparato ricevitore e l'adeguatezza e la posizione dell'antenna. Si deve, quindi,
confrontare la qualità dell'immagine trasmessa in analogica con quella trasmessa in
digitale a parità di altre condizioni.
Se il confronto si fa a parità di intensità del segnale ricevuto dall'antenna, il processo di
codifica e decodifica, di modulazione multilivello e tutte le trasformazioni da analogico
a digitale e di nuovo ad analogico possono peggiorare la resa dell'immagine. D’altra
parte, la trasmissione digitale ha bisogno di un segnale meno potente per ottenere lo
“stesso risultato” sullo schermo. In particolare e con più precisione, riferendoci a
18
trasmissioni via etere terrestri, per una TV analogica (su ≈5 Mhz di banda) si danno, in
ordine crescente, tre gradi di qualità:
- Qualità VHS, cioè quella ottenibile da una cassetta con nastro magnetico.
- Qualità PAL, quella ottenuta da una trasmissione via etere in condizioni ottimali di
ricezione.
- Qualità studio, quella che si ottiene connettendo direttamente via cavo la telecamera al
televisore.
Per una DTVC si ha che:
- Una trasmissione intorno a 2 Mbit/sec garantisce la qualità VHS.
- Una trasmissione a 4 - 5 Mbit/sec garantisce la qualità PAL.
- Una trasmissione a 20 Mbit/sec garantisce la qualità circa pari a quella studio, detta ad
alta definizione (HDTV). In questo caso il televisore deve essere in grado di fornire la
qualità HDTV a non si tratta quindi di un normale DTVC.
Come ormai sappiamo, all'aumentare del numero dei bit al secondo aumenta la banda
occupata dal collegamento: poiché ciò diminuisce il numero di canali
contemporaneamente possibili in un dato intervallo di frequenze di trasmissione,
ciascun canale costa di più. Può quindi convenire (con qualche inconveniente
aggiuntivo) di spostare la trasmittente sul satellite che illumina un'area utente assai più
grande di quella servita da un'antenna terrestre. Serve quindi la parabola e uno speciale
apparecchio (il convertitore) per riportare il segnale in formato utilizzabile dal TVC di
casa.
Va da sé che, provenendo dal lontano (36.000 km) satellite, il segnale che arriva
all'antenna è proprio piccolo: si rischia cioè di perdere i vantaggi della banda larga e di
avere alla fine della storia una qualità dell'immagine non tanto migliorata quanto ci si
aspetterebbe.
Altro discorso vale per i collegamenti via cavo o fibra ottica. Per prima cosa il
collegamento deve arrivare fino a casa e ciò implica opere di istallazione. Poi, il
collegamento deve essere capace di trasportare la banda necessaria, il che non è un
problema per le fibre, mentre ne pone qualcuno per il cavo. La fibra ottica riesce a
fornire un segnale assai buono: sembra quindi un collegamento ideale, a parte le opere
di muratura per farla arrivare fino a casa e il maggiore costo del ricevitore ottico.
Possiamo in definitiva concludere col detto popolare: dove la va la viene, cioè non c'è
un netto miglioramento della qualità dell'immagine nel passare dalle trasmissioni
analogiche a quelle digitali se non si usa un collegamento che permetta di aumentare il
numero di bit/sec ricevuti: il che aumenta l’occupazione di banda o costringe a
trasmissioni più sofisticate (fibra ottica, modulazioni a costellazione).
A favore della trasmissione digitale si può portare il fatto che la trasmissione via etere,
se il confronto si fa a parità di qualità dell'immagine riprodotta, richiede una potenza
emessa minore (circa un decimo) rispetto a quella analogica. Questo è l'unico vantaggio
che si può elencare con sicurezza per la DTVC: riportando la potenza trasmessa alla
parità con quella analogica nel tentativo di migliorare la qualità dell'immagine, si può
essere frustrati dal tipo di palazzo che si ha di fronte. Meno male che, da un certo punto
in poi, l'occhio si contenta e gode.
7d. La TV interattiva
19
C'è ancora da commentare la questione dell'interattività, cioè la possibilità per l'utente
di colloquiare col gestore al fine di ricevere informazioni e/o servizi su richiesta.
E' evidente la necessità di stabilire un canale di comunicazione reciproco rispetto a
quello attraverso il quale si riceve il segnale TV. Si tratta di un canale con
caratteristiche di assai più basso livello rispetto a quello primario: un messaggio di tipo
verbale, in pratica un e-mail per di più presumibilmente corto, occupa una banda esigua
rispetto al segnale TV. L'unica esigenza da soddisfare è quella di individuare senza
errori il mittente.
Un canale di comunicazione con queste caratteristiche già esiste ed è il sistema dei
telefoni fissi e mobili. Ad esso ricorrono televenditori e quizzaroli, indagatori dilettanti,
sondaggisti e conduttori di gare canore per organizzarsi la interattività di cui hanno
bisogno. Ad esso ricorre la DTVC che prevede, nel decodificatore, l'attacco per il
telefono.
Per le caratteristiche della comunicazione e del televisore che si ha in casa non sembra
di poter prevedere servizi che si discostino dalla scelta di una voce su un menu
prestabilito. Si tratta, comunque, di un'interattività assai rudimentale, ma già capace di
dare utili informazioni sulla strutturazione di un tale servizio.
Una cosa è certa: il telefono esisteva prima della DTVC e veniva usato come canale
interattivo anche in tempi di TVC (senza D).
7e. La grande innovazione
La DTV è una grande innovazione, con essa aumentano di un fattore 10 i canali
disponibili, la TV diventa per ciò stesso più democratica, ci sarà la TV di quartiere e via
illustrando le magnifiche sorti e progressive.
Questo è quanto si sente dire e si legge scritto in giro. Possiamo cominciare un lungo
dibattito a partire da un “magari 10 no ma 4 sì”: non andremmo lontano, a mio parere
s’intende, e non potrei che riaffermare le cautele alle quali ho invitato il lettore delle
considerazioni che precedono. Alcuni altri, come si vedrà al par. 9, condividono queste
cautele come anche qualche mio scetticismo.
Detto in chiaro: a me non sembra che la DTVC sia la tecnologia che disincaglierà i
problemi di crisi produttiva o di traino del livello tecnologico del Paese in generale:
confido molto di più sull’alta velocità, sulle autostrade del mare, sulle nuove tecnologie
mediche e chirurgiche, sulla ricerca di energie alternative e sul ripensamento profondo
dell’organizzazione dello Stato. Ma su questo sono consapevole di poter sbagliare.
Di una cosa sono maggiormente certo: fare una TV costa di più che fare una radio e
tanto di più quanto più la si vuole digitale, interattiva, ad alta QoS e chi più ne ha più ne
metta. Perché per fare una TV si deve anche produrre in proprio spettacoli, non ci si
può limitare a mandare in onda chiacchierate da bar o da salotto e brani musicali.
Quindi la democrazia passa per la disponibilità di capitali di investimento che attendono
ritorni pubblicitari. Concluda il lettore.
E poi, chi ha le frequenze di trasmissione se le tiene, il che prefigura una
moltiplicazione per 4 di ogni canale, prospettiva che vorrei evitare di vivere.
8. Considerazioni su alcuni modi di dire invalsi nell’uso.
Ho avuto tra le mani un documento di ambiente Fondazione Di Vittorio intitolato "Le
150 ore del digitale". Lo giudico un buon documento con uno strano primo paragrafo. E
vorrei spiegarmi: questo primo paragrafo è un buon campionario di tutti i vizi indotti
20
dall'uso acritico di parole di incerta semantica. Ne riporterò i passi commentandoli: è
sufficientemente corto.
"Le applicazioni dell'informatica alla produzione, consumi, servizi ed alla cultura ed
intrattenimento, la sua penetrazione in tutti gli ambiti della società moderna, sono
l'effetto di una grande innovazione tecnologica: il passaggio - di tecniche, linguaggi,
simboli - dall'analogico al digitale."
Se il lettore ha avuto la pazienza di arrivare fino a questo punto, può riferirsi alla Fig. 6
dove si è affermato che l'utente della tecnologia parte dall'analogico e torna
all'analogico, perché dei bit non sa cosa fare, con un procedimento che 999 su 1000 gli
è trasparente. La tecnica è cambiata, ma di questo egli non sa, mentre linguaggi e
simboli (a parte la foia inglesizzante dei venditori) non mi sembra siano stati alterati.
Insomma: ancora non mi è successo di essere sedotto per via digitale né da una donna,
né da un'amatriciana, né tantomeno dalla lettura di un romanzo del commissario
Montalbano.
L’uso della parola “informatica” in maniera così generalizzante e sintetizzante
meriterebbe un commento a sé: ma non ne abbiamo il tempo e lo spazio.
"Questa innovazione è nata cinquanta anni fa, nell'embrione del primo calcolatore; è
cresciuta con il silicio dei semiconduttori; ma in questi anni raggiunge la piena
maturità, con lo sviluppo del sistema nervoso centrale e periferico: le reti, i terminali, e
l'immensa disponibilità dei software operativi. La digitalizzazione si estende al lavoro,
ai servizi, al tempo libero, ed al linguaggio; tutti questi, formatisi storicamente secondo
il millenario impiego del paradigma analogico, vengono oggi ridefiniti, con una
velocità crescente, sulla base del paradigma numerale binario, e così descritti,
comunicati e resi applicativi."
Mi dissocio con leggerezza d'animo dall'enfasi del tono, dal linguaggio antropomorfo e
dalle considerazioni tecniche tipo silicio e sistema nervoso centrale e periferico. Mi
sfugge quale sia il "paradigma analogico" e, conseguentemente, la sua ridefinizione
digitale. Se ci si riferisce a modificazioni nell’organizzazione del lavoro sono d’accordo
nell’additarle all’attenzione della politica e del sindacato, come del resto è stato fatto
nel par. 4 di questo scritto.
"Ampio è il dibattito sulle conseguenze di questa rivoluzione - sui suoi effetti sul lavoro
e l'occupazione, sugli stili di vita, sul modo stesso di pensare e comunicare, sui
linguaggi, sulla coesione sociale - visto che in questa fase coesistono - e talvolta
confliggono - i due paradigmi diversi. Tutti concordano, tuttavia, su una mutazione in
atto, antropologica e culturale."
E' vero, il dibattito c'è, ma non credo che sia dissimile da quanto avvenne all'epoca di
Ludd. E con gli stessi problemi come ho avuto modo di accennare sopra. Vorrei però
rassicurare estensore della nota e lettori su due cose.
Intanto i due modi di trattare l'informazione (meglio dire così che scomodare i
paradigmi) non confliggono affatto: uno si fa da parte quando non è applicabile mentre
lo risulta l'altro.
In secondo luogo, posso assicurare che il "digitale" non esiste: trattasi sempre di
corrente, tensione, silicio, schermi e fili. Più analogico di così... Cambia
l'interpretazione di questi enti fisici e questo cambio di visione (paradigma?) schiude
possibilità nuove di elaborazione che portano vantaggi e richiedono prezzi.
Infine, prego caldamente di considerarmi fuori da quel "tutti concordano": non per
snobismo, ma perché spero di sottrarmi al dramma di una mutazione antropologica e
culturale pilotata da quattro schifosissimi bit.
21
9. Proviamo a tirare conclusioni
Il 26 gennaio 2004 si è svolto un interessante convegno su questi temi, organizzato
dalla Fondazione Di Vittorio: gli atti possono essere reperiti sulla News Letter 78 del
30 gennaio 2004.
Abituati da tanto tempo a congressi, convegni, discorsi e dibattiti dei quali poi si riesce
a salvare una percentuale lontana dal 100, possiamo dare agli organizzatori e ai
convegnisti una calda nota di plauso. Il Convegno ha colpito nel segno di tutti i bersagli
che si era prefissato di considerare.
La prima conclusione alla quale il convegno ha dato corpo ha riguardato il bisogno di
contrastare una certa superficialità e inadeguatezza tecnica con le quali troppo spesso, e
questo è stato il caso della DTV, si dipanano i dibattiti politici sulle scelte da compiere
nei più svariati campi tecnici (vedi fecondazione assistita e cellule staminali). Nel caso
DTVC le scelte si sono rapidamente raccolte nel contenitore rappresentato dalla Legge
Gasparri e dall'invenzione del SIC.
Il Dipartimento Ricerca e Sostenibilità della Fondazione si era formato con l’obiettivo
di rinforzare la consapevolezza tecnica di quanto coinvolto dalle scelte politiche: non
possiamo che essere lieti del risultato ottenuto dal Convegno.
Riporto alcuni passi del dibattito che mi sono risultati particolarmente significativi.
Pur riconoscendo l'immanenza del fatto che la TV veicola valori e modi di vita
(Mattioli) e che c'è il problema di definire "servizio pubblico" (Manca), si è
riconosciuto anche che la questione democratica non si gioca sul digitale (Serventi
Longhi). Come dire che spesso le tecniche sono realmente neutre rispetto ai temi
politici.
Si sono messe in luce, ed era ora, tutta una serie di "sopravvalutazioni" (Pucci dello
IULM), che hanno informato finora il dibattito politico e quel poco di opinione
pubblica interessata al caso: i tempi di diffusione delle nuove tecnologie non si stanno
mostrando brevi, le risorse finanziarie messe a disposizione della DTVC non sono
all'altezza, la pluralizzazione dei gestori è un orizzonte dipinto sul muro. In poche
parole: niente è andato come si era desiderato o sperato a seguito di un approccio che
giustamente è stato definito positivista.
Una quarta sopravvalutazione, quella del fascino della interattività, è stata
convincentemente smontata da Luciana Castellina, mentre si sono commentate con
scetticismo le opinioni dominanti sulla qualità dell'immagine e sulla scarsezza dello
spettro di frequenze a disposizione.
Alla fine si è riconosciuto (Epifani) che il fenomeno marcia con un motore potente
rappresentato dall'azione degli attuali gestori per non essere tagliati fuori da un
possibile boom della nuova tecnologia e per occupare posizioni di preminenza sul piano
della concorrenza commerciale e politica. Il che pone al Sindacato problemi di gestione
di una risposta che, se non si presenta impegnata sul fronte dell'occupazione e dei
rapporti di lavoro per il fatto di non avere ancora caratteri di massa critica, gode, si fa
per dire, della specificità della situazione italiana.
Il convegno non ha tirato conclusioni sul futuro della tecnica in sé, anche se Pucci
aveva lanciato al dibattito l'esca della diffusione via cavo del segnale.
Detto quanto precede, se mi è permesso di tirare una conclusione su questo punto, mi
azzardo, per una volta, ad essere d'accordo col già citato Negroponte, laddove dice: "La
chiave per il futuro della televisione è smettere di pensare ad essa in termini di
televisione".
22
Resteranno i palinsesti e le programmazioni delle reti tradizionali, ma si affermerà una
visione dominata dal desiderio del singolo. La via sarà quella di prendere coscienza che
il cavo è meglio dell'etere, che il cavo già esiste, che la televisione deve farsi telefono,
anzi telèdato, nel senso che mi deve arrivare quello che voglio vedere e che ho chiesto
al negozio di film registrati che sta proprio sotto casa, oppure alla Biblioteca del
Congresso, oppure al mio amico che sta a Vigevano o a Melbourne.
Ora, un telèdato avrà anche uno schermo, un cinescopio come quello del televisore, ma
non è un passivo ricevitore di idee altrui, può scegliere perché ha la possibilità di
selezionare tra tante scelte possibili e di ricevere con la velocità necessaria (e
sufficiente). Un telèdato è un televisore con la possibilità di essere programmato, di
trasmettere e di elaborare, si direbbe un televisore "intelligente", ma allora non si
chiama più televisore, si chiama calcolatore, il calcolatore di casa diventato un nodo
della rete. E sarà lui a fare anche il lavoro di decodifica e riconversione in analogica.
Ecco il futuro che si può disegnare: il calcolatore di casa prepara la serata televisiva
ricevendo e mettendo in memoria, durante la giornata (quindi con la dovuta calma e
lentezza che abbassa i costi) i programmi che si desiderano e non necessitano di essere
visti in tempo reale. Su questi si sbizzarrirà la voglia di interattività del cliente e gli
auguriamo buon divertimento. Altrimenti la serata sarà allietata da programmi trasmessi
con la velocità necessaria a una visione in diretta su canali che lo permettano.
Naturalmente questo scenario interessa assai le compagnie telefoniche proprietarie della
rete di comunicazione: esse hanno però da risolvere qualche problemuccio che è bene
mettere in luce.
Allo stato attuale le linee telefoniche riescono a garantire, a quasi tutti gli utenti, il
servizio ADSL, la più popolare Alice. Lo standard di questo servizio non permette la
visione diretta di programmi televisivi con qualità almeno VHS: o ci si contenta o,
come si diceva prima, il programma viene trasmesso più lentamente di come poi sarà
visto e quindi la visione non può che essere differita. Si sta studiando la possibilità di
trasmissioni più rapide, ma ci sono ancora molti problemi da risolvere: la diffusione
della cablatura in fibra è ancora troppo bassa e il costo di impianto non è trascurabile,
sia per i gestori che per le famiglie. Ma i guai non sono finiti: alla disponibilità di
collegamenti capaci di supportare la necessaria velocità, bisogna affiancare una
struttura di rete, a cominciare dalle centrali telefoniche, che sia all'altezza proprio
dell'aumentata velocità dei collegamenti. Si tratta di investimenti di migliaia di milioni
di Euro.
Come si è più volte detto, il collegamento ideale sarebbe la fibra ottica: segnale pulito,
banda quanta se ne vuole. Si ricorderà che Telecom iniziò un'operazione di cablaggio di
alcune città, che risultarono sconvolte a lungo da questi lavori. Ebbene, il programma fu
presto abbandonato e oggi rimangono molti chilometri di tubi corrugati vuoti che
serpeggiano nei nostri sottosuoli. Era avvenuto che qualcuno si era fatto due conti e
aveva scoperto che, per rientrare dall'investimento necessario per un cablaggio
massiccio in fibra e per l'adeguamento della rete, si doveva avere un ritorno dell'ordine
di 100 Euro al mese per cliente, fatturati solo per i servizi aggiuntivi alla TV.
Qualche Azienda sta tentando di subentrare a questo programma: l'acquisto di
dismissioni, rinunce o fallimenti può abbassare i costi di prima istallazione. L’uso al
meglio delle tecnologie a disposizione può anche fornire una QoS accettabile. Ma le
tariffe che per ora vengono richieste non sembrano remunerative: possiamo sbagliare,
ma si sta lavorando sul capitale.
Soddisfatte tutte queste precondizioni, si può sperare di veder fiorire un nugolo di
gestori di dimensioni simili a quelle delle Aziende che si incontrano nel sistema
industriale italiano: piccole, medie, grandi. Il calcolatore di rete potrebbe, in questo
23
caso, fare il miracolo della alfabetizzazione informatica e della diffusione delle sorgenti
TV: siccome di un miracolo si tratterebbe, si è usata molta cautela, ma l'ipotesi non
poggia su presupposti tecnici inventati. A meno di un intervento pubblico o di una
sconvolgente novità tecnologica o di qualcosa che oggi non siamo in grado di
prevedere, un tale scenario è però da mettere in dubbio. Sopravvivrà una TV a
trasmissione sia terrestre che da satellite, affiancata, per servizi aggiuntivi e
decentemente interattivi, dalla TV via cavo telefonico da fruirsi in differita: sarà
comunque meglio attrezzarsi col telèdato.
Se qualcuno carezzava l'idea di avere la DTV alleata in una battaglia per la democrazia
nell'informazione ho paura che si debba ricredere: la partita se la deve vincere da solo
anche se sarà trasmessa a reti unificate in digitale, formato MPEG.
9. Alcune indicazioni bibliografiche
Mi piacque molto un libretto, uscito qualche tempo fa, si chiama "L'emozione di
pensare: psicologia dell'informatica" di Gianni Zanarini, Clup-Clued, 1985.
Per chi vuole districarsi fra termini e frasi che spesso facciamo solo finta di capire, è
molto ben fatto e anche colto "Il Mondo Digitale" di Fabio Ciotti e Gino Roncaglia, Ed.
Laterza, 2000.
Una trattazione molto affascinante, un po' difficile, è "Il Virtuale", di Pierre Levy,
Cortina Editore, 1997.
Una cavalcata disincantata e divertente è "Schiavi del computer?", di G.J. E. Rawlins,
Ed. Laterza, 2001.
Infine, come posso non citare Nicolas Negroponte, "Essere digitali", Sperling
Paperback? Trascurerei uno dei più fulgidi esempi di sacerdote invasato in cerca di
seguaci acritici. Leggetelo e poi mi direte.
Piero Marietti, La Sapienza (non io, l’Università)
24
Scarica

da Piero Marietti La rivoluzione digitale senza intemperanze 1