La Scienza mi ha detto. . .
Alcuni capitoli di scienza
Mariano Spadaccini
mariano at marianospadaccini.it
VERSIONE
1.10.3 – 9 ottobre 2010
Those who know don’t talk.
Those who talk don’t know.
tratto dal manuale PHP
Meglio tacere
e dare l’impressione di essere scemo,
piuttosto che aprire bocca
e togliere ogni dubbio.
Antico detto popolare
Quest’opera, per volontà dell’autore,
è rilasciata sotto la disciplina della seguente licenza.
Creative Commons Public License
Attribuzione - Non Commerciale - Condividi allo stesso modo 2.5 Italia
Tu sei libero:
• di riprodurre, distribuire, comunicare al pubblico, esporre in pubblico,
rappresentare, eseguire e recitare quest’opera
• di modificare quest’opera
Alle seguenti condizioni:
Attribuzione. Devi attribuire la paternità dell’opera nei modi indicati dall’autore
o da chi ti ha dato l’opera in licenza e in modo tale da non suggerire che
essi avallino te o il modo in cui tu usi l’opera.
Non Commerciale. Non puoi usare quest’opera per fini commerciali.
Condividi allo stesso modo. Se alteri o trasformi quest’opera, o se la usi per
crearne un’altra, puoi distribuire l’opera risultante solo con una licenza
identica o equivalente a questa.
- Ogni volta che usi o distribuisci quest’opera, devi farlo secondo i termini di
questa licenza, che va comunicata con chiarezza
- In ogni caso, puoi concordare col titolare dei diritti utilizzi di quest’opera non
consentiti da questa licenza.
- Questa licenza lascia impregiudicati i diritti morali.
Le tue utilizzazioni libere e gli altri diritti non
sono in nessun modo limitati da quanto sopra.
Questo è un riassunto in linguaggio accessibile a tutti del Codice Legale che si trova al
seguente url: http://creativecommons.org/licenses/by-nc-sa/2.5/it/legalcode
OGNI ESEMPLARE DELL’OPERA (DIGITALE O CARTACEO) PRIVO DI
QUESTA PAGINA È DA RITENERSI CONTRAFFATTO.
6
Indice
Indice
7
Presentazione
8
La variabilità del mondo
9
Il mondo a colori
29
La coerenza dell’astrologia
43
Il caos
55
La matematica della bellezza
87
Il numero più grande
107
Quando è iniziato il nuovo millennio?
115
La casualità
121
La crittografia
139
L’evoluzione della definizione probabilistica
165
L’intuizione e il calcolo probabilistico
169
Lista delle figure
177
Riferimenti bibliografici
179
7
Presentazione
Vorrei da subito precisare che i temi trattati non riguardano il mio campo professionale. Il testo è nato a seguito della voglia di riportare in forma scritta le mie
curiosità, le mie riflessioni e i miei dubbi.
Più precisamente, originariamente alcuni capitoli costituivano semplicemente articoli a se stanti; e solo successivamente sono stati condensati in una protoversione
del testo attuale.
Questo metodo (o non metodo) di stesura ha diversi difetti. Il problema principale
è la creazione in ordine sparso dei capitoli, con conseguente eterogeneità del testo. Ho comunque cercato di rendere più omogenea la struttura riscrivendo alcune
porzioni, ma sono certo di non essere riuscito completamente nel mio intento. Pertanto, mi scuso anticipatamente con i lettori.
Invito gli stessi ad inviarmi commenti o segnalazione di errori all’indirizzo e-mail
[email protected].
In ogni caso mi riservo il diritto di affermare che ho inserito intenzionalmente tali
errori nel testo, come sorpresa per i lettori più attenti, per rendere più dinamica la
lettura.
8
La variabilità del mondo
Discendiamo da Adamo ed Eva
o dalle scimmie?
domanda sul web
passato, sino al XVIII secolo, si pensava universalmente che l’universo, la
Terra, la vita e l’uomo fossero creazioni divine o, nata recentemente come tesi
alternativa, di entità extraterrestri. In Europa tale filosofia di pensiero si identifica
con l’interpretazione letterale di un passo della Genesi, ma in generale tutte le
civiltà hanno un racconto mitologico che spiega l’origine in termini simili.
Il naturalista svedese Carlo Linneo (1707-1778), all’inizio della sua vasta opera di
classificazione biologica, afferma:
I
N
Numeriamo tante specie quante in principio furono create dall’Ente
infinito
La dottrina ottocentesca prese il nome di creazionismo, nome derivante dalla nascita del dubbio che le osservazioni geologiche e paleontologiche non fossero compatibili con l’ortodossia: si stava insinuando l’ipotesi eretica di trasformazione degli esseri viventi.
I primi ad abbracciare l’ipotesi del dinamismo della natura furono gli scienziati ed
i filosofi illuministi che, nonostante fossero molto distanti dal moderno concetto di
evoluzione, ripudiavano la corrente maggioritaria, convinta dell’immutabilità delle
specie.
All’inizio del XIX secolo si fecero più pressanti i dubbi, poiché negli strati rocciosi
antichi si trovavano perlopiù fossili di specie sconosciute e, tra i fossili più datati,
quelle conosciute erano addirittura inesistenti.
Per spiegare questa incongruenza, nel 1809 il naturalista Jean-Baptiste de Lamarck
espose la sua teoria evoluzionistica secondo la quale tutti gli esseri viventi mutano
a causa dell’azione dell’ambiente, determinando la comparsa di caratteri ereditari tramite il principio dell’uso di un organo: l’uso causerebbe il potenziamento e,
quindi, lo sviluppo dell’organo, il non uso lo indebolirebbe e, se il non uso si pro9
Figura 1: La creazione di Adamo, Michelangelo, Cappella Sistina
traesse per diverse generazioni, si avrebbe atrofia e, successivamente, scomparsa
dell’organo. Quest’ipotesi è spesso illustrata con il seguente esempio:
La giraffa vive in un ambiente povero di erba che la obbliga a brucare
il fogliame degli alberi, sforzandosi di arrivare in alto.
Quest’abitudine, mantenutasi nella sua specie per molto tempo, ha
causato la maggiore lunghezza delle zampe anteriori rispetto le posteriori, e notevole allungamento del collo: tutto ciò ha permesso
alle giraffe di raggiungere agevolmente i sei metri, senza dover più
drizzarsi sulle zampe posteriori.
Generalizzando, gli organismi tenderebbero a trasformarsi a causa di un’impulso
interno, una forza guidata dall’ambiente che li spingerebbe nella direzione dell’evoluzione.
L’errore che può essere isolato in questa ipotesi è legato all’idea dell’ereditarietà
dei caratteri acquisiti; ad esempio, un culturista1 non avrà discendenza necessariamente di muscolatura robusta2 .
Come è facile immaginare, il modello lamarkiano fu fortemente contestato dai
creazionisti poiché, anche se forniva una sufficiente spiegazione alle prove fossili,
era in netto contrasto con la statica cultura del tempo.
1
la cui muscolatura accentuata è un tratto fenotipico (morfologico) derivante dall’interazione
dello sportivo con l’ambiente (inteso come atto meccanico del sollevamento dei pesi)
2
in quanto il suo sviluppo muscolare non è un carattere derivante dal genotipo (patrimonio
genetico), ma derivante dall’esercizio fisico
10
Il pensiero dominante era così radicato che la maggiore teoria dell’epoca fu quella
del naturista francese Georges Cuvier che, agli inizi del XIX secolo, formulò la
teoria delle catastrofi naturali; essa si proponeva di spiegare l’esistenza dei fossili
di specie estinte e, nel contempo, era compatibile con la Bibbia. Secondo questa
teoria, la Terra, nel corso della sua storia, fu interessata da eventi catastrofici i quali
causarono la scomparsa delle specie attualmente estinte; conformandosi alle Sacre
Scritture, i fossili delle specie estinte rappresentavano quelle che non trovarono posto sull’arca di Noè in occasione del diluvio universale.
In questo contesto si inserisce la figura di Charles Darwin il quale, inizialmente, non dubitava della verità della Bibbia. Da giovane si interessò alla botanica
e all’entomologia, successivamente restò affascinato dalla geologia nella quale si
applicò anche dopo gli studi.
Terminati alcuni rilievi stratigrafici nel Galles del nord, si imbarcò nella nave Beagle, in partenza per una spedizione cartografica di cinque anni intorno alle coste
del Sud America. Questa spedizione gli permise di studiare sia le caratteristiche
geologiche, sia un gran numero di fossili ed esseri viventi sconosciuti.
Figura 2: Il viaggio del Beagle
Di ritorno dal suo viaggio, analizzò i campioni raccolti minuziosamente, e lo colpirono in particolar modo quelli dell’Arcipelago delle Galápagos. L’anno successivo,
ornitologi del British Museum informarono Darwin che, i campioni a loro forniti provenienti da tale arcipelago, appartenevano tutti ad un gruppo di specie delle
sottofamiglia Geospizinae, della famiglia Fringillidae, a cui appartengono i comuni fringuelli. Sia a seguito della riflessione sugli appunti di viaggio, sia traendo
spunto dalla lettura degli scritti di Thomas Malthus (1766-1834), le sue convinzioni teologiche si fecero seriamente vacillanti. L’idea dell’economista di lotta per la
sopravvivenza della popolazione umana ebbe una influenza decisiva, inducendolo
a riflettere che individui e specie sono immersi in un ambiente in cui c’è una cronica povertà di risorse, per cui variazioni tra individui di una stessa specie risultano
11
Figura 3: Tra i molti indizi raccolti nei suoi viaggi, Darwin fu colpito da
come specie affini differissero da un luogo ad un altro; in particolare,
notò le piccole differenze tra i fringillidi (famiglia di uccelli passeriformi) delle isole Galápagos: diverse misure e forme di becchi di
fringuelli si spiegavano facilmente ipotizzando che tali caratteristiche erano opera della specializzazione in ogni isola, a seconda delle
fonti di cibo cui si dispone
determinanti per l’evoluzione futura.
Era convinto che i naturalisti contemporanei ecclesiastici la ritenessero un’immane
eresia, con conseguenze gravi sulla sua carriera di eminente geologo. Pertanto, iniziò a sviluppare segretamente la sua teoria sulla selezione naturale, collezionando
prove schiaccianti e affinandola, lavoro che si concretizzò con la pubblicazione nel
1859 dell’opera L’origine della specie.
Nel saggio, Darwin ricorda i meriti dello stesso Lamark, ma a Darwin non convincevano le motivazioni lamarkiane: né l’azione dell’ambiente, né la volontà degli
organismi gli sembravano motivazioni sufficienti a spiegare la complessità dell’evoluzione. La sua teoria innovatrice ipotizzava che individui e specie cercano di
sopravvivere a spese degli altri: gli individui vincitori di questa lotta riescono sia a
sopravvivere, sia a trasmettere i propri caratteri alle generazioni successive. I vincitori sono gli individui più adatti alle condizioni ambientali. Questo meccanismo
è chiamato selezione naturale ed esclude ogni intervento di impulso interno.
12
Figura 4: Frontespizio dell’edizione del 1859 de L’origine della specie
In sintesi, l’ambiente non è la causa primaria dell’evoluzione, ma entra in azione in un secondo momento, guidando l’evoluzione come un filtro che determina
i vantaggi e gli svantaggi. Inoltre, il testo è lungamente argomentato e contiene
dettagliate prove scientifiche che il naturalista accumulò nel tempo.
Nonostante le numerose prove, la teoria fu fortemente osteggiata dagli studiosi
convinti della fissità di ogni specie. Molti teologi consideravano la teoria in contrapposizione alla Bibbia, quindi coloro che accettavano la teoria erano considerati scettici nei confronti dell’onnipotenza di Dio. In questa polemica si inserisce
l’intervento dello studioso Thomas Henry Huxley, sostenitore di Darwin:
Preferisco discendere da una scimmia che da un uomo di cultura che
ha prostituito il sapere e l’eloquenza al servizio del pregiudizio e della
falsità
Passò qualche anno, ma la maggior parte degli studiosi esitava a sostenere l’evoluzione per selezione naturale a causa della lacuna nel meccanismo di trasmissibilità
delle caratteristiche ai discendenti. Darwin propose una propria ipotesi riguardo
tali meccanismi, ma non fu convincente: questa fu la debolezza della teoria darwiniana, fino alla riscoperta del lavoro di Gregor Mendel.
Gregor Mendel era un monaco agostiniano ed un biologo, considerato il precursore della genetica per le osservazioni sui caratteri ereditari. L’innovazione della sua
tesi fu la deduzione che l’ereditarietà era un fenomeno legato ad agenti specifici
13
Figura 5: Raffigurazione sarcastica dell’uomo che discende dalla
scimmia (in questa raffigurazione l’uomo è Darwin)
contenuti nei genitori.
Nello specifico, nei suoi esperimenti Mendel utilizzò linee pure3 di piante di pisello, le quali avevano caratteristiche differenti (ad esempio forma del seme o colore
del seme) ben visibili. Scelse i piselli per i suoi incroci per le ragioni che egli stesso
scrisse:
Alcune varietà di piselli possiedono caratteri costanti di facile e sicuro
riconoscimento (colore dei fiori, lunghezza del gambo, aspetto liscio o
grinzoso dei semi . . . ); né può temersi una facile intrusione di polline
estraneo, dato che gli organi della fecondazione sono ben protetti nel
fiore. Inoltre è facile coltivare queste piante sia all’aperto, sia nei
vasi, e il tempo fra una generazione e l’altra è relativamente breve
3
14
cioè dalle caratteristiche rimaste immutate per numerose generazioni
Da notare che le caratteristiche di questa coltivazione gli permisero di disporre di
un vastissimo numero di esemplari, per cui ha potuto effettuare le osservazioni statistiche alla base delle sue intuizioni.
Iniziò ad incrociare le linee pure per molti esemplari e registrò le caratteristiche
delle generazioni successivie. Ad esempio, incrociò una pianta a semi gialli con
una a semi verdi; notò che la prima generazione filiale (GF1) manifestava solo una
delle caratteristiche antagoniste delle generazioni parentali. Ne dedusse che tale
caratteristica era dominante (v. Figura 6).
x
Generazione parentale
I generazione
Figura 6: Unendo due piante di pisello con colore dei semi rispettivamente giallo e verde (generazione parentale), il colore dei semi della
generazione filiale sarà giallo, quindi il giallo è dominante, il verde
è recessivo
Di seguito sono elencate le 7 linee pure individuate, e per ogni caratteristica osservata la distinzione avviene per fenotipi associati:
colore dei petali: porpora o bianco;
colore interno del seme: giallo o verde;
superficie del seme: liscia o rugosa;
colore del baccello non maturo: verde o giallo;
tipo di baccello: semplice o concamerato;
altezza del fusto: alto o basso;
disposizione dei fiori: lungo il fusto o in cima al fusto.
Nell’elenco, il primo fenotipo è quello dominante, il secondo quello recessivo.
Successivamente incrociò le piante GF1 ottenendo GF2: Mendel osservò la ricomparsa in alcune generazioni dei caratteri persi. Ne dedusse che i caratteri persi
15
nella GF1 non erano scomparsi, ma erano inespressi poiché celati dal dominante.
Osservando le proporzioni nella GF2, Mendel registrò tre esemplari su quattro che
mostravano il carattere dominante ed una su quattro il carattere recessivo, pertanto
ipotizzò (v. Figura 7):
- l’esistenza di particelle ereditarie (successivamente denominate geni);
- forme diverse dello stesso gene (successivamente definite alleli) le quali
determinano il fenotipo attraverso il dominante;
- ogni gene presente nelle piante di pisello, per rispettare le proporzioni mostrate da GF2, ha due alleli (pertanto definito diploide4 ).
x
x
Generazione parentale
I generazione
II generazione
Figura 7: La generazione filiale 2 (GF2), aggiunta rispetto la Figura 6,
suggerirono a Mendel il meccanismo di trasmissibilità dei caratteri
ereditari
Dalle precedenti ipotesi, è possibile spiegare soltanto le frequenze dei fenotipi derivanti da un unico gene; questa limitazione sarà esaminata più approfonditamente
nel seguito.
Le diverse tipologie di esperimenti effettuati da Mendel sono di seguito riassunte:
1. Il carattere colore dei petali è controllato da un singolo gene che esiste in
due forme alleliche: porpora (P) e bianco (b). Incrociando tra loro due piante omozigoti, le quali presentano genotipo rispettivamente PP e bb, si ha
un solo genotipo possibile (Pb), eterozigote. In accordo con la legge della
4
se il gene è definito solo da un allele si tratta di aploide, se da due di diploide, se da più alleli si
tratta di poliploide
16
dominanza, da incroci tra piante differenti per una singola coppia di caratteri antagonisti, nascono ibridi in cui si manifesta uno solo dei due caratteri,
quello dominante.
2. Incrociando tra loro gli ibridi così ottenuti (o per autoimpollinazione), in
accordo con la legge della segregazione, si manifesterà in tre casi su quattro
il fenotipo dominante (in caso in cui gli alleli siano Pb, bP o PP), uno su
quattro si manifesterà quello recessivo (alleli bb).
3. Per generalizzare gli esperimenti precedenti, è possibile prendere piante che
si differenziano per due caratteri: il colore del seme (giallo dominante, verde
recessivo) e la superficie (liscia dominante, grinzosa recessiva).
Incrociando gli esemplari, in accordo con la Tabella 1, su una casistica
ridotta a 16 tipologie di incrocio, si ottengono:
- 9 semi gialli e lisci;
- 3 semi gialli e grinzosi;
- 3 semi verdi e lisci;.
- 1 seme verde e grinzoso.
GL
GG
VL
VG
GL
GL
GL
GL
GL
GG
GL
GG
GL
GG
VL
VG
GL
GL
VL
VL
GL
GG
VL
VG
Tabella 1: Quadrato di Punnet utilizzando semi gialli G, semi verdi V,
superficie liscia L, superficie grinzosa G; i caratteri dominanti sono
maiuscoli
In accordo con la legge dell’indipendenza dei caratteri, questi sono indipendenti tra loro e potranno comparire in associazioni differenti dai genitori.
Più in generale, sono state definite le leggi di Mendel:
Dominanza (o legge della omogeneità di fenotipo): la dominanza esprime l’identità fenotipica dell’omozigote e dell’eterozigote dominante; in altri termini,
incrociando individui parentali di linee pure differenti tra loro, gli individui
della progenia presenteranno tutti il genotipo eterozigote, con manifestazione solo dell’allele dominante.
17
Segregazione (o legge della disgiunzione): incrociando due individui della prima generazione, un quarto avrà gli alleli di un progenitore (omozigoti), un
quarto dell’altro progenitore (omozigoti), la restante metà sarà eterozigote.
Pertanto, per tre quarti sarà mostrato l’allele dominante (omozigote con geni dominanti o eterozigote), per un quarto l’allele recessivo (omozigote con
geni entrambi recessivi).
Assortimento (o legge di indipendenza dei caratteri): gli alleli dello stesso tipo
(omozigoti o eterozigoti) si distribuiscono con uguale probabilità nella generazione filiale. Ciò implica che la probabilità di trasmissione di un allele è
indipendente dall’altro (conseguentemente, è possibile applicare il quadrato
di Punnet, come in Tabella 1).
Esistono alcune eccezioni per le leggi appena esposte, la maggiore riguarda la legge
della dominanza, detta anche dominanza semplice o completa, la quale prevede due
alternative:
Codominanza: entrambi gli alleli si manifestano; in altri termini, non è rispettato
più il paradigma dominante-recessivo, ma il fenotipo è determinato dalla
combinazione dei geni dell’eterozigote. Ad esempio, per la determinazione
del gruppo sanguigno si segue tale schema (v. Scheda di approfondimento).
Incompleta: si manifesta quando è ancora valido il paradigma dominante-recessivo,
ma l’allele recessivo si esprime, anche se in maniera minore rispetto al dominante. Ad esempio, la pianta floreale Bella di notte (Mirabilis jalapa)
tipicamente presenta colorazione ibrida dei fiori (ogni fiore può risultare di
due o più colori).
Le eccezioni appena riportate sono solo le più semplici, ma è bene evidenziare che
molti caratteri si ottengono per interazioni di molti geni diversi, spesso influenzati
anche dall’azione dell’ambiente. In generale, le diverse combinazioni alleliche del
sottoinsieme genico definisce i caratteri e, tale complessità non è riconducibile alle
leggi di Mendel. Si inserisce in questo contesto la biochimica la quale, studiando
le reazioni tra i vari geni, cerca di dedurre quale sia il carattere.
Importante fu la figura di Thomas Hunt Morgan (1866-1945) il quale, nel campo
della genetica, effettuò ricerche fondamentali sul moscerino della frutta (Drosophila melanogaster), confermando le basi degli studi effettuati da Gregor Mendel.
Morgan riconobbe la localizzazione e l’ordinamento dei geni individuando i cromosomi, suggerendo le basi della teoria cromosomica dell’ereditariet‘a. Negli
esperimenti condotti da lui ed i suoi allievi, si isolò, in una vasta popolazione di
moscerini selvatici dagli occhi rossi, uno dagli occhi bianchi. Il fenotipo era stato
consapevolmente provocato da una mutazione spontanea del gene che determinava
18
Scheda di approfondimento
Tra i 30 sistemi oggi riconosciuti per la determinazione del gruppo sanguigno
umano, il più importante è il sistema AB0 in cui esistono 4 gruppi sanguigni
i quali si differenziano a seconda degli antigeni (molecole che si lega ad una
determinata immunoglobulina) e agglutine (anticorpo che distruggono globuli
rossi contenenti antigeni di gruppo diverso):
0: non possiede alcun antigene, quindi il plasma sanguigno possiede sia
l’agglutina alfa sia beta;
A: possiede l’antigene A, nel plasma si riscontra la presenza dell’agglutina
beta (anti-B);
B: possiede l’antigene B e, nel plasma si riscontra l’agglutina beta (anti-B);
AB: possiede sia l’antigene A sia il B, pertanto non ha agglutine nel plasma.
Ogni gruppo sanguigno è diviso ulteriormente in due categorie in dipendenza
del fattore Rhesus (presenza dell’antigene Rh nei globuli rossi). Geneticamente, nel sistema AB0 esistono tre alleli che determinano il gruppo, gli alleli A
(o iA ) e B (o iB ) sono codominanti, invece l’allele 0 (o i) è recessivo. Per la
determinazione del fattore Rh, gli alleli sono D per il dominante, responsabile
dell’Rh+, e d recessivo, per l’Rh-.
fenotipo
A
B
AB
0
genotipo
AA o A0
BB o B0
AB
00
fattore Rh
Rh+
Rh+
Rh+
Rh-
allele
D
D
d
d
allele
D
d
D
d
il colore degli occhi: gli incroci tra individui con alleli diversi hanno permesso di
ottenere una nuova forma allelica. Successivamente a questo caso, Morgan isolò
83 ceppi, ognuno dei quali presentava mutazioni su geni diversi. E le mutazioni
indotte iniziarono ad avere un ruolo fondamentale negli esperimenti della genetica.
Le mutazioni possono appartenere a diverse classi; le maggiori sono:
Indotte: prodotte dall’azione di agenti fisici (raggi X, gamma, . . . ) o chimici
(sostanze esterne), detti mutageni.
Spontanee: provocate da fattori interni o eventualità nel processo di replicazione.
19
Geniche: alterano un solo gene, quindi le più localizzate che possono esserci; esse
portano alla formazione di alleli mutanti.
Condizionali: non producono solitamente effetti, ma sono attivate solo a seguito
di particolari condizioni ambientali; ad esempio, molto diffuso è l’attivazione delle mutazioni in relazione alla temperatura, agendo solo al di sopra o al
di sotto di determinate soglie.
Da alcuni studi, si è osservato che la frequenza delle mutazioni è molto elevata;
pertanto, le specie più evolute hanno creato sistemi di riparazione: essi hanno il
compito di individuare e riparare i danni di frammenti genetici. Purtroppo anche
tale meccanismo può fallire, creando paradossalmente le mutazioni genetiche da
sistemi di riparazione.
Da quanto scritto sinora, si comprende che le mutazioni genetiche costituiscono
il motore dell’evoluzione, determinando l’eterogeneità genetica; quest’ultima si
esprime nelle generazioni filiali tramite il processo di ricombinazione genetica, a
sua volta filtrata dalla selezione naturale, che operando su scala temporale lunga,
promuove le mutazioni favorevoli, elimina quelle sfavorevoli. La selezione naturale funge da filtro e, attraverso la ricombinazione, tende ad omogeneizzare la
specie. Il bilancio delle due contrapposte azioni determina la variabilità genetica.
Quest’ultima rappresenta il totale delle caratteristiche della popolazione, quindi
sintetizza le differenze dei caratteri genetici degli individui.
Con il lavoro di Morgan la teoria dell’evoluzione incontra sempre maggior successo sino a divenire dominante e, successivamente, grazie al lavoro di numerosi
biologi, genetisti e paleontologi, la teoria dell’evoluzione fu universalmente accettata, sfociando nel neodarwinismo (anche detta sintesi moderna dell’evoluzione), la quale essenzialmente unisce la selezione naturale di Darwin con la genetica
di Mendel.
Uno dei maggiori successi della sintesi moderna fu fornire la valida spiegazione
per la formazione di nuove specie (speciazione). Per molti anni si è pensato che
le mutazioni del patrimonio genetico di specie più antiche, dette specie ancestrali, convergessero verso specie nuove; studiosi di genetica della popolazione hanno
osservato che per la nascita di una nuova specie è determinante un periodo di isolamento. Ad esempio, cambiamenti pseudo-catastrofici possono isolare una parte
di popolazione, la quale potrebbe evolvere differentemente dal resto attuando la
deriva genetica. Questo meccanismo è favorito da due fenomeni:
- casualità delle mutazioni genetiche;
20
Scheda di approfondimento
Di seguito alcuni esempi di mutazioni favorevoli e sfavorevoli, quest’ultime
con altissima frequenza rispetto le prime. Tra le sfavorevoli troviamo:
Daltonismo: tra le varie cause possibili, mutazione che determina il non
corretto sviluppo dei fotorecettori.
Albinismo: mutazione del gene per lo sviluppo della melanina.
Tumori: alcune mutazioni possono propagarsi per replicazione e degenerare
in cancro.
Tra le favorevoli troviamo:
Tolleranza al lattosio: secondo molti genetisti, circa 10000 anni fa, una mutazione colpì gli uomini nella zona del Caucaso, mutazione che permise
la tolleranza del lattosio e, quindi, la digeribilità del latte e altri alimenti.
Resistenza all’AIDS: probabilmente una mutazione sviluppata al gene CCR5
quale forma di resistenza alla peste bubbonica, ha conferito difesa
all’AIDS negli omozigoti.
Per scopi commerciali, ultimamente sono moltiplicate le mutazioni indotte per
ottenere organismi mutanti con caratteristiche peculiari. Le applicazioni sono
isolate al mondo vegetale per ottenere, ad esempio, crescita in particolari condizioni ambientali, produzione di frutti più grandi o senza semi, . . .
Questi organismi mutati sono spesso confusi con gli organismi geneticamente
modificati; gli OGM sono prodotti tramite tecniche dell’ingegneria genetica le
quali manipolano sostanzialmente il patrimonio genetico
Scheda di approfondimento
È importante evidenziare che né mutazione né selezione, prese singolarmente,
producono evoluzione; infatti:
la mutazione rende la popolazione eterogenea e, per la sua caratteristica di
casualità, produrrà difficilmente dei benefici;
la selezione non introduce caratteristiche alla specie, tendendo in realtà ad
omogeneizzarla.
21
- selezione ambientale differente (una caratteristica genetica favorevole in un
ambiente potrebbe non esserla nell’altro).
Il meccanismo della deriva genetica non è sufficiente affinché si crei una nuova
specie; infatti, non è fondamentale che siano cambiate caratteristiche fisiche, ma
lo è l’incompatibilità sessuale: se le due popolazioni dovessero tornare in contatto,
è essenziale l’impossibilità di incrocio sessuale, altrimenti attraverso l’accoppiamento tra le due specie le differenze sfumerebbero,
Oltre l’impossibilità di accoppiamento, è auspicabile che la nuova specie non sia
concorrente (ad esempio, mangi lo stesso cibo) con quella di origine; se così non
fosse, una delle due specie (probabilmente la meno numerosa) rischierà di estinguersi.
Nonostante i principi generali della teoria evoluzionistica siano propri della comunità scientifica, gli aspetti secondari sono ampiamente dibattuti costituendo un
campo di ricerca estremamente dinamico.
In tempi recenti è stata proposta la teoria degli equilibri punteggiati, formulata da
Eldredge (1943) e Gould (1941-2002) nel 1972.
Secondo la sintesi moderna, l’evoluzione è un processo graduale e continuo nel
tempo, regolata dal meccanismo della selezione naturale: gli organismi sono soggetti continuamente a piccole mutazioni casuali: le mutazioni vantaggiose sono
premiate dalla selezione naturale attraverso la sopravvivenza dell’individuo e dei
propri discendenti; a lungo termine i piccoli cambiamenti accumulati formano
grandi cambiamenti e, nel complesso, la popolazione evolve. Attraverso questa
visione, l’estinzione di una specie è il culmine di un lento declino, probabilmente
accompagnata dall’affermazione di una specie rivale più adatta.
La teoria degli equilibri punteggiati mette in discussione la gradualità del meccanismo, affermando che la nascita di una nuova specie è un evento repentino, seguito
da un lungo periodo di stasi, durante il quale la struttura dell’organismo non subisce sostanziali mutazioni.
In altre parole, episodi rapidi e devastanti (come l’impatto di un asteroide sulla
Terra) hanno interrotto un flusso lineare della storia per introdurre caratteristiche
evolutive imprevedibili.
È importante sottolineare che la teoria degli equilibri punteggiati mantiene inalterato il meccanismo della selezione naturale: solitamente gli individui evolvono
molto lentamente5 , poi però, giunge improvvisamente una catastrofe e può accadere che una specie perfettamente adattata si estingua, mentre una seconda specie
5
questo è l’adattamento: le strutture anatomiche si sono sviluppate (lentamente) nel tempo
attraverso la selezione naturale
22
Scheda di approfondimento
Il gradualismo filetico ipotizza che l’evoluzione biologica sia un processo lento
e graduale. Secondo questa teoria, tra una generazione e la successiva sorgono
differenze genetiche impercettibili, cosicché le macro modifiche sono prodotte
dalla somma totale dei piccoli cambiamenti.
Il pensiero di Stephen Jay Gould e Niles Eldredge è fortemente critica al gradualismo filetico con la conseguente formulazione della Teoria degli equilibri
punteggiati. I ritrovamenti fossili evidenziano lunghi periodi di stasi, inducendo ad ipotizzare lunghi periodi di cambiamenti non percettibili, seguiti da brevi
periodi di relativa rapida mutazione, talvolta accompagnata da speciazione.
sopravvive in virtù di una caratteristica anatomica che precedentemente non aveva
alcuna utilità6 .
Ciò significa che l’idea base del neodarwinismo rimane inalterata; la teoria degli
equilibri punteggiati vuole accostarsi maggiormente ai ritrovamenti fossili, ipotizzando che la dinamica del processo evolutivo non sia lineare.
Gli evoluzionisti neodarwinisti non accettano la teoria degli equilibri punteggiati
poiché ritengono che gli autori abbiano forzato il concetto del gradualismo. Nella
teoria neodarwiniana il termine sintetizza il lungo periodo necessario alla formazione di nuove specie, utilizzato in contrapposizione al saltazionismo che ipotizza
la formazione di nuove specie in poche generazioni. Ciò non implica che la velocità
evolutiva sia costante; difatti, lo stesso Darwin nell’Origine della specie scrive:
[...] Una volta formate, molte specie non subiscono più un ulteriore
cambiamento [...]; e i periodi in cui le specie hanno subito modifiche,
sebbene lunghi se misurati in anni, sono stati probabilmente brevi in
confronto ai periodi in cui hanno mantenuto la stessa forma.
Riassumendo, la sintesi moderna ipotizza una evoluzione graduale a velocità non
costante, pertanto la teoria degli equilibri punteggiati non è altro che una riproposizione del medesimo concetto della teoria ortodossa.
Critiche all’evoluzionismo
L’evoluzionismo ha ricevuto e continua a ricevere tantissime critiche sia per motivi religiosi, sia per contestazioni scientifiche e psudoscientifiche. Non potendo
esaminarle in maniera esaustiva, mi limiterò a riportare ed analizzare le maggiori.
6
questo è l’esattamento: strutture che si sono formate per caso o comunque forniscono
trascurabili vantaggi, in un secondo tempo producono un vantaggio inaspettato
23
Evoluzione e religione
Il pensiero religioso è spesso stato di ostacolo per l’accettazione di teorie scientifiche; infatti il conservatorismo filosofico della teologia è spesso incompatibile
con il dinamismo culturale della scienza. Le rivoluzioni scientifiche estremizzano
questa contrapposizione, pertanto il concetto di evoluzione rivela la sua portata intellettuale.
Scendendo più in dettaglio, le posizioni assunte dalle varie organizzazioni religiose
è molto eterogeneo. Le posizioni più rigide sono quelle dell’Ebraismo ortodosso e
di alcune chiese evangeliche americane, le quale professano il Creazionismo biblico. Non analizzerò questa posizione poiché è in antitesi con il principio scientifico
della falsificabilità. In posizione estremamente differente si colloca la Chiesa anglicana, la quale, in un documento ufficiale firmato dal reverendo Malcolm Brown,
si scusa con Darwin per non aver compreso le sue teorie evoluzionistiche.
La posizione della Chiesa cattolica, originariamente coincidente con quella dell’Ebraismo ortodosso, è intermedia tra le precedenti. In realtà, non ha una posizione definita sul darwinismo; alcuni teologi la accettano rifacendosi al pensiero
di Sant’Agostino d’Ippona: quest’ultimo sostenne che Dio non ha creato il mondo nella condizioni attuali, ma in una condizione più semplice che successivamente si è evoluta. Contestualmente, per rimanere nell’ortodossia, formulano due
considerazioni:
1. l’evoluzione è esclusivamente biologica: Dio non ha preso propriamente fango dalla terra, ma il corpo di un animale sufficientemente evoluto, tale da
accogliere l’anima;
2. si esclude che l’evoluzione interessi anche l’anima dell’uomo; in altri termini, anche se si accetta l’evoluzione, l’intervento di Dio nella creazione
dell’uomo è necessario affinché l’animale antropomorfo potesse accogliere
l’anima e trasformarsi nell’uomo.
Scheda di approfondimento
Il criterio della falsificabilità afferma che una teoria, per essere controllabile, deve essere falsificabile.
In termini più formali, dalla premesse si devono dedurre conseguenze tali che
possano essere ritenute errate.
Se una teoria non è confutabile, è impossibile controllarne la validità, poiché, per definizione, non è possibile contestarla. Questo principio è ritenuto
fondamentale affinché una affermazione sia scientifica.
24
La dottrina della Chiesa cattolica è stata chiarita da Giovanni Paolo II nel 1996,
e successivamente dall’attuale Papa Benedetto XVI (allora cardinale Ratzinger);
essi la definiscono una teoria, quindi una costruzione metascientifica, che soffre,
come tutte le teorie scientifiche, dell’incertezza e contingenza. Per supportare tali
considerazioni, si osserva che l’evoluzione non è mai stata oggetto di osservazione.
Purtroppo, questa affermazione non è corretta. Sappiamo che l’evoluzione delle
specie più complesse non è osservabile direttamente, a causa del rapporto tra il
tempo a nostra disposizione per l’osservazione e la successione delle generazioni.
Una evoluzione osservabile per merito della rapidità di avvicendamento generazionale è quella batterica. Ad esempio, gli antibiotici creano un ambiente ostile per
i batteri, e solo le mutazioni che determinano maggiore resistenza alle avversità
ambientali permetteranno agli stessi di sopravvivere. Di conseguenza, si osserva
una progressiva resistenza all’antibiotico, e solo l’introduzione di uno nuovo potrà combattere il nuovo ceppo batterico; purtroppo, con l’introduzione del secondo
antibiotico si riprodurrà lo stesso schema appena esaminato.
Un analogo modello per i virus: essi mutano rapidamente attraverso nuovi ceppi,
con conseguente difficoltà nel produrre vaccini efficaci in maniera definitiva contro
l’influenza.
Antievoluzionismo
Molto simile alla posizione della Chiesa cattolica è quella del fisico italiano Antonino Zichichi, che deride le prove biologiche7 e ricorda che la scienza, in quanto tale, deve essere supportata da espressioni matematiche, lacuna presente nella
teoria evoluzionistica. Nel testo [Zic06], Antonino Zichichi scrive:
[...] La cultura dominante ha posto il tema della specie umana sul piedistallo di una grande verità scientifica in contrasto totale con la Fede.
[...] Arrivati all’ Homo Sapiens Neaderthalensis (centomila anni fa),
con un cervello di volume superiore al nostro, la Teoria dell’Evoluzione Biologica della specie umana ci dice che, quarantamila anni fa
circa, l’Homo Sapiens Neanderthalensis si estingue in modo inspiegabile. E compare infine, in modo altrettanto inspiegabile, ventimila
anni fa circa, l’Homo Sapiens Sapiens. Cioè noi. Una teoria anelli mancanti, sviluppi miracolosi, inspiegabili estinzioni, improvvise
scomparse non è Scienza galileana. [...]
Al contrario di quanto affermato dal prof. Zichichi, la comunità scientifica non
concorda sulla parentela tra l’Homo sapiens e l’Homo di Neanderthal; in ogni caso
7
questione approfondita nel libro [Odi03]
25
Scheda di approfondimento
La comunità scientifica non concorda sulla parentela tra l’Homo sapiens e
l’Homo di Neanderthal; la più accurata analisi molecolare confermata stima
che l’Homo sapiens e l’Homo di Neanderthal si siano separati circa 800000
anni fa e non ci sono evidenze accettate su un eventuale ricongiungimento.
Pertanto, in ambito accademico, è attualmente dibattuto se l’uomo di Neandertal sia da considerare una sottospecie estinta di Homo sapiens (quindi Homo
sapiens neanderthalensis) con conseguente incroci tra i due, oppure se sia una
specie autonoma (Homo neanderthalensis). In ogni caso, i due gruppi convissero per migliaia di anni su vasti territori europei e asiatici.
Per curiosità, di seguito riporto l’espressione utilizzata dal paleontologo William Straus della Johns Hopkins University che, in un articolo riportato dal The
Quarterly Review of Biology, afferma:
If [Neanderthal Man] could be reincarnated and placed in a New
York subway – provided that he were bathed, shaved, and dressed
in modern clothing – it is doubtful whether he would attract any
more attention
che può essere tradotta:
Se si potesse reincarnare [un Homo di Neanderthal] e porlo nella
metropolitana di New York – opportunamente lavato, sbarbato e
vestito – si dubita che possa attrarre attenzioni
i due gruppi convissero per un lungo tempo (vedi Scheda di approfondimento).
Il prof. Zichichi nega ulteriormente la teoria dell’evoluzione umana; riporto un
ulteriore stralcio:
[...] Gli oscurantisti sono coloro che pretendono di fare assurgere
al rango di verità scientifica una teoria priva di una pur elementare
struttura matematica e senza alcuna prova sperimentale di stampo galileiano. [...] Sappiamo con certezza che l’evoluzione biologica della
specie umana è ferma da almeno diecimila anni (dall’alba della civiltà), [...] Durante diecimila anni questa forma di materia vivente è
rimasta esattamente identica a sé stessa. Evoluzione biologica: zero.
[...]
Purtroppo, questo discorso trascura le dimensioni temporali della vita sulla Terra,
in particolare l’affermazione diecimila anni è inesatta, poiché l’Homo sapiens è
26
presente da circa 200.000 anni: la mancanza di evoluzione in questo lasso di tempo non è affatto in contraddizione con la teoria evoluzionistica, in quanto questa
afferma che le trasformazioni possono verificarsi su tempi dell’ordine di centinaia
di migliaia di anni. Un ultimo stralcio dallo stesso libro del prof. Zichichi:
[...] La scienza non può aprir bocca sulla Creazione, anche se non è
sua nemica. Rimane solamente il credere o no a un Dio Creatore. Non
abbiamo ancora compreso la materia inerte, figuriamoci il passaggio
verso la materia vivente. [...]
Purtroppo, in questo passaggio il prof. Zichichi esce fuori tema, inserendo in un
contesto evoluzionistico, l’argomento dell’abiogensi8 . Il professore, senza giustificarne l’introduzione, confonde campi non correlati, con l’eventualità di indurre il
lettore in equivoco.
8
l’abiogenesi è la questione dell’origine della vita a partire da materia inorganica, sia sulla Terra
sia in altri luoghi dell’universo
27
28
Il mondo a colori
È riduttivo limitare la sensazione
che produce il colore ad una mera
entità fisica
tratto dal web
EFINIZIONE :
“Il colore è la rappresentazione psichica generata dal cervello
come effetto dell’arrivo di segnali nervosi prodotti dai fotorecettori9 della
retina quando questi ultimi sono investiti da radiazioni elettromagnetiche opportune”.
D
Figura 8: Regione della luce visibile nello spettro elettromagnetico
La luce visibile10 è quindi solo una frazione dello spettro della radiazione elettromagnetica; essa è composta da onde di lunghezza compresa indicativamente tra
400 e 750 nm (vedi Figura 8). Ciò significa che se l’occhio umano è investito da
una radiazione composta da onde di lunghezza compresa tra i due estremi, produce
un impulso elettrico variabile a seconda della composizione della radiazione; la
porzione di cervello adibita alla visione, ricevendo il segnale, genera la sensazione
del colore. È inutile scriverlo, ma le cose sono un tantino più complesse.
Isaac Newton scoprì che se un raggio di luce bianca attraversa un prisma di vetro
(v. Figura 9), ne esce scomposto in bande colorate11 ; individuò nel raggio uscente
7 colori: rosso, arancione, giallo, verde, blu, indaco e violetto; inoltre, si accorse
che:
9
i fotorecettori sono cellule in grado di trasformare uno stimolo luminoso in un impulso nervoso
la luce è la porzione visibile dello spettro elettromagnetico; spesso però, si indica con luce l’intero spettro elettromagnetico distinguendo tra visibile (lunghezza d’onda compresa tra 380-760 nm)
e non visibile (tutte le lunghezze d’onda restanti)
11
fenomeno della dispersione ottica
10
29
Scheda di approfondimento
In realtà la scomposizione è arbitraria poiché non c’è nessuna discontinuità
cromatica (salto cromatico), pertanto è del tutto arbitraria la scelta di suddividere il fascio uscente in bande; in particolare, si ritiene che siano state individuate un numero di bande pari a 7 basandosi sull’ipotesi sofistica della
connessione tra numero di colori, note e pianeti (si riteneva fossero 7).
Figura 9: Dispersione di un raggio di luce in un prisma: onde con
differente lunghezza d’onda si rifraggono con angoli differenti con
conseguente trasformazione di un una luce bianca in un arcobaleno
- se la scomposizione ottenuta converge in un secondo prisma, si ottiene nuovamente luce bianca;
- isolando un raggio colorato e facendolo passare per un secondo prisma, esso
rimane invariato.
Pertanto, Newton concluse che la luce bianca era composta da tutti gli altri colori.
Con questo semplice esperimento Newton scoprì lo spettro ottico: il rosso corrisponde alle onde più lunghe (630-760 nm), il violetto a quelle più corte (380450 nm). Tra questi estremi possiamo distinguere le tinte attraverso una variazione
apprezzabile di lunghezza d’onda.
Infatti non siamo in grado di percepire questa variazione con continuità poiché
siamo in grado di distinguere circa 200 tinte, le quali non sono nemmeno distribui30
Scheda di approfondimento
Tra i colori individuati ci sono:
violetto: dai 380 ai 450 nm;
blu: dai 450 ai 495 nm;
verde: dai 495 ai 570 nm;
giallo: dai 570 ai 590 nm;
arancione: dai 590 ai 620 nm;
rosso: dai 620 ai 760 nm.
Si nota che lo spettro ottico è stato suddiviso in 6 colori anziché 7: come
già scritto precedentemente, la suddivisione è arbitraria e, poiché l’indaco si
distingue con difficoltà dai vicini, spesso non lo si include nella suddivisione
riportata.
te uniformemente nello spettro visibile12 .
L’occhio umano è in grado di analizzare le onde luminose attraverso due tipi di
fotoricettori, i coni ed i bastoncelli. I bastoncelli, tutti uguali tra loro, non ci permettono di distinguere i colori e, pertanto, di seguito non saranno esaminati; in
ogni caso, la loro particolarità è quella di essere attivi anche con scarsa intensità
luminosa.
I coni, al contrario, hanno necessità di maggiore intensità luminosa per essere attivi, ma permettono di discernere i colori poiché si distinguono in tre tipi: L (long),
M (medium) e S (short) a seconda della zona dello spettro di loro competenza; ciò
significa che (vedi Figura 10) i coni L assorbono meglio le onde più lunghe (rossogiallo), gli M quelle medie (verde), gli S quelle corte (violetto).
Tutto ciò indica che la sensazione di colore non è altro che la somma della percezione dei singoli fotorecettori.
Ad esempio, quando guardiamo un oggetto blu, il cono sensibile al violetto sarà
particolarmente eccitato, quello sensibile al verde lo sarà meno e ancora meno il
cono sensibile al rosso. Se l’occhio è investito da una luce perfettamente bianca,
ciascuno dei tre coni risponderà con una reazione massima poiché nel bianco sono
contenute tutte le lunghezze d’onda.
12
nella zona del verde-azzurro e in quella dell’arancione la nostra sensibilità è massima e, quindi,
in quell’intorno distinguiamo più tinte
31
Figura 10: Sensibilità alla luce per i diversi coni
Sintetizzando, per percepire la sensazione dei colori, l’occhio dispone soltanto di
tre tipologie di recettori che assorbono selettivamente le radiazioni luminose, ed al
variare della potenza assorbita si generano tutte le tinte che vediamo.
Nel quotidiano, gli oggetti sono colorati perché riflettono in percentuali diverse
le varie radiazioni visibili provenienti da una sorgente luminosa: un oggetto può
apparire giallo se riflette radiazioni di lunghezza d’onda intorno ai 580 nm, ma
percepiamo dello stesso colore anche gli oggetti che riflettono una miscela di radiazioni con componenti di 550 nm (verde) e 630 nm (rosso) in parti uguali cosicché
saremo ancora in un piccolo intorno del giallo.
È comune a tutti che combinando colori distinti, detti primari della mescolanza, se
ne ottengono di nuovi. Già nell’Ottocento Thomas Young aveva osservato che ad
una distanza cromatica maggiore tra i primari, equivale un numero maggiore delle
tinte della mescolanza, essendo più numerose le combinazioni possibili.
È lecito porsi la seguente domanda: quali sono i colori fondamentali, cioè quei
colori che combinati generano tutti gli altri?
Prima di rispondere a tale quesito, analizziamo i due modelli fondamentali, definiti
da Harald Küppers le più importanti leggi di mescolanza tra le 11 da lui definite:
sintesi additiva: combinazione di stimoli di colori che giungono all’occhio invariati;
sintesi sottrattiva: combinazione di stimoli di colori che giungono all’occhio modificati.
32
(a) Sintesi additiva
(b) Sintesi sottrattiva
Figura 11: Esempi di mescolanza
L’esempio classico della sintesi additiva è mostrato nella Figura 11(a): due fasci
di luce colorata (per esempio rossa e verde) proiettati sulla parete bianca di una
stanza scura in modo che si sovrappongano. I due stimoli luminosi (luce rossa e
luce verde) sono riflessi dalla parete scura e giungono simultaneamente e immutati
all’occhio: il sistema visivo percepisce il colore risultante dalla mescolanza dei due
stimoli come giallo. Il giallo è, in questo caso, un colore prodotto dalla mescolanza
additiva del rosso e del verde.
L’esempio classico della sintesi sottrattiva è mostrato nella Figura 11(b) attraverso
la sovrapposizione di un inchiostro giallo ed uno ciano su un foglio bianco; in questo caso i due strati di inchiostro si comportano come filtri per la luce: l’inchiostro
giallo assorbe una parte della luce, quello ciano ne assorbe un’altra parte. La parte
rimanente viene riflessa dalla carta bianca e costituisce lo stimolo di colore che
arriva al nostro occhio.
Generalmente la sintesi sottrattiva è utilizzata principalmente nella stampa e nella pittura13 ; i colori utilizzati filtrano la luce bianca riflettendo solo parte della
radiazione visibile; per esempio, dalla Figura 12(a) è evidente che per ottenere:
blu: si mischiano magenta e ciano, che riflettono ovviemente magenta e ciano: se
il rapporto tra i due colori è sufficientemente equilibrato, il nostro cervello
lo interpreterà di colore blu;
verde: si mischiano ciano e giallo;
rosso: si mischiano magenta e giallo;
13
in particolari realizzazioni pittoriche ed in generale nel puntinismo si utilizza la sintesi additiva
tramite la media spaziale: ad esempio piccoli punti rossi stampati su tela, visti da sufficiente distanza,
causano la percezione del colore rosa
33
(a) Sintesi sottrattiva
(b) Sintesi additiva
Figura 12: Schematizzazione mescolanza
nero: si mischiano magenta, ciano e giallo14 ;
arancione: si mischiano giallo e rosso, che a sua volta è stato formato da magenta
e giallo.
Quando non è possibile utilizzare la luce naturale, si produce direttamente luce
colorata (nei monitor e nelle TV) ed i colori sono ottenuti sommando radiazioni
monocromatiche; per esempio, dalla Figura 12(b) è evidente che per ottenere:
giallo: si mischiano rosso e verde;
magenta: si mischiano rosso e blu;
ciano: si mischiano blu e verde;
bianco: si mischiano rosso, verde e blu.
Tornando al quesito precedentemente posto: esistono i colori fondamentali, cioè
quei colori dalla cui combinazione si genera tutto lo spazio dei colori?
Dalle figure 13 e 14 (due rappresentazioni dello spazio dei colori) è evidente che
la risposta è negativa poiché non esiste alcuna combinazione di colori che genera
tutte le tinte dello spazio dei colori; in generale, non esiste nessuna terna (né alcun
numero finito) di colori che possa produrre in mescolanza tutti i colori, poiché resterà sempre una porzione dello spazio non generabile tramite combinazione.
È altresì vero che se ci si limita ad una mescolanza di tre colori e si desidera
produrre con tale mescolanza il maggior numero di colori:
14
34
di seguito si evidenzierà che tale tonalità non è nera, ma solo una sua approssimazione
Figura 13: Diagramma CIE (Commissione Internazionale per l’Illuminazione): modello a campana dello spazio dei colori
Figura 14: Diagramma HSV: rappresentazione cilindrica dello spazio
HSV (Hue Saturation Value)
- rosso, verde e blu (RGB) sono i tre colori più opportuni da utilizzare quali
componenti della sintesi additiva;
- ciano, magenta e giallo (CMY) sono i tre colori più opportuni da utilizzare
quali componenti della sintesi sottrattiva.
In realtà, nella sintesi sottrattiva combinando in maniera equivalente (cioè nelle
stesse proporzioni) tutte le componenti CMY non si ottiente il nero, bensì il bistro
(marrone molto scuro); pertanto, nei processi di sintesi sottrattiva si adopera solitamente la quadricromia con ciano, magenta, giallo e nero (CMYK15 ), con conseguente notevole risparmio di inchiostro per la generazione del nero nelle stampanti
15
K da black
35
in quadricromia rispetto quelle in tricromia.
Ora sappiamo come si formano quasi tutti i colori.
Ad esempio, non sappiamo come possiamo vedere il marrone poiché questo colore
non esiste nello spettro luminoso.
Semplicemente, attribuiamo il colore marrone agli oggetti che riflettono le onde di
colore arancione con un’intensità molto inferiore rispetto a quella degli altri colori.
Infatti, tramite il confronto con le altre tinte che visualizziamo, il cervello attribuisce il colore marrone a quello che fisicamente è un arancione molto spento. Questo
fenomeno accade anche per altri colori come il grigio16 : le tinte che non esistono
nello spettro luminoso si creano nel nostro sistema visivo.
L’influenza dell’ambiente sulla percezione dei colori non termina qui; entrando in
una stanza illuminata con la luce del Sole riusciamo a distinguere numerose tinte;
ma se la stanza è illuminata con luce monocromatica gli oggetti mutano il proprio
colore.
Ad esempio, supponiamo di entrare in una stanza, illuminata con luce solare, con
all’interno due oggetti, uno bianco ed uno rosso; se l’illuminazione interna della
stanza diviene rossa, di che colore appariranno gli oggetti?
Analizziamo la questione: attribuiamo il colore bianco agli oggetti che riflettono
l’intero spettro che ci investe; se l’oggetto bianco è illuminato dalla sorgente rossa,
rifletterà solo luce di questo colore, ed il nostro cervello interpreterà l’oggetto come
bianco poiché, in quell’ambiente, il rosso è la totalità della luce. Tramite questo
ragionamento, giungiamo alla corretta conclusione che l’oggetto rosso immerso
in un ambiente rosso apparirà bianco in quanto si comporta in maniera identica
all’oggetto bianco.
Visione scolorita
Purtroppo non sempre le cose rientrano nella descrizione ordinaria. In particolare,
alcune persone, tra le quali io, non percepiscono i colori in maniera ordinaria17 ,
hanno cioè una minor sensibilità a taluni colori. Tale disabilità è definita discromatopsia, anche se solitamente si utilizza impropiamente il termine daltonismo. Tale
distinzione sarà chiara nel seguito.
Nella stragrande maggioranza dei casi, la discromatopsia è un difetto di natura
16
ad es., l’ombra è grigia poiché la zona d’ombra riflette le onde di tutta la gamma dei colori
presenti nell’ambiente, ma con un’intensità minore
17
per essere precisi, nessuna persona percepisce in maniera identica ad un’altra i colori, ed inoltre
nell’individuo la percezione cambia nel tempo
36
genetica, ma può insorgere a seguito di danni al sistema visivo, talvolta causati
dall’esposizione ad alcune sostanze dannose. La discromatopsia è in realtà solo
una minor sensibilità, anche definita cecità parziale. Questo passaggio spesso è
origine di notevoli fraintendimenti, poiché si ipotizza erroneamente che le persone
affette da discomatopsia siano cieche ai colori. Nei rarissimi casi di cecità totale,
il corretto termine è acromatopsia, che tecnicamente equivale ad avere una visione
convergente ad un unico colore.
Classificazione
Storicamente, nel 1798 fu il chimico inglese John Dalton il primo a studiare e
descrivere scientificamente il problema, pubblicando l’articolo intitolato Extraordinary facts relating to the vision of colours, che studiò il fenomeno dopo essersi
accorto del proprio stato di cecità cromatica, oggi definito deuteranopia.
Di seguito la classificazione utilizzata, più comprensibile se si ricorda che i fotorecettori sono di tre tipi:
monocromati: indica l’incapacità totale di distinguere i colori, ma non la percepezione delle variazioni di luminosità. Le due forme principali sono:
acromatopsia: la retina non contiene coni, ma solo bastoncelli, per cui è
impossibilitata la percezione dei colori, e la sola abilità è la percezione
di variazione di intensità luminosa;
monocromia con cono: oltre la percezione della variazione di intensità luminosa, la presenza di un’unica tipologia di cono, permette la visione
monocromatica.
dicromati: i soggetti posseggono due delle tre tipologie di cono, per cui i colori
sono percepiti attraverso una miscela di soli due coni. Indicativamente ne
soffre il 2%-3% della popolazione. Si distinguono in:
protanopia: insensibilità alle lunghezze d’onda più lunghe. Tali soggetti
percepiscono con estrema difficoltà la luminosità attorno al rosso;
deuteranopia: insensibilità alle lunghezze d’onda medie. Molto simile ai
soggetti che soffrono di protanopia, riescono a percepire luminosità di
lunghezza d’onda maggiore, ma hanno difficoltà nella distinzione delle
tonalità in questo range;
trinatopia: insensibilità alla lunghezza d’onda più breve (non si è in grado
di distinguere i colori nella sezione giallo-blu).
37
tricromati anomali: si distinguono in protanomalia, deuteranomalia e tritanomalia. Essi utilizzano le tre tipologie di cono, ma la visione è anomala. In
particolare, gli osservatori protanomali hanno necessità di maggiore luce rossa, i deuteranomali hanno necessità di più verde, i tritanomali di più blu per
compensare una visione ordinaria. Le percentuali di diffusione sono: protanomalia 1% nei maschi e 0,01% nelle femmine, deuteranomalia (la forma
più diffusa) 6% nei maschi e 0,4% nelle femmine, tritanomalia rara sia nei
maschi sia nelle femmine (0,01% per entrambi).
Origini genetiche e diffusione
Le origini genetiche della discromatopsia possono essere diverse, ma è semplice
la trattazione della discromatopsia verso i colori rosso/verde, tipico degli affetti
da deuteranopia, protanomalia e deuteranomalia. Tale difetto è molto più spesso
presente negli uomini rispetto alle donne, e l’origine di tale rapporto deriva dalla
localizzazione nel cromosoma X dei geni che determinano i fotorecettori rosso e
verde. Infatti, il genere maschile possiede solo un cromosoma X, quello femminile
ne possiede due, pertanto nel primo caso non si riesce a sopperire ad un eventuale
difetto genetico, nel secondo caso si ha la possibilità di sopperire al difetto del gene attraverso l’eventuale gene omologo sano localizzato sull’altro cromosoma. In
altri termini, l’uomo ne è affetto se il suo unico cromosoma è difettato, la donna ne
è affetta solitamente solo se entrambi i cromosomi X hanno il difetto. È possibile
consultare la Tabella 2, in cui il carattere minuscolo è stato utilizzato per indicare
il gene difettoso, il maiuscolo per indicare il gene sano. In dettaglio, il padre è
riportato con XY o X Y rispettivamente se sano o malato, con XX, X X o XX rispettivamente se sana, portatrice sana o malata. I prodotti saranno indicati con S per
SANO , M per MALATO , PS per PORTATRICE SANA e PM per PORTATRICE MALATA .
XY XX
figlio
figlia
XY
XX
S
S
S
PS
XY X X
S
50%
PS
XY XX
S
PS
50%
50%
X Y XX
M
PM
Tabella 2: Quadrato di Punnet per la determinazione della discromatopsia di origine genetica nella successiva generazione. Si evidenzia
che la colonna identificata con la combinazione per la madre X X ha
molteplicità due poiché è possibile avere il doppio delle disposizioni
(sia X X sia X X)
Per quanto riguarda la diffusione, spesso si ritiene che questo difetto visivo riguardi un numero molto ridotto di persone. In realtà, alcuni test hanno mostrato che la
percentuale di daltonici si attesta attorno all’8% negli uomini, all’1% nelle donne.
38
Tale percentuale evidenzia il numero totale dei daltonici, essendo i casi più gravi
di ordini di grandezza inferiore.
Nella maggior parte dei casi, essere affetti da discromatopsia non rappresenta un
grosso problema e, per tale motivo, alcuni non si rendono nemmeno conto di esserlo. A volte si scopre casualmente, altre volte a causa di esami medici o problemi al
lavoro. Altre volte, in aggiunta ad altri difetti visivi, costituisce un vero e proprio
handicap.
Test
Esistono diversi test per individuare i soggetti affetti da discromatopsia. Il più
famoso di questi fu ideato dal prof. Shinobu Ishihara dell’Università di Tokyo nel
1917. Il test consiste in cerchi colorati che appaiono casuali nella tinta e nel raggio.
In realtà, esse disegnano una pseudo immagine riconoscibile per i soggetti con una
visione normale, invisibile per i soggetti con discromatopsia nel range delle tinte
dei cerchi. Le tavole sono 38, ma solitamente sono sufficienti solo alcune per individuare il tipo di deficienza, infatti alcune tavole sono specifiche per determinare
l’entità del difetto visivo. Un esempio è mostrato nella tavola riportata i Figura 15,
in cui per un soggetto con visione normale dovrebbe essere chiaramente visible il
numero 74. Soggetti affetti da dicromia o tricromia anomala potrebbero leggere il
numero 21.
Nella Figura 16 sono rappresentate 4 tavole, rispettivamente mostrano i numeri
12, 6, 2 e 42.
Alcuni esempi di vita quotidiana
Di seguito riporto alcuni casi tratti dalla mia esperienza.
Personalmente il primo ricordo che ho di evidente discromatopsia è all’età di 10
anni, quando durante l’ora di Educazione Artistica, mi fecero notare che la mia
tavola presentava dei tulipani di colore marrone; ne fui convinto solo andando a
guardare il tubetto del colore, e successivamente confrontando il tubetto rosso (che
precedentemente immaginavo di utilizzare) con quello marrone, la cui differenza
non appariva per me così evidente.
Un altro caso è stato combattere con alcuni medici dell’ASL (al quarto incontro
l’ho avuta vinta) per ottenere la patente. Il primo mi faceva vedere delle penne
chiedendomi di che colore fossero... purtroppo non erano né blu né rosse. Il tentativo di dire al medico “Ma io non ho problemi con i segnali stradali. Sono superfici
39
Figura 15: Esempio di tavola di Ishihara. Personalmente non leggo nessun numero, ma sapendo la risposta potrei concordare con la cifra
1, per la cifra 2 mi sembra azzardato pronunciarmi.
maggiori e i colori sono ben definiti...” non andava a buon fine.
Un esempio ludico può essere tratto dal gioco del Monopoli, in cui le banconote hanno per me tinte poco distinguibili (quindi capita di mischiarle), ma hanno
peggiorato nell’edizione speciale Monopoli: Star Wars in cui ogni turno, se non
sono stato concentrato, ho difficoltà notevoli nel ritrovare i dadi precedentemente
lanciati.
Nel campo lavorativo, spesso ho davanti led colorati. Sembra una discriminazione
voluta: gli apparati hanno i led verdi e rossi per indicare il loro stato (rispettivamente OK e WARNING o simili). La cosa peggiore è stata l’indicazione del mio
collega di tirare un cavo rosso nella sala CED. In condizioni di luminosità normali
non avrei avuto dubbi su quale fosse il cavo rosso (era un rosso ben definito), ma
quella è una stanza poco illuminata.
40
(a) Tavola 1
(b) Tavola 11
(c) Tavola 19
(d) Tavola 23
Figura 16: Alcune tavole per il test di Ishihara.
distinguo la prima e, con difficoltà, la seconda
Personalmente
Pseudo-vantaggi
Nonostante sia considerata una disabilità, in alcuni ambienti il daltonismo può rivelarsi vantaggioso, in particolare nella distinzionione di superfici sovrapposte su
sfondi caotici. Ad esempio, è tipico il vantaggio del cacciatore daltonico che ha
maggiori possibilità di distinguere una preda mimetizzata su uno sfondo caotico18 . Sinceramente, non lo ritengo un grosso vantaggio. Anzi, riscontro maggiori
difficoltà nell’individuazione di eventuali oggetti caduti sul pavimento.
18
alcuni ipotizzano che l’elevata diffusione di quest’anomalia potrebbe spiegarsi in un probabile
vantaggio nei nostri antenati, per cui la selezione naturale non ha debellato un difetto che nel recente
passato non era tale
41
42
La coerenza dell’astrologia
Tutti i cervelli del mondo
sono impotenti di fronte a
ogni fesseria che sia di moda.
Jean de la Fontaine
che, nel periodo delle elementari, mia madre mi svegliava per andare
a scuola; sentivo la radio accesa, sempre sintonizzata su un programma che
allora non certo amavo, il radiogiornale. Al suo termine, iniziava un secondo programma che aveva come oggetto la lettura dell’oroscopo; il mio segno zodiacale,
acquario, probabilmente favorevole per gli astrologi, ha spesso avuto letture positive. In tutta sincerità, non ho mai attribuito importanza a queste simpatie, ma mi
incuriosiva la seguente questione: possono le congiunzioni astrali influire nell’andamento delle nostre giornate?
Durante gli anni della scuola, sono passato dalla fase in cui ogni mattina ascoltavo
l’oroscopo, alla più matura in cui ne ignoravo la lettura; è comunque stato utile
riflettere sul significato intrinseco dell’astrologia, giungendo alle considerazioni
attuali.
R
ICORDO
La prima questione è illustrata nella Figura 17. Poiché l’astrologia attribuisce
l’appartenenza ad usegno zodiacale in relazione alla data di nascita, suppongo che
assegni due destini19 simili a due soggetti nati nello stesso periodo piuttosto che a
due soggetti nati in periodi differenti; ciò conduce ad una questione che non riesco
a colmare: se il soggetto C è nato poco meno di un mese prima del soggetto D, ed
il soggetto E è nato solo qualche giorno dopo il soggetto D, potrebbe accadere la
situazione mostrata nella figura in esame. Nei casi in cui ciò accada, mi chiedo:
perché i soggetti C e D sono legati a destini simili e invece D ed E non lo sono? Per
chiarezza, non giustificherei nemmeno se D fosse legato da un destino più simile
19
in realtà, alcuni cultori sostengono che gli astri influiscano anche la personalità. Per tutto il resto
della lettura è possibile aggiungere (o sostituire) al termine destino senza alterare in alcun modo il
senso
43
Segno zodiacale
A
nato C
Segno zodiacale
B
nato D nato E
Figura 17: Se l’astrologia assegna destini simili a quelli nati sotto lo
stesso segno, perché quello del soggetto C dev’essere più simile al
D e non quello del D ad E in quanto temporalmente più vicini?
ad E, ma lo giudicherei più comprensibile.
Vorrei evidenziare che non nego la compatibilità di destino20 tra i soggetti C e
D e l’incompatibilità dello stesso tra i soggetti D ed E, ma vorrei capire per quale
motivo ci sia una discontinuità esattamente nel giorno di salto da un segno all’altro.
Anche se non ha avuto successo, qualcuno ha cercato di mettere un po’ di ordine nella mia mente confusa, cercando di spiegarmi che non è semplicemente
una questione legata alla data di nascita, ma anche all’orario di nascita, in quanto
l’ascendente varia con quest’ultimo; purtroppo non riesco a capire una discontinuità al mese, figuriamoci le discontinuità giornaliere legate all’orario di concepimento. Osservo che, in questo caso, l’ascendente potrebbe essere stato deciso dal
ginecologo forzando il parto della madre, attraverso l’induzione di travaglio; per
coloro che si lamentano del proprio ascendente, consiglio di non accusare il ginecologo, poiché aveva probabilmente altre questioni da affrontare nell’immediato,
20
ammetto la mia totale incomprensibilità del concetto di destino; per non appesantire la lettura,
di seguito non sarà esaminato
44
ignorando il destino che stava assegnando.
Comunque, l’ascendente complica maggiormente la già difficile comprensione in
quanto è definito astronomicamente come l’intersezione dell’orizzonte21 (circonferenza osservabile con l’eclittica22 (circonferenza astratta): sono già confuso quando si asserisce che una stella (o congiunzione astrale23 ) genera influssi capaci di
influenzare la mia vita, ma è sbalorditivo pensare (ed improbabile da capire) che
il mio destino sia influenzato da un’intersezione (geometrica), quindi da un’entità
non esistente.
Lasciando perdere le discontinuità e le entità astratte a cui non sono riuscito a fornire una benché minima risposta, passo alla terza incoerenza.
La questione è la seguente: il termine congiunzione astrale è spesso usato negli
oroscopi, inducendo l’ascoltatore o il lettore a pensare ad una vicinanza tra pianeta
e stella o tra stelle; la Figura 18 illustra il concetto di coordinata celeste e congiunzione.
Le coordinate celesti identificano un punto tra gli infiniti punti appartenenti ad uno
stesso guscio sferico, ma non identificano univocamente il guscio poiché manca la
grandezza distanza; quindi, due stelle visibili aventi coordinate celesti simili appaiono vicine nella volta celeste, ma ciò non significa che lo siano effettivamente
poiché, come già scritto, le coordinate celesti non specificano la distanza.
Il passo successivo è molto semplice, comprendere il significato di congiunzioni
astrali: esse non indicano vicinanza tra corpi, ma soltanto coordinate celesti simili.
Quindi, sono apparentemente vicini solo per la nostra visuale, non potendo valutare l’enorme distanza che separa noi dai corpi celesti con i poco potenti mezzi visivi
di cui disponiamo24 . In altre parole, li definirei banali allineamenti ottici, ma forse
tanto banali non sono per poter influire nella nostra vita.
Riuscire a comprendere perché le congiunzioni astrali possano influire sul nostro
destino è un un’impresa ardua, ma alla luce del significato di coordinata celeste lo
stesso concetto di costellazione è poco significativo, poiché i corpi di una costellazione non sono accomunati da vicinanza.
Vorrei cambiare completamente prospettiva e considerare per buoni i dubbi sollevati sinora, poiché ci sono tante persone che hanno una fiducia incrollabile in
ciò che ritengo incomprensibile. Probabilmente, è semplicemente una questione di
tempo e, prima o poi, le cose appariranno più chiare.
21
linea circolare con centro sull’osservatore che separa la terra dal cielo
intersezione del piano d’orbita terrestre con la sfera celeste
23
l’ulteriore confusione che mi provoca il termine congiunzione la esaminerò più avanti
24
per valutare queste grandi distanze, si utilizzano osservazioni astronomiche e calcoli matematici
22
45
Polo Nord
celeste
stella A
Terra
❈
declinazione
Equatore
celeste
ascensione
retta
❈
❈
stella
C
stella
B
Polo Sud
celeste
Figura 18: Le coordinate celesti possono essere assimilate alle coordinate terrestri in quanto le prime sono specificate da due grandezze, la declinazione (che possiamo identificare nella latitudine) e
l’ascensione retta (che possiamo identificare nella longitudine). È
importante notare che la grandezza distanza non è specificata da
nessuna coordinata celeste; difatti, le stelle B e C hanno le stesse
coordinate celesti, ma sono molto distanti tra loro.
Per essere sinceri, la probabilità che associo a questa ipotesi è bassa; a supporto
cito Bertrand Russel:
Il fatto che un’opinione sia diffusa non esclude che sia totalmente assurda; anzi, data la stupidità della maggior parte degli uomini, è più
facile che una credenza diffusa sia sciocca che non sensata.
Come ho già scritto, ipotizzo che i miei dubbi siano causati dalla mia poca lucidità.
Per ovviare alla mia ignoranza, mi sono procurato qualche semplice lettura sulle
46
sfera
celeste
fascia
zodiacale
Figura 19: La fascia zodiacale era di 20o per i babilonesi la quale conteneva 15 costellazioni, ma oggi è di 16o gradi ed il numero di
costellazioni è 12
costellazioni; ho iniziato dalla storia per capire il presente, scoprendo che i babilonesi conoscevano 66 costellazioni ripartite in 3 regioni di cielo parallele all’Equatore celeste; nella zona centrale di cielo c’era lo zodiaco che aveva 15 costellazioni
e un’apertura angolare di 20o di declinazione: 10 al di sopra dell’Equatore verso
il Polo Nord e 10 al di sotto dell’Equatore verso il Polo Sud. Nella Figura 19 è
illustrata la fascia zodiacale.
L’oroscopo attuale è legato a quello dell’astrologia ellenica, in cui mutarono le dimensioni della fascia zodiacale attribuendole un’apertura angolare di 16o di declinazione, comprendendo 12 costellazioni. Sottolineo che il motivo per cui l’apertura
angolare della fascia zodiacale è mutata da 20o a 16o è stata di natura numerologica, poiché gli ellenici preferivano che le costellazioni non fossero 15, ma 12.
47
3
Gemelli
4
Cancro
2
Toro
1
Ariete
5
Leone
Sole
12
Pesci
6
Vergine
Terra
orbita terrestre
11
Acquario
7
Bilancia
8
Scorpione
?
Ofiuco
9
Sagittario
10
Capricorno
costellazione non
considerata
Figura 20: Sono illustrate le 13 costellazioni, di cui solo 12 note al
grande pubblico
Apprese queste informazioni, sono subito affiorate nella mia testa tante domande:
1. perché nello zodiaco si definisce una fascia zodiacale, cioè lo zodiaco non
comprende tutta la sfera celeste?
2. perché i babilonesi preferirono un’apertura angolare di 20o ?
3. c’è un motivo per cui cambiare apertura angolare della fascia zodiacale che
non sia quello numerologico25 di essere legati al no 12?
Ovviamente, non sono riuscito a trovare risposte; ma la voglia di comprendere
qualche meccanismo dell’astrologia era forte, ed allora ho continuato ad attingere dati, purtroppo con risultati pessimi: sempre più domande, ma mai nessuna
risposta. La questione continuava a peggiorare e, per constatare che non stessi sbagliando metodologia di apprendimento, ho cominciato con una semplice verifica:
contare le costellazioni zodiacali, supponendo il riscontro numerico. Purtroppo ne
ho contate 1326 (nella Figura 20 sono indicate le costellazioni della fascia zodiacale).
Il lettore può immaginare lo stupore, e la sensazione di pura impotenza intellettuale
25
in passato la numerologia era molto diffusa; purtroppo, ancora oggi è pandemica, con
coefficiente trasmissivo elevato quasi quanto quello associato all’astrologia
26
segnalo [Zic03]
48
costellazione
zodiacale
data effettiva
dell’attraversamento del Sole
durata
(giorni)
data fittizia
Ariete
Toro
Gemelli
Cancro
Leone
Vergine
Bilancia
Scorpione
Ofiuco
Sagittario
Capricorno
Acquario
Pesci
18.04 - 13.05
14.05 - 20.06
21.06 - 19.07
20.07 - 09.08
10.08 - 15.09
16-09 - 30.10
31.10 - 22.11
23.11 - 28.11
29.11 - 17.12
18.12 - 18.01
19.01 - 15.02
16.02 - 11.03
12.03 - 17.04
26
37
29
21
37
45
23
6
19
32
28
24
37
21.03 - 20.04
21.04 - 21.05
22.05 - 21.06
22.06 - 22.07
23.07 - 22.08
23.08 - 22.09
23.09 - 22.10
23.10 - 21.11
—
22.11 -21.12
22.12 - 21.01
22.01 - 19.02
20.02 - 20.03
Tabella 3: In tabella è evidenziata la costellazione di Ofiuco, esistente
nelle costellazione zodiacale, ma ignorata per motivi sconosciuti a
me e alle fonti a cui ho attinto
provata in quel momento. Attraverso qualche breve ricerca, leggo che inizialmente
le costellazioni erano 11; la 12a è stata Bilancia, ottenuta spezzando la costellazione dello Scorpione in due parti, per averne un numero pari al numero di mesi di
un anno. A complicare il tutto, c’è la 13a costellazione, ignorata senza una vera
ragione27 .
Nella mia breve ricerca volevo assolutamente capire qualcosa e, continuando nelle letture, apprendo che non solo le costellazioni non sono 12, bensì la durata di
attraversamento per ogni costellazione è variabile (v. Tabella 3); ad esempio, il
Sole impiega non un mese, ma solo 6 giorni per attraversare la costellazione dello
Scorpione; di contro, ne impiega 45 per attraversare quella della Vergine.
Sinceramente non riuscivo ad immaginare come potessero collimare i dati astrologici e le osservazioni astronomiche.
Comunque, ho preferito lasciar perdere questa questione perché ormai ero sicuro
di non avere i mezzi per capire, quindi sono tornato ad osservare la Tabella 3; ho
27
per essere più precisi, evidenzio che, nonostante abbia scritto ignorata senza una vera ragione,
non implica che non ci sia; semplicemente non posso motivarne le ragioni e, soprattutto, non saprei
quale fonte sarebbe autorevole in questo campo
49
consultato il mio segno (acquario) ed ho notato che la data astrologica anticipava
di quasi un mese quella di attraversamento effettivo.
La stranezza non termina qui, poiché questo slittamento tra osservazioni astronomiche e dati astrologici si ripete, con piccole/medie variazioni, per ogni segno.
La motivazione è la seguente: la Terra non ha solo i due noti movimenti, rotazione28 e rivoluzione29 , ma c’è un terzo movimento che causa la rotazione dell’asse
terrestre, chiamato precessione30 (v. Figura 21).
Scheda di approfondimento
Affermare che la rotazione terrestre causi l’avvicendarsi di giorno e notte è
una pessima approssimazione, anche se è accettata per dar credito al senso comune, storicamente geocentrico.
Infatti, il cielo è scuro anche di giorno quando è osservato dall’esterno dell’atmosfera terrestre. Quest’ultima diffonde in tutte le direzioni la luce (del Sole
e delle altre stelle) da cui è colpito, con conseguente luminosità del cielo dell’interno del guscio. È facile intuire che di giorno non si individuano le stelle,
non a causa dell’abbagliante luce solare, ma della diffusione.
Si giunge al paradosso di Olbers del 1826: “Perché il cielo è scuro?”. I presupposti della formulazione originale sono sintetizzati dalle seguenti proprietà
dell’universo: estensione infinita, esistenza da tempo infinito, omogeneità ed
isotropia.
In questa situazione, poiché la diffusione della luce ha andamento sferico, l’irraggiamento (energia ricevuta per unità di superficie) è inversamente proporzionale al quadrato della distanza, ma il numero di sorgenti luminose è proporzionale al cubo della distanza, pertanto il paradosso conduce ad un’intensità luminosa infinita. La cosmologia moderna osserva che le prime due ipotesi non
sono corrette, pertanto il paradosso non è più tale. Per completezza, si calcola
che il cielo sarebbe luminoso in maniera persistente se il raggio dell’universo
osservabile fosse pari a 6,6 milioni di miliardi di anni luce, mentre le osservazioni indicano un raggio di 13,7 miliardi di anni luce, ordini di grandezza
inferiore a quanto stimato.
Il movimento chiamato precessione produce la cosiddetta precessione degli equinozi: la posizione apparente che assume il Sole in un qualsiasi giorno è precedente
alla posizione apparente che assumerebbe se non ci fosse il moto di precessione. In
28
causa l’avvicendarsi di giorno e notte (v. Scheda di approfondimento)
causa l’avvicendarsi delle stagioni poiché l’asse terrestre è inclinato circa di 23o 330 rispetto la
perpendicolare all’eclittica
30
c’è anche un quarto moto, chiamato nutazione, ma il suo effetto non incide in questo contesto
29
50
perpendicolare
al piano dell’orbita
asse
terrestre
23,5°
piano
dell’orbita
terrestre
equatore
terrestre
Figura 21: La precessione consiste in una rotazione dell’asse terrestre
attorno alla perpendicolare dell’orbita terrestre in 25.620 anni; essendo il moto orario, esso è opposto al moto orbitale della Terra,
anticipando così l’inizio di un qualsiasi giorno (e, in particolare,
degli equinozi) rispetto a quello che si otterrebbe se non ci fosse la
precessione
effetti, è più facile immaginare un’altra conseguenza, la variazione della posizione
apparente della Stella Polare nel cielo: questa variazione è causata dal mutamento
direzionale dell’asse terrestre. Anche se è più semplice capire questo effetto rispetto la precessione degli equinozi, dal fenomeno in esame non è facile comprendere
il disaccoppiamento dei giorni del calendario dai segni zodiacali.
51
La prima osservazione (posizione apparente anticipata) implica che la precessione
distrugge il legame tra la data indicata dal calendario e la costellazione zodiacale.
Poiché l’astrologia è stata scardinata nelle basi dall’astronomia, ho per un attimo
creduto che non avesse risposta per la precessione degli equinozi, ed infatti, imbattendomi in alcune riviste, si trovata scritto segno - gg.mm/gg.mm, in cui si
comprende che l’oroscopo in esame, non tenendo conto del fenomeno di precessione degli equinozi, è sbagliato31 .
Sorridendo, ho letto32 che gli astrologi hanno aggirato il problema della corrispondenza tra calendario e costellazione zodiacale nel seguente modo: poiché a causa
della precessione cambiano (anche se lentamente) con continuità le coordinate celesti, si può reinventare il significato di segno zodiacale, non facendolo più corrispondere alla costellazione dello zodiaco33 (qualcosa di fisico), ma a qualcosa di
non esistente, in maniera da conservare sempre le stesse coordinate celesti e, quindi, rispettare le date stabilite dagli stessi astrologi. La riflessione che ne segue è
elementare: non credo sia difficile immaginare entità che rispettino vincoli banali
che noi stessi artificiosamente inventiamo; la creazione del termine segno zodiacale calza perfettamente.
Solitamente non commento le ritrattazioni di un concetto poiché, o le reputo legittime o, come in questo caso, le ritrattazioni si commentano da sole; in ogni caso,
voglio fare un’eccezione in quanto questa ritrattazione mi suggerisce una semplice
analogia. Spesso i genitori raccontano ai bambini storielle fantasiose (ad esempio
la storia di Babbo Natale); successivamente un bambino, o perché istruito da altri,
o perché intuisce che qualche elemento non si accordi con il suo bagaglio culturale,
chiede o ricerca ulteriori spiegazioni. Conseguentemente, i genitori sono obbligati
a ritrattare la propria storia; tutto ciò si reitera fino a quando il bambino attribuisce
il rango di sciocchezza a simili storielle, ammettendo la propria superiorità intellettuale.
Sperando che la mia analisi sia condivisa, vorrei concludere riassumendo le questioni affrontate:
1. Supponendo che l’astrologia assegni destini simili a soggetti nati sotto lo
stesso segno, per quale motivo persone nate temporalmente vicine avranno
destini diversi, mentre una persona nata con un mese di differenza rispetto
ad un’altra, purché nata sotto lo stesso segno, avrà un destino simile?
31
dal già citato [Zic03], vorrei riportare il seguente passaggio: “Coloro che volessero credere nei
segni zodiacali dovrebbero almeno preoccuparsi di essere nel segno giusto”.
32
si veda [Cav96]
33
in cui, ripeto, il periodo di attraversamento slitta di anno in anno di una piccola quantità, tale che
oggi tutti i segni sono slittati di quasi un mese
52
2. Supponendo che l’astrologia definisca per ogni soggetto anche l’ascendente34 :
- perché dovrei credere che qualcosa di non esistente influisca nel mio
futuro?
- perché due soggetti nati nello stesso momento, ma in luoghi appartenenti a fusi orari diversi, hanno assegnato destini diversi (diverso ascendente), ma se nati nello stesso istante in luoghi appartenenti allo stesso
fuso orario il destino è simile?
3. Supponendo che una congiunzione astrale implichi che due corpi posti lontani da noi siano vicini tra loro (caso improbabile ed estremamente favorevole),
perché dovrebbero influenzare il nostro destino?
4. Supponendo che una costellazione zodiacale sia costituita da corpi vicini tra
loro (ipotesi falsa), perché dovrebbe incidere nel nostro destino?
5. Supponendo che in una costellazione sia scritto (in qualche modo ma non
saprei quale) il mio futuro, perché solo le costellazioni della fascia zodiacale
dovrebbero celare il mio destino?
6. Supponendo che nella fascia zodiacale sia celato il destino dell’umanità, perché è stata esclusa dall’indagine astrologica la costellazione di Ofiuco? In
altre parole, perché Ofiuco è nello zodiaco, ma non dello zodiaco?
7. Supponendo che le costellazioni zodiacali siano le 12 costellazioni imposte
dall’astrologia e in esse sia celato il destino dell’umanità, per quale motivo
gli astrologi gli assegnano una durata temporale pressoché costante, ma le
osservazioni astronomiche riportano tempi con forte variazione?
8. Supponendo che:
- la durata di attraversamento delle costellazioni zodiacali coincida con
quella definita dall’astrologia (ipotesi falsa), per quale motivo la precessione (anche se in tempi lunghi, incide sull’umanità) non è presa in
considerazione come parametro che influenza il destino?
- la durata di attraversamento delle costellazioni zodiacali sia da sostituire con il modello dei segni zodiacali, perché un segno zodiacale (che,
secondo la stessa definizione dell’astrologia, non è nulla di esistente)
dovrebbe inviarmi degli influssi che incidano nella mia vita?
34
ricordo che l’ascendente è definito come l’intersezione di una circonferenza osservabile
(l’orizzonte) con una circonferenza astratta (l’eclittica)
53
Sperando che tali perplessità suscitino interesse o, perché no, disappunto, sarei
grato se qualcuno mi inviasse delucidazioni sull’astrologia, e se queste avranno un
minimo di coerenza, prometto di correggere questa sezione. Nel frattempo, io continuo a sperare che l’umanità, in un futuro non troppo lontano, si comporti come
quel bambino citato a pagina 52, ammettendo la propria superiorità a simili storielle.
In ultimo, andando contro le mia politica sociale, vorrei fornire un alibi alla società, accennando l’effetto Forer, chiamato anche effetto di convalida soggettiva. Tale
effetto fornisce una spiegazione parziale della grande diffusione di pseudoscienze,
quali l’astrologia e la divinazione, così come molti test di personalità.
L’effetto Forer è nato dall’osservazione della tendenza secondo la quale gli individui ritengono accurati profili psicologici che credono siano riferiti a se stessi, non
accorgendosi che in realtà il profilo medesimo sia generico, tale da adattarsi ad un
numero vasto di persone.
In particolare, nel 1948 lo psicologo Bertram Forer consegnò un test di personalità
ai suoi allievi; al termine fornì a ciascuno un’analisi di personalità quale valutazione del test appena concluso. Successivamente, ogni studente era invitato ad
esprimere un giudizio da 0 (scarso) a 5 (eccellente) al profilo fornito sulla base di
quanto questo si adattasse a loro stessi: la media fu 4, 26. Al termine Forer rivelò
che era stato consegnato a ciascun studente lo stesso profilo psicologico, profilo
tratto da una rivista di oroscopi.
54
Il caos
La relatività eliminò l’illusione newtoniana
dello spazio e del tempo assoluti; la teoria
quantistica eliminò il sogno newtoniano di
un processo di misurazione controllabile;
e il caos elimina la fantasia laplaciana
della prevedibilità deterministica.
Joseph Ford, tratto da [Gle00]
Q
frequentavo la terza media, nell’introduzione al mondo informatico,
un professore affermò quanto segue:
UANDO
[...] Se conoscessimo con precisione sia le condizioni atletiche dei
giocatori sia quelle ambientali, un computer molto potente potrebbe
predire con esattezza l’esito di una partita di calcio.
Questa considerazione produsse nella mia mente un susseguirsi di domande poiché
consideravo l’evento esito di una partita di calcio estremamente imprevedibile. Ad
esempio, mi domandavo se durante una partita ci fosse:
- un rimbalzo falso della palla?
- un problema muscolare per un giocatore?
- una decisione errata dell’arbitro?
A seguito di questi o altri eventi non prevedibili, la predizione del computer sarebbe in ogni caso esatta?
Per essere precisi, la considerazione iniziale ipotizza testualmente se conoscessimo con precisione, pertanto si è indotti a supporre che anche gli eventi del rimbalzo strano, del problema muscolare o dell’arbitro che sbaglia possano essere
conosciuti. Questa considerazione è errata per due motivi:
- rimbalzi falsi, problemi muscolari e decisioni errate non costituiscono una
conoscenza esatta delle condizioni iniziali, ma avvengono durante l’evoluzione della partita;
55
- la conoscenza infinitamente precisa è un’illusione.
Non mi dilungherò sulla seconda considerazione, limitandomi ad evidenziare per la
prima che, se ci fosse una conoscenza esatta per ogni stato della partita, non sarebbe necessario l’uso del computer, quindi non avrebbe senso l’affermazione iniziale.
Quanto appena riportato è solo un esempio di approccio errato ad una classe di
problemi molto ampia, affrontati dalla teoria del caos (o più precisamente caos
deterministico).
Di seguito analizzerò con maggiore dettaglio le dinamiche caotiche, alle quali sarà
sempre molto complesso rispondere.
Nella cultura popolare, da sempre il caos ha una connotazione prevalentemente
negativa, essendo contrapposto al concetto di ordine.
Anche nel mondo scientifico il caos ha goduto di attenzione marginale per vari
motivi quali:
Apparente casualità, quindi, difficoltà nella sperimentazione non essendoci le
condizioni di replicabilità.
Difficoltà di trattazione a causa dell’impossibilità di affrontare analiticamente i
modelli matematici.
Ampiezza quasi nulla degli effetti generati, pertanto questi ultimi sono spesso
trascurabili nella sperimentazione, ed ignorati nella trattazione teorica.
Molti ritengono che l’ultima rivoluzione scientifica del XX secolo sia il mutato atteggiamento rivolto ai sistemi caotici. La modellazione di tali sistemi non solo non
è più ignorata, ma talvolta è l’unico oggetto di interesse.
È utile evidenziare che, poiché i modelli che descrivono i sistemi caotici non sono
trattabili analiticamente, si è ampliata la strumentazione matematica adottando il
computer. L’introduzione di questo strumento, attraverso i rapidi calcoli necessari
per le simulazioni numeriche, ha permesso l’efficace studio dell’evoluzione di sistemi complessi.
Per essere più precisi, l’importanza del computer non è limitata nella potenza di
elaborazione. Sarebbe riduttivo pensare che esclusivamente i rapidi calcoli abbiano permesso lo sviluppo di questo campo di studio. Nelle prossime pagine diverrà
evidente che la grafica ha ricoperto un ruolo dominante.
56
Alla scoperta del caos
Il pensiero classico è riportato nel seguente scritto di Laplace del 1814:
Dobbiamo dunque considerare lo stato presente dell’universo come
effetto del suo stato anteriore e come causa del suo stato futuro. Un’intelligenza che, per un dato istante, conoscesse tutte le forze di cui è
animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi
dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei
più grandi corpi dell’universo e dell’atomo più leggero: nulla sarebbe incerto per essa e l’avvenire, come il passato, sarebbe presente ai
suoi occhi. (tratto da [Vul05])
In altre parole, l’aspetto deterministico della scienza newtoniana può essere sintetizzato da questa affermazione:
Data una conoscenza approssimativa delle condizioni iniziali di un
sistema e una comprensione della legge naturale, è possibile calcolare
il comportamento approssimativo del sistema.
Solitamente, l’approssimazione è giustificata poiché l’errore genera effetti trascurabili. Ad esempio, nella determinazione della posizione della Terra, un piccolo
errore iniziale determinerà degli scarti minimi nelle predizioni delle posizioni per
milioni di anni.
Evidenzio che ho appena utilizzato l’espressione solitamente, in quanto, nella famiglia dei sistemi complessi, un piccolo (arbitrariamente piccolo) errore nella determinazione delle condizioni iniziali, si ripercuoterà drasticamente nella predizione
degli stati successivi.
Già Poincaré nel 1908 scrisse:
Una causa piccolissima che sfugga alla nostra attenzione determina
un effetto considerevole che non possiamo mancare di vedere, e allora
diciamo che l’effetto è dovuto al caso. Se conoscessimo esattamente
le leggi della natura e la situazione dell’universo all’istante iniziale,
potremmo prevedere esattamente la situazione dello stesso universo in
un istante successivo. Ma se pure accadesse che le leggi naturali non
avessero più alcun segreto per noi, anche in questo caso potremmo
conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa
approssimazione, non ci occorrerebbe di più e dovremmo dire che il
fenomeno è stato previsto, che è governato da leggi. Ma non è così,
può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle
prime produce un errore enorme nei secondi. La previsione diventa
impossibile e si ha un fenomeno fortuito. (tratto da [Poi08])
57
15
10
5
0
-5
-10
-15
0
5
10
15
20
25
30
35
40
Figura 22: Due grafici generati dal sistema di equazioni di Lorenz, tracciati per valori di x differenti per 10−3 . Si nota che inizialmente i tracciati sono coincidenti, successivamente, per x ∼
= 11, si
separano
Nelle sezioni successive saranno illustrate le tappe fondamentali del mondo scientifico per la comprensione delle evoluzioni caotiche.
La scoperta di Lorenz
Edward Lorenz era un metereologo che nel 1960 modellò un semplificato sistema
per simulare le condizioni mutevoli dell’atmosfera. Questo modello era composto
da dodici equazioni processate dal suo computer (un Royal McBee). È evidente
che questa modellazione non è realistica, ma le primitive potenzialità di calcolo di
cui disponeva non permettevano l’elaborazione di sistemi più fedeli.
Il suo modello metereologico descriveva il trascorrere del giorno stampando una
serie di numeri su una pagina: essi costituivano una serie di parametri che descrivevano l’evoluzione delle condizioni metereologiche del globo.
L’aspetto interessante è che, nonostante il modello fosse semplificato, globalmente
nulla si ripeteva. Era simpatico scommettere sull’evoluzione, poiché la dinamica
non si rivelò prevedibile.
58
Un giorno del 1961, Lorenz volle esaminare una fase di elaborazione lunga e, invece di percorrere l’intero passaggio dall’inizio, cominciò ad esaminarlo dalla metà
di quello precedente. Fornendo al computer le condizioni iniziali (prese da uno
stampato), lasciò evolvere il sistema.
Questa nuova elaborazione si supponeva fosse un duplicato della precedente, ma
Lorenz osservò una rapida divergenza tra le due.
Considerando il periodo (1961), non stupisce il suo primo tentativo: cercò di assicurarsi che non vi fosse alcun inconveniente tecnico. Purtroppo i problemi hardware rientravano nell’ordinario; in ogni caso, li potè escludere.
Finalmente intuì il problema: i numeri introdotti erano differenti da quelli memorizzati nel computer al momento della stampa. Ciò accadde in quanto nel computer
erano rappresentati numeri a sei decimali, sullo stampato ne apparivano solo i primi tre. Quindi, Lorenz aveva introdotto delle condizioni leggermente differenti,
avendo inconsapevolmente immesso numeri troncati.
La piccola differenza tra i numeri, un decimillesimo, si era erroneamente supposto
non avesse alcuna importanza (si veda la Figura 22). Ad esempio, immaginiamo
che un satellite misuri la temperatura del suolo, ipotizzando un piccolo margine di
errore. In un sistema deterministico, assegnata una condizione iniziale leggermente diversa da quella vera, si immaginava che il sistema (metereologico) evolvesse
in maniera leggermente differente da quello reale. Una piccola differenza può, ad
esempio, essere un soffio di vento: i piccoli soffi di vento si supponeva svanissero
su larga scala. Eppure, nel particolare sistema di equazioni di Lorenz, piccole differenze (errori) producevano conseguenze non prevedibili.
Si è individuata la prima proprietà dei sistemi caratterizzati da caos: un sistema dinamico deterministico si dice caotico se (durante l’evoluzione) la distanza tra due
traiettorie, inizialmente vicine, cresce esponenzialmente. Questa proprietà è detta
forte dipendenza dalle condizioni iniziali.
La metereologia informatizzata
Negli anni Ottanta i primi addetti alle previsioni del tempo negli Stati Uniti, il
National Metereological Center, operavano raccogliendo dati attraverso antenne
radar, e il loro supercomputer, un Control Data Cyber 205, calcolava modelli di sistema di 500.000 equazioni, producendo in assoluto le seconde migliori previsioni.
Le migliori provenivano da Reading, in Inghilterra. L’European Centre for Medium
Range Weather Forecasts era stato costruito nello spirito del Mercato comune europeo, utilizzando il supercomputer Cray, più evoluto rispetto a quello americano.
Le predizioni dell’European Centre, nonostante fossero le migliori, indicavano
che, oltre i tre giorni, esse potevano considerarsi speculazioni, oltre i sette giorni erano completamente inutili.
59
La motivazione di questa discrepanza tra previsione e realtà a distanza di pochi
giorni era sintetizzata dalla scoperta di Lorenz, nota al grande pubblico con il nome di effetto farfalla. In breve, per qualunque fenomeno metereologico, qualsiasi
Scheda di approfondimento
Nella cultura popolare, l’effetto farfalla è sintetizzato da aforismi o racconti
più o meno famosi, alcuni di seguito elencati.
Per colpa di un chiodo si perse lo zoccolo
per colpa di uno zoccolo si perse il cavallo
per colpa di un cavallo si perse il cavaliere
per colpa di un cavaliere si perse la battaglia
per colpa di una battaglia si perse il regno
Lo spostamento di un singolo elettrone per un miliardesimo di centimetro, a un
momento dato, potrebbe significare la differenza tra due avvenimenti molto diversi,
come l’uccisione di un uomo un anno dopo, a causa di una valanga, o la sua salvezza
(tratto da Macchine calcolatrici e intelligenza, di Alan Turing, saggio del 1950)
[...] E quello, – disse – è il Sentiero che la Time Safari ha preparato per voi. È
di metallo antigravità, e sta sospeso a venti centimetri da terra, senza toccare né un
fiore né un albero né un solo filo d’erba. Il suo scopo è di impedirvi di toccare in
qualsiasi modo questo mondo del passato. [...] Gestire una macchina del tempo è una
faccenda complicata. Uccidendo un animale, un uccellino, uno scarafaggio o anche
un fiore, potremmo senza saperlo distruggere una fase importante di una specie in via
di evoluzione. [...] Supponiamo di uccidere un topolino qui. Ciò significa che tutte
le future famiglie di questo particolare topolino non potrebbero più esistere [...]. Per
ogni dieci topolini che non ci sono, muore una volpe. Se mancano dieci volpi, un leone
muore di fame. Se manca un leone, innumerevoli insetti, avvoltoi, quantità infinite di
forme di vita piombano nel caos e nella distruzione. [...] (tratto da A Sound of Thunder,
traduzione di Stefano Negrini - Editori Riuniti, 1985)
previsione si deteriora rapidamente: gli errori e le incertezze si propagano determinando un’evoluzione del sistema difforme da quella prevista.
È utile evidenziare che i modelli metereologici si basano su misurazioni effettuate
su griglie (non regolari) di punti posti ad una certa distanza, che (tra i primi vicini)
diminuisce in correlazione al miglioramento delle capacità di calcolo degli elaboratori. Se volessimo ignorare i grandi problemi tecnici, supponendo che la distanza
tra i vicini si riducesse infinitamente, avremmo sempre un errore legato alla singola
misura.
È bene sottolineare che, in linea di principio, rendere infinitamente più fitto il reticolo delle stazioni metereologiche, non sarebbe una strategia corretta. Difatti,
ciò si tradurrebbe nell’aggiungere sensori sino ad annullare la distanza tra i vicini.
60
Ponendoli a distanza arbitrariamente piccola, l’influenza reciproca non sarebbe più
trascurabile.
In definitiva, la corretta strategia è nel compromesso tra l’influenza fra i sensori e
la distanza tra i vicini. In ogni caso, gli errori, anche se ridotti, continuano a propagarsi. Ciò si tradurrebbe in procedimenti di calcolo che produrrebbero previsioni
più precise, ma comunque affette da errore.
Disponendo di dati maggiormente precisi si produrrebbero previsioni più affidabili,
cioè si deteriorebbero meno rapidamente, ma in ogni caso a lungo termine sarebbero semplici speculazioni.
Sempre Poincaré:
Perché i meteorologi hanno tanta difficoltà a prevedere il tempo con
un certo grado di esattezza? Perché i rovesci di pioggia, e le tempeste
stesse, ci sembrano arrivare a caso, tanto che molte persone trovano
del tutto naturale pregare per avere la pioggia o il bel tempo, mentre riterrebbero ridicolo un’eclisse con la preghiera? Noi vediamo
che le grandi perturbazioni si producono generalmente nelle regioni
in cui l’atmosfera è in equilibrio instabile. I meteorologi sono ben
consapevoli che questo equilibrio è instabile, che un ciclone nascerà
da qualche parte, ma dove? Non sono in grado di dirlo; un decimo
di grado in più o in meno in un punto qualunque e il ciclone scoppia
qui e non là, porta la sua deviazione in contrade che sarebbero state
risparmiate. Se si fosse conosciuto questo decimo di grado, si sarebbe
potuto prevedere in anticipo, ma le osservazioni non erano né abbastanza ravvicinate né abbastanza precise, ed è per questo che tutto
sembra dovuto all’intervento del caso. (tratto da [Poi08], opera citata)
Investigazioni sull’effetto farfalla
Il citato effetto farfalla entrò a far parte della nomenclatura scientifica con la definizione dipendenza sensibile dalle condizioni iniziali. Con quest’ultima non si
intende semplicemente che, in alcune situazioni, piccoli mutamenti possono essere
ingranditi e talvolta ingigantiti, bensì si evidenzia che tali situazioni sono la regola.
Ma come poteva il semplice sistema deterministico di Lorenz avere un’evoluzione
così complessa? In altre parole, quali caratteristiche deve possedere un sistema
affinché produca questo comportamento?
Lorenz riuscì a sintetizzare un sistema di equazioni più semplice che producesse
questa complessità, trovando un modello costituito da solo tre equazioni non lineari. E si può isolare nella caratteristica di non linearità l’origine della complessità.
Dal punto di vista analitico, generalmente i sistemi non lineari non possono essere risolti; per tale motivo, per comprendere il modello, i termini non lineari sono
ignorati o sostituiti da quantità note, conducendo ad una comprensione solo approssimata.
61
Scheda di approfondimento
Come già accennato, in sistemi deterministici, ad esempio modellati come nel
sistema di Lorenz, la previsione è sostanzialmente impossibile a causa della
forte dipendenza della traiettoria dalla condizione iniziale.
In linea di principio, se si conoscesse con esattezza la condizione iniziale x(0),
sarebbe determinabile x(t) per ogni t > 0.
In realtà, la conoscenza arbitrariamente precisa è un’astrazione, e poiché due
traiettorie, anche se estremamente vicine, si allontaneranno con velocità esponenziale, rende tecnicamente impossibile qualunque tentativo di predizione dopo un tempo t, con t che dipende poco dalla previsione nella conoscenza esatta
di x(0).
Formalmente, indicando con x(t) e x0 (t) le traiettorie generate rispettivamente
da x(0) e x0 (0), in un sistema caotico si ha:
|x(t) − x0 (t)| ∼ eλt
in cui è uguale a |x(0) − x0 (0)| e λ dipende dalle caratteristiche del sistema, parametro chiamato esponente di Lyapunov. Ovviamente, sono definiti
tanti λ caratteristici del sistema quanti sono i gradi di libertà del modello. Ad
esempio:
- per un sistema che termina in un punto fisso stabile, tutti i λ sono
negativi;
- per un ciclo limite, λ1 = 0, λi < 0 per i > 1;
- in un sistema caotico almeno un esponente λi > 0.
La considerazione appena riportata ha implicazioni negative per le previsioni delle
dinamiche complesse e, in particolare, per le previsioni meteorologiche. Questo
sistema è modellato da un sistema di equazioni note dal punto di vista teorico, ma
approssimate per l’elaborazione.
Anche sotto l’ipotesi di elaborazione esatta di un sistema (modellazione perfetta
e calcoli senza approssimazioni) è immutata la questione della forte dipendenza
dalle condizioni iniziali.
Il computer e la dipendenza sensibile
È stato più volte evidenziato che, a causa della forte dipendenza dalle condizioni
iniziali, due traiettorie inizialmente vicine si allontanano esponenzialmente, quindi
62
rapidamente divengono scorrelate.
A questa limitazione i dispositivi elettronici aggiungono un ulteriore elemento a
sfavore, introducendo ad ogni elaborazione l’errore del troncamento. Infatti, ad
ogni passaggio aritmetico, l’elaboratore arrotonda il risultato per difetto, calcolando pertanto una traiettoria con approssimazione (in senso assoluto) sempre peggiore.
Più approfonditamente, gli errori introdotti ad ogni elaborazione sono equivalenti
a piccole variazioni della legge di evoluzione.
Dopo quest’osservazione, ci si può domandare che senso abbia lo studio numerico
dei sistemi dinamici caotici, in quanto inevitabilmente differenti da quelli veri.
Nonostante l’ineluttabile ignoranza della legge di evoluzione del sistema, ignoranza crescente con il tempo, lo studio statistico permette interessanti valutazioni. Per
particolari sistemi, alcune caratteristiche qualitative sono simili.
Quanto riportato solo intuitivamente, formalmente è definito stabilità strutturale. Un sistema è strutturalmente stabile se, per una piccola variazione della legge
di evoluzione, esso è perturbato in maniera qualitativamente trascurabile. Nella
Scheda di approfondimento sono elencate alcune di queste proprietà.
Scheda di approfondimento
Le proprietà qualitative di un sistema caotico sono numerose. Le principali
sono:
Esponenti di Lyapunov: come già definito precedentemente, essi quantificano il livello di caos di un sistema dinamico. Lyapunov intuì che l’impossibilità di stabilire l’evoluzione è determinata dalla divergenza esponenziale con il tempo, per cui introdusse gli esponenti di Lyapunov. Gli
esponenti descrivono la divergenza di due sistemi con la medesima legge
di evoluzione, ma punto di partenza simile.
Entropia di Kolmogorov: gli esponenti di Lyapunov λ1 , λ2 , . . . , λn caratterizzano il sistema. In particolare i λi positivi sono associati alle dinamiche caotiche, e la loro somma è definita entropia di Kolmogorov.
Formalmente
X
λi
i:λi >0
e misura la caoticità globale del sistema.
Dimensione frattale: nelle prossime pagine saranno introdotte alcune
costruzioni frattali e sarà calcolata per ognuna la dimensione.
63
Lo spazio delle fasi e gli attrattori35
I modelli deterministici sono descritti da una legge di evoluzione, quindi, stabilito
uno stato iniziale, è determinato lo stato del sistema ad ogni istante di tempo.
Tradizionalmente, si è abituati a rappresentare l’evoluzione graficandola su un diagramma cartesiano, esplicitando su di un asse la variabile temporale. Nei sistemi di equazioni differenziali, si preferisce graficare l’evoluzione dello stato tramite un’orbita disegnata nello spazio delle fasi. Quest’ultima individua l’evoluzione dello stato, ma a differenza del diagramma precedente, non è più esplicita la
variabile temporale.
Formalmente il sistema è descritto da n variabili, x1 , x2 , . . . , xn , chiamati gradi di
libertà del sistema.
Ad esempio, lo stato del sistema può essere messo in corrispondenza per:
n = 1, con un punto di una retta;
n = 2, con un punto di un piano;
n = 3, con un punto dello spazio tridimensionale;
n = 4, con un punto dello spazio quadrimensionale.
In generale, per n = d (con d intero), gli stati del sistema disegnano una traiettoria
(denominata appunto orbita) in uno spazio d-dimensionale.
Esempi di traiettorie nello spazio delle fasi
Di seguito saranno mostrati alcuni grafici che riportano l’evoluzione nel tempo di
alcuni semplici modelli, a sinistra la rappresentazione nel diagramma cartesiano, a
destra quello nello spazio delle fasi.
Pendolo forzato
Il pendolo forzato è l’idealizzazione del pendolo in assenza di attrito. Si utilizza
l’espressione forzato per evidenziare che l’energia persa per attrito è reintrodotta
nel sistema tramite, ad esempio, un peso o una molla. Per piccole oscillazioni,
l’energia potenziale è direttamente proporzionale al quadrato della posizione.
Nel diagramma a sinistra (Figura 23(a)), l’asse delle ascisse individua il tempo,
quello delle ordinate la posizione. Nel diagramma a destra (Figura 23(b)), l’asse
delle ascisse individua la posizione, quello delle ordinate la velocità.
35
questa sezione non è necessaria per avere una visione essenziale, ma la trattazione matematica
permetterà una migliore concettualizzazione
64
2
4
1.5
1
2
0.5
0
0
-0.5
-2
-1
-1.5
-4
0
5
10
15
20
-1.5
(a) Diagramma cartesiano
-1
-0.5
0
0.5
1
1.5
2
(b) Diagramma nello spazio delle fasi
Figura 23: Traiettoria del pendolo forzato
Pendolo
A differenza del pendolo forzato, in questo sistema non si trascura l’attrito o, alternativamente, non c’è un dispositivo deputato alla reintroduzione dell’energia
persa.
Nel diagramma a sinistra (Figura 24(a)), l’asse delle ascisse individua il tempo,
quello delle ordinate la posizione. Nel diagramma a destra (Figura 24(b)), l’asse
delle ascisse individua la posizione, quello delle ordinate la velocità.
2
2
1.5
1.5
1
1
0.5
0.5
0
0
-0.5
-0.5
-1
-1
-1.5
-1.5
0
5
10
15
20
25
30
(a) Diagramma cartesiano
35
40
-4
-3
-2
-1
0
1
2
3
4
(b) Diagramma nello spazio delle fasi
Figura 24: Traiettoria del pendolo
Attrattori
L’evoluzione temporale di un sistema dinamico rappresentato nello spazio delle
fasi è graficamente molto differente tra i sistemi regolari e quelli caotici. In particolare, per un sistema caotico con attrattore, l’orbita tende ad avvolgersi in un
65
40
10
20
-15
15
-20
Figura 25: Modello di Lorenz nelle tre dimensioni spaziali
nastro.
Intuitivamente, l’attrattore di un sistema dinamico è la regione dello spazio delle
fasi a cui le orbite sono attratte. In altre parole, dopo un certo tempo, il moto del
sistema si svolge nello spazio dell’attrattore. Ciò implica che, se uno stato è nella
regione dell’attrattore, non uscirà da esso.
Ad esempio, nel pendolo libero, l’ampiezza di oscillazione si smorza progressivamente (Figura 24(a)) e le traiettorie, indipendentemente dalle condizioni iniziali,
si avvicinano ad un punto fisso stabile (Figura 24(b)) che è l’attrattore. Nel pendolo forzato (orologio a pendolo), si impedisce lo smorzamento dell’ampiezza,
reintegrata da un dispositivo esterno, cosicché si instaurerà un regime di oscillazioni regolari (Figura 23(a)), rappresentato nello spazio delle fasi da una curva
chiusa (Figura 23(b)). Nei due casi appena citati, gli attrattori sono oggetti regolari, rispettivamente un punto e una curva chiusa (definita ciclo limite). Nel caso
dei sistemi caotici, in cui si ha forte dipendenza dalle condizioni iniziali, l’attrattore non è un oggetto regolare. Ad esempio, nella Figura 25 si nota un attrattore
caotico o, come è definito più comunemente, attrattore strano.
Modello di Lorenz
Il modello di Lorenz descrive il moto delle correnti convettive, ed è formalmente
rappresentato dal seguente sistema di equazioni differenziali:


 dx =σ(y − x)



dt



dy
=(r − z)x − y

dt




 dz


=xy − bz
dt
66
con σ (dipendente dal tipo di fluido), r e b parametri, x legato al campo di velocità,
y e z dipendenti dalla temperatura.
Nel diagramma a sinistra (Figura 26(a)), l’asse delle ascisse individua il tempo,
quello delle ordinate la velocità. Nel diagramma a destra (Figura 26(b)), l’asse
delle ascisse individua la velocità, quello delle ordinate la temperatura.
15
20
15
10
10
5
5
0
0
-5
-5
-10
-10
-15
-15
-20
0
5
10
15
20
25
30
35
40
(a) Diagramma cartesiano
-15
-10
-5
0
5
10
15
(b) Diagramma nello spazio delle fasi
Figura 26: Modello di Lorenz
La mappa di Henon
Finora sono stati riportati modelli rappresentati da sistemi dinamici la cui evoluzione è generata da equazioni differenziali. È possibile studiare un’ulteriore tipologia
di sistemi dinamici, quelli che variano non in maniera continua, ma in maniera discreta rispetto al tempo. Questi modelli sono generalmente chiamati mappe.
Una delle più famose è la mappa di Henon, il cui sistema è riportato di seguito ed
è rappresentato nella Figura 27.
(
xn+1 =yn + 1 − 1ax2n
yn+1 =bxn
Ingrandimenti di questa mappa mostrano autosomiglianza, cioè alcuni particolari
emergono identici (o quasi identici) ad ogni scala.
È evidente che quest’attrattore (e in generale gli attrattori caotici) non sono lisci,
bensì più complessi. Questo aspetto sarà approfondito nel seguito.
67
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-1
-0.5
0
0.5
1
Figura 27: Mappa di Henon
La svolta
Dopo Lorenz, diversi scienziati ripresero le sue teorie: già alcune ricerche minori
si svilupparono in parallelo a quelle di Lorenz, ma la svolta la segnò Benoît Mandelbrot.
Egli incontrò per la prima volta il caos nella scienza economica, studiando la distribuzione di redditi grandi e piccoli in un modello economico. Casualmente si
imbatté in un diagramma disegnato su una lavagna che graficava i suoi studi. Questo diagramma rappresentava otto anni di prezzi del cotone; e non sembrava avere
niente in comune con la distribuzione dei redditi. Quel particolare diagramma
era strano poiché il professore che lo stava studiando non riusciva ad adattare le
variazioni dei prezzi del cotone al modello della curva normale (v. Scheda di approfondimento).
Mandelbrot, investigando i dati con un computer, trovò che i numeri che producevano aberrazioni per quanto concerne la distribuzione normale, al contempo producevano simmetria di scala. In altre parole, quelle particolari variazioni di prezzo
apparivano casuali, ma la sequenza dei mutamenti era indipendente dalla scala. Tra
il disordine dei dati, sorgeva una ordine (di scala) inatteso.
Il secondo incontro con il caos avvenne quando si imbattè, nel centro ricerche
dell’IBM, in un problema pratico molto interessante. Gli ingegneri si stavano confrontando con il problema del rumore che affliggeva le linee telefoniche utilizzate
68
Scheda di approfondimento
La curva normale, più comunemente detta funzione gaussiana, rappresenta la
norma, cioè la distribuzione normale, ed è un fondamentale strumento nella
matematica, fisica e genericamente negli studi di natura statistica.
Una curva gaussiana è formalmente definita dalla seguente funzione:
f (x) = ae−
(x−b)2
c2
Di seguito è mostrato un grafico che riproduce alcune gaussiane per differenti
parametri. Si può notare la tipica forma a campana.
per trasmettere informazione su cavo.
I segnali elettrici trasportano le informazioni, e gli ingegneri sapevano che quanto
più intensa fosse stata l’ampiezza del segnale, tanto più facile sarebbe stato combattere i disturbi. Più precisamente, aumentare l’ampiezza del segnale equivale ad
aumentare il rapporto segnale
rumore , quindi aumentare l’ampiezza del segnale equivale a
ridurre il rumore relativo.
Purtroppo il rumore, anche se ridotto, persiste; non si può pensare di aumentare il
segnale infinitamente. Tecnicamente, aumentare l’ampiezza del segnale oltre una
certa soglia comporta diversi svantaggi, ma in ogni caso, sopra un certo valore non
69
si riduce in maniera significativa il rapporto segnale
rumore , è quindi necessario percorrere
una strategia differente affinché le trasmissioni siano maggiormente efficienti.
In particolare, Mandelbrot scoprì l’esistenza di un rapporto geometrico costante
su scala differente. In altri termini, su scale di periodo temporale differente, il rapporto tra periodo del segnale privo di errore e periodo con errore era costante.
La descrizione astratta di Mandelbrot fu importante per gli stessi ingegneri: essa
suggerisce che, anziché tentare di aumentare l’ampiezza del segnale per ridurre il
rapporto segnale
rumore , si dovrebbe optare per un segnale la cui ampiezza sia modesta,
ed accettare l’inevitabile presenza del rumore, introducendo i codici rilevatori (o
correttori) di errore. L’introduzione di questi ultimi si traduce in ridondanza di
informazione nella trasmissione, ma questa strategia permette di rilevare (o correggere) eventuali errori di trasmissione.
Usualmente, si utilizzano i codici rilevatori per individuare errori nella trasmissione
e richiedere l’eventuale rinvio.
Una nuova geometria
In un articolo Mandelbrot si chiese:
How Long is the Coast of Britain?
tradotto:
Quanto è lunga la costa della Gran Bretagna?
Mandelbrot sostenne che la risposta dipendeva dalla lunghezza del proprio righello. È facile immaginare che maggiore sarà l’ingrandimento della mappa utilizzata,
più accurata sarà la lunghezza. Ma molte insenature e sporgenze diverranno visibili solo procedendo ad una misurazione direttamente sul campo. Si immagini di
ricorrere ad un topografo dotato di un compasso di lunghezza fissa di un metro, il
quale determinerà una certa lunghezza, più fedele delle precedenti poiché ignorerà solo le irregolarità più piccole di un metro. Successivamente, si ricorrerà allo
stesso topografo, al quale, questa volta, si assegna un compasso che misura dieci
centimetri. Questa volta, il topografo non salterà tutte le irregolarità inferiori al
metro, ma solo quelle inferiori ai dieci centrimetri.
Il buon senso suggerisce che la stima crescerà e presenterà la tendenza ad approssimarsi al valore vero della lunghezza della costa. Purtroppo, questa supposizione
è vera solo se la linea di costa è una figura euclidea. Mandelbrot stimò che più l’unità della misurazione diminuisce, più la lunghezza cresce senza limite, cioè senza
convergere ad un valore vero.
Il problema si può evidenziare ad un livello più profondo: le misure euclidee non
riescono a cogliere l’essenza di forme irregolari.
70
[...] Le forme delle geometria classica sono linee e piani, cerchi e sfere, triangoli e coni.
[...] Euclide costruì con esse una geometria durata due millenni, l’unica geometria che impara ancor’oggi la maggior parte delle persone.
[...] Ma per la comprensione della complessità, esse risultano essere
il tipo di astrazione sbagliato. [...] Le nuvole non sono sfere [...] Le
montagne non sono coni. Il fulmine non si propaga in linea retta. La
nuova geometria riflette un universo che è irregolare, non arrotondato; scabro, non liscio. È una geometria del bucherellato, butterato e
rotto, del contorto, aggrovigliato e intrecciato
tratto da [Gle00]
L’idea fondamentale di Mandelbrot fu ispezionare il concetto di dimensione. Ad
esempio, qual è la dimensione di un gomitolo di spago? Dipende dal punto di vista.
Da grande distanza, il gomitole è un punto, privo di dimensioni. Da più vicino, il
gomitolo appare una sfera, quindi tre dimensioni. Da ancor più vicino, si nota lo
spago, quindi appare unidimensionale, ma avvolto su se stesso in uno spazio tridimensionale.
La transizione dimensionale qui riportata condusse lo stesso Mandelbrot al concetto di dimensione reale, la quali esprime l’irregolarità di un oggetto. Alle costruzioni astratte che introdusse diede il nome di frattali che, sorprendentemente, talvolta
replicano le strutture irregolari della natura.
Caratteristiche dei frattali
La caratteristiche distintive dei frattali sono le seguenti:
Autosomiglianza: (o omotetia interna) è la caratteristica di mantenere la simmetria da una scala all’altra, cioè le figure appaiono simili a se stesse qualsiasi
sia l’ingrandimento (invarianza di scala).
Dimensione non intera: l’irregolarità di una figura geometrica è descritta proprio
dalla parte decimale della dimensione: per oggetti regolari essa è nulla, per
oggetti frattali essa è (solitamente) maggiore di zero.
L’autosomiglianza è una caratteristica dettata dalla metodologia di costruzione.
In particolare, l’algoritmo di costruzione dei frattali prevede l’applicazione di una
medesima regola infinite volte. Il passo iterativo determina proprietà non ortodosse
quali, ad esempio, superficie finita delimitata da un perimetro infinito.
La dimensione non intera è conseguenza dell’associazione di una dimensione reale
all’entità frattale. Nella prossima sezione sarà approfondito questo concetto.
71
La dimensione frattale36
In senso ortodosso, il concetto di dimensione si identifica con la definizione topologica, per cui sono ovvie le seguenti affermazioni:
punto: 0 dimensioni;
curva: 1 dimensione;
superficie: 2 dimensioni;
spazio: 3 dimensioni;
iperspazio n-dimensionale: n dimensioni.
Più formalmente, la dimensione di un insieme è il numero di parametri indipendenti necessari all’individuazione di un punto nell’insieme stesso. Ad esempio, un
punto nello spazio è individuato univocamente da tre parametri indipendenti (in
questo caso le coordinate cartesiane sono formate da una tripletta ordinata di numeri reali).
Per i frattali, la dimensione topologica è poco caratterizzante, non permettendo immediatamente di percepire l’irregolarità dell’oggetto. Pertanto Mandelbrot associò
a questi oggetti una nuova dimensione, la dimensione di Hausdorff, anche chiamata dimensione frattale oppure dimensione di Hausdorff-Besicovich.
Intuitivamente, la dimensione frattale è un valore che quantifica il riempimento
dello spazio in cui l’oggetto è contenuto. Oggetti regolari, quindi senza soluzioni
di continuità, sfruttano tutto lo spazio che occupano. Differentemente, un oggetto
frattale non lo occupa interamente, poiché la struttura presenta interstizi.
In dettaglio, a differenza della topologica, espressa tramite numeri interi, la dimensione di Hausdorff si esprime attraverso numeri reali non negativi. Per oggetti
regolari la dimensione topologica coincide con quella di Hausdorff, ma per oggetti
complessi la dimensione topologica non esprime nulla, a differenza di quella di
Hausdorff che si esprime tramite i decimali.
Per comprendere in dettaglio il concetto di dimensione frattale, possiamo utilizzare
la box-counting dimension (letteralmente contare le scatole).
Ad esempio, se ingrandiamo di due volte:
un segmento: esso risulterà il doppio della dimensione originale; quindi, 2 =
21 → dimensione = 1
36
questa sezione non è necessaria per avere una visione essenziale, ma la trattazione matematica
permetterà una migliore concettualizzazione
72
un lato di un quadrato: quest’ultimo risulterà il quadruplo della dimensione originale; quindi 4 = 22 → dimensione = 2
un lato di un cubo: quest’ultimo risulterà otto volte maggiore rispetto l’originale;
quindi 8 = 23 → dimensione = 3
Gli stessi esponenti e (quindi la stessa dimensione) li avremmo ottenuti scegliendo
un fattore di scala differente.
Formalmente, la dimensioni di Hausdorff è definita dalla formula seguente (v.
Scheda di approfondimento):
dH = −
log(s)
log(s)
=
log(z)
log( z1 )
in cui s indica l’ingrandimento dell’oggetto, z la variazione lineare di misura.
Quindi, le dimensioni di Hausdorff sono per il:
segmento: dH =
log 2
=1
log 2
quadrato: dH =
log 22
log 4
=
=2
log 2
log 2
cubo: dH =
log 8
log 23
=
=3
log 2
log 2
Come si nota, i risultati mostrano una dimensione di Hausdorff equivalente alla
dimensione topologica, in accordo con quanto riportato precedentemente per le figure geometriche lisce.
La formula diviene interessante se applicata ai frattali, in particolare solitamente
otterremo che la dimensione dei frattali sarà strettamente maggiore della dimensione topologica.
Da qui deriva la definizione di Mandelbrot: un frattale è un insieme per il quale
la dimensione di Hausdorff-Besicovich è strettamente maggiore della dimensione
topologica.
In realtà, questa definizione non abbraccia tutta la famiglia dei frattali perché, ad
esempio, ne esistono con dimensione intera. In generale, non esiste una definizione
di frattale universalmente accettata ma ne sono accettate diverse, il cui utilizzo è
specifico in relazione al campo di lavoro.
73
Scheda di approfondimento
Mandelbrot introdusse la dimensione frattale per distinguere oggetti dalla medesima dimensione topologica, ma differenti caratteristiche geometriche. Si
può ragionare come segue.
Una linea regolare può essere approssimata con una spezzata di segmenti di
lunghezza l; la lunghezza totale della spezzata L è:
L = N (l)l
in cui N (l) è il numero di elementi della spezzata. Se la lunghezza l è piccola,
L tende ad approssimarsi alla lunghezza della curva. Si osserva che N (l) è
inversamente proporzionale ad l:
N (l) ∼
1
l
Tentando di ricoprire una superficie regolare con quadratini di lato l, essi
saranno inversamente proporzionale a l2 :
N (l) ∼
1
l2
e per un solido regolare il numero di cubetti di lato l sarà inversamente proporzionale al cubo di l. Si può notare che una curva, una superficie e un solido
regolari sono caratterizzati rispettivamente dagli esponenti 1, 2 e 3. Un oggetto
ha dimensione frattale D se il numero di entità (segmenti, . . . ) è proporzionale
a:
1
N (l) ∼ D
l
Per un oggetto regolare, D coincide con la dimensione topologica; negli
oggetti frattali D è (solitamente) maggiore.
Generazione di frattali
I principali metodi per la generazione dei frattali sono di seguito elencati:
Sostituzione: da una figura di base, la si sostituisce con un’altra figura, e si ripete
il procedimento infinite volte.
L-system: si costruisce il frattale ripetendo infinite volte una lista ordinata di
operazioni su una figura di base.
74
IFS: si trasforma la figura di partenza attraverso trasformazioni geometriche.
Tempo di fuga: partendo da un valore, si calcolano le coordinate attraverso una
formula matematica.
Nella prossima sezione saranno mostrati frattali generati attraverso il metodo sostitutivo e il tempo di fuga. Per ulteriori esempi e, in particolare, per frattali generati
con i metodi L-system e IFS si invita a consultare la webografia.
Esempi di frattali
Di seguito saranno mostrate immagini di famosi frattali, l’algoritmo per la loro
costruzione e la loro dimensione. Evidenzio che i passi iterativi non possono essere ripetuti indefinitamente, con l’implicazione che i frattali non possono essere
calcolati correttamente, anche se l’approssimazione grafica è ottima in moltissimi
casi.
La polvere di Cantor
L’algoritmo per la sua costruzione è di tipo sostitutivo:
0. Si disegna una linea
1. La si suddivide in tre parti e si procede all’eliminazione della parte centrale
2. Si itera il passo precedente
L’insieme di Cantor è la polvere di punti che rimane: il numero dei punti è infinito,
ma la loro lunghezza totale è nulla. Ad ogni passo il numero di segmenti si raddoppia e la lunghezza di ciascuno diventa 13 della precedente.
Ad un generico passo n di interazione, un segmento misura 31n ed il numero di segmenti è 2n . Per n tendente all’infinito, i segmenti tendono ad essere di lunghezza
nulla (quindi punti) ed i segmenti tendono ad essere infiniti.
Per quanto riguarda la dimensione, è sufficiente considerare un generico passo: si
hanno il doppio dei segmenti simili al precedente, e di lunghezza uguale ad 13 del
log 2 ∼
precedente. La dimensione dell’insieme di Cantor è
= 0.630929, più di un
log 3
punto, meno di una linea.
75
Figura 28: La polvere di Cantor
Il triangolo di Sierpinski
L’algoritmo per la sua costruzione è di tipo sostitutivo:
0. Si disegna un triangolo equilatero (lato unitario) (v. Figura 29(a))
1. Si elimina dalla superficie il triangolo costruito unendo i punti medi dei lati
del triangolo precedente, ottenendo così 3 triangoli di lato ciascuno 21 rispetto
il precedente (v. Figura 29(b))
2. Si itera il passo precedente (v. Figura 29(c), Figura 29(d) e Figura 30)
Ad ogni passo, si osserva che il numero dei triangoli si triplica ed il lato di ciascuno
di essi diviene la metà. Quindi, ad un generico passo n, la misura di un lato è 21n ,
il numero di triangoli è 2n . Per n tendente all’infinito, i lati tendono ad essere di
lunghezza nulla ed i triangoli tendono ad essere infiniti.
Per quanto riguarda la dimensione, è sufficiente considerare un generico passo: si
hanno il triplo dei triangoli simili al precedente, e il lato di ognuno misurerà la metà
log 3 ∼
del precedente. La dimensione del triangolo di Sierpinski è
= 1.584962, più
log 2
di una linea, meno di una superficie.
Il tappeto di Sierpinski
L’algoritmo per la sua costruzione è di tipo sostitutivo:
0. Si disegna una quadrato (lato unitario) (v. Figura 31(a))
1. Si elimina dalla superficie il quadrato posto al centro del quadrato di base (v.
Figura 31(b))
2. Si elimina dalla superficie i quadrati posti al centro dei quadrati rimasti (v.
Figura 31(c))
76
(a) Base
(b) Sostituzione 1
(c) Sostituzione 2
(d) Sostituzione 3
Figura 29: Iterazioni per la generazione del triangolo di Sierpinski
Figura 30: Il triangolo di Sierpinski
3. Si itera il passo precedente (v. Figura 31(d) e Figura 32)
77
(a) Base
(b) Iterazione 1
(c) Iterazione 2
(d) Iterazione 3
Figura 31: Iterazioni per la generazione del tappeto di Sierpinski
Si osserva ad ogni passo che la superficie della figura rimasta è 19 più piccola della
precedente. Quindi, ad un generico passo n, la misura della superficie è ( 98 )n . Per
n tendente all’infinito, la superficie della figura tende ad essere nulla.
Per quanto riguarda la dimensione, è sufficiente considerare un generico passo: si
hanno 8 quadrati simili al precedente, e il lato di ognuno misurerà 13 rispetto il
log 8 ∼
precedente. La dimensione del tappeto di Sierpinski è
= 1.892789, più di
log 3
una linea, meno di una superficie.
Fiocchi di neve di Kock
L’algoritmo per la sua costruzione è di tipo iterativo:
0. Si disegna una triangolo equilatero (lato unitario) (v. Figura 33(a)), medesima base del triangolo di Sierpinski (v. Figura 29(a))
1. Dividiamo ogni lato della figura in tre parti uguali, e sulla parte centrale
costruiamo un nuovo triangolo equilatero (v. Figura 33(b))
78
Figura 32: Il tappeto di Sierpinski
2. Si itera il passo precedente (v. Figura 33(c), Figura 33(d) e Figura 34)
(a) Base
(b) Iterazione 1
(c) Iterazione 2
(d) Iterazione 3
Figura 33: Iterazioni per la generazione del fiocco di neve di Kock
79
Si osserva, ad ogni passo, che il perimetro della figura diviene i 43 rispetto la costruzione precedente. Quindi, ad un generico passo n, la misura del perimetro è ( 43 )n .
Per n tendente all’infinito, il perimetro tende ad essere di lunghezza infinita. Ecco
la caratteristica paradossale: perimetro infinito racchiuso in una superficie finita.
Per quanto riguarda la dimensione del contorno, è sufficiente considerare un generico passo: ad un segmento se ne sostituiscono 4 di lunghezza 31 del segmento solog 4 ∼
stituito. La dimensione del contorno del fiocco di neve è quindi
= 1.261859,
log 3
più di una linea, meno di una superficie.
Figura 34: Il fiocco di neve
Insieme di Mandelbrot
Questo è uno dei più famosi frattali in assoluto, il più famoso tra quelli generati
attraverso il metodo del tempo di fuga. Il metodo consiste nel considerare il piano
complesso, ad ogni punto è associato un valore determinato utilizzando una funzione iterativa f (z, c), in cui z è il valore determinato nella precedente iterazione,
c la posizione del punto.
Scendendo in dettaglio, l’insieme di Mandelbrot è generato utilizzando la funzione
iterativa
zn+1 = zn2 + c
con condizioni iniziali z0 = 0.
Ad esempio, se volessimo esaminare il punto di coordinate P (0, 0.7), ricordando
80
che il secondo valore è immaginario, otterremmo
z1 = 0 + 0.7i
z2 = (0.7i)2 + 0.7i = −0.49 + 0.7i
z3 = (−0.49 + 0.7i)2 + 0.7i = −0.7399 + 0.42i
z4 = (−0.7399 + 0.42i)2 + 0.7i = −0.11894799 − 0.3598i
z5 = (−0.11894799 − 0.3598i)2 + 0.7i =
= −0.60530741567496 + 0.10230402i
e così di seguito.
Se la successione |zn | tenderà all’infinito, il punto non apparterrà all’insieme di
Mandelbrot. Nell’esempio appena effettuato, tramite iterazioni successive, si nota
che il punto non appartiene all’insieme. Già dal 16o valore dalla successione si ha:
z16 = (5.60678861624714 + 5.41078917496095i)2 + 0.7i =
= 1.66943909140394 + 17.3243664074552i
z17 = (1.66943909140394 + 17.3243664074552i)2 + 0.7i =
= −297.836644539856 + 21.3632445902631i
con |z16 | = 7.79183663093325 e |z17 | = 298.601833634999.
Figura 35: Insieme di Mandelbrot
Ovviamente, questa suddivisione tra punti divergenti e non divergenti è formalmente corretta, ma non è applicabile. Attraverso un numero finito di iterazioni,
non è possibile escludere punti che mostrerebbero la proprietà di divergenza solo in iterazioni successive (e non effettuate). Quindi, attraverso un numero finito
81
di passi iterativi, non si escluderanno punti dall’insieme di Mandelbrot che solo
successivamente mostrerebbero la non appartenenza. In sintesi, vale la regola generale: i frattali non possono essere calcolati correttamente.
Fortunatamente, lo studio algoritmico è semplificato poiché si può dimostrare (test
di Bailout) che se il modulo di zn è maggiore di 2 (distanza dell’orbita dal punto 0
risulta maggiore di 2), la successione è divergente.
Sostanzialmente, per un valore di c arbitrario, si itera l’equazione, e se l’orbita
supera la soglia di 2, c si ritiene divergente (esterno all’insieme di Mandelbrot),
altrimenti lo si riterrà convergente (appartenente all’insieme).
Utilizzando questo test, l’algoritmo permetterà più agevolmente di escludere alcuni
punti dall’insieme, ma l’orbita di punti interni potrebbe essere ritenuta non divergente (l’orbita non supera la soglia), e potenzialmente essi sarebbero esclusi solo
attraverso iterazioni successive. In definitiva, il numero finito di iterazioni implica
una rappresentazione grafica associata all’ineluttabile condizione di approssimazione.
Lo studio sinora proposto suggerisce la produzione di un’immagine binaria, in cui
la divisione è tra punti appartenenti e non appartenenti all’insieme di Mandelbrot.
Si può utilizzare un accorgimento per rendere il grafico esteticamente apprezzabile: il minimo valore di n, per cui zn > 2, si tratta come un indice della lontananza
dal bordo. Associando ad ogni valore n un colore, si ottiene un’immagine non
monocromatica.
Dalla sequenza di immagini di Figura 36, si nota che un numero maggiore di iterazioni algoritmiche rendono l’immagine più simile al frattale di Figura 35.
Dalle immagini Figura 37(a), 37(b), 37(c), 37(d), 37(e), 37(f) e 37(g) si nota che è
possibile effettuare degli zoom nel frattale e visualizzare repliche dello stesso. Dalla Figura 37(h) e 37(i) si nota che sono state effettuate ulteriori iterazioni affinché
l’immagine si potesse zoomare senza perdere particolari.
. . . in natura
Le immagini dei frattali proposti sono esteticamente molto interessanti, ma probabilmente esclusivamente astratte. È interessante la seguente citazione di Benoît
Mandelbrot:
[. . . ] Perché la geometria viene spesso definita fredda e arida? Uno
dei motivi è la sua incapacità di descrivere la forma di una nuvola, di una montagna, di una linea costiera, di un albero. Osservando la natura vediamo che le montagne non sono dei coni, le nuvole
82
(a) Iterazione 1
(b) Iterazione 2
(c) Iterazione 3
(d) Iterazione 4
(e) Iterazione 5
(f) Iterazione 6
(g) Iterazione 7
(h) Iterazione 10
(i) Iterazione 20
Figura 36: Iterazioni per la generazione dell’insieme di Mandelbrot
non sono delle sfere, le coste non sono cerchi, ma sono degli oggetti
geometricamente molto complessi [. . . ]
Ad esempio, nel regno vegetale si trovano molti oggetti la cui codifica geometrica
sarebbe molto complessa se avvenisse in senso ordinario. Al contrario, essa è molto semplice in senso frattale, poiché riprodotti con poche istruzioni. In Figura 38
un esempio.
In generale, la natura utilizza massiciamente i frattali per questioni di opportunità. Si pensi al corpo umano. Le ramificazioni dei vasi sanguigni, fibre nervose,
. . . , e misurazioni della superficie polmonare mostrano una struttura frattale. Ad
esempio, la capacità respiratoria di un animale è proporzionale all’estensione della
superficie dei polmoni, in quanto è fondamentale il contatto della superficie con
l’ossigeno immesso tramite la respirazione. Il metabolismo animale necessita di
una grande estensione (in un uomo ∼ 200m2 ) la quale non sarebbe permessa
83
(a) Zoom 1 - Iterazione 1000 (b) Zoom 2 - Iterazione 1000 (c) Zoom 3 - Iterazione 1000
(d) Zoom 4 - Iterazione 1000 (e) Zoom 5 - Iterazione 1000 (f) Zoom 6 - Iterazione 1000
(g) Zoom 7 - Iterazione 1000 (h) Zoom 8 - Iterazione 10000 (i) Zoom 9 - Iterazione 10000
Figura 37: Zoom dell’insieme di Mandelbrot
da una struttura regolare. In un volume ridotto come la cavità toracica, solo la
ripetizione frattale delle strutture interne permette tale estensione.
84
Figura 38: Esempio di felce
85
86
La matematica della bellezza
Al di là del profumo e del volto
la bellezza è chiara in ogni particolare
distante anni luce dalla mediocrità
del bello conosciuto come tale
la ricerca della perfezione
rende ciechi i nostri occhi
proprio dinanzi ad essa
Ilaria Valenti
ONCORDO 37
con l’autrice di questi versi nel ritenere che la bellezza sia un
concetto soggettivo. Questa sezione mostrerà un parametro che nel Rinascimento fu definito essenza della bellezza.
Ad esempio, tra questi tre rettangoli, qual è il più bello?
C
Figura 39: Qual è il rettangolo più bello?
37
segnalo il mio conflitto d’interessi
87
Probabilmente si è individuato nel rettangolo no 2 il più proporzionato, cioè quello
che si identifica maggiormente con l’idea soggettiva di rettangolo: il rapporto tra
base ed altezza è, per la figura no 2, quello che più si avvicina alla sezione aurea
o, secondo la definizione di Leonardo da Pisa, rapporto aureo.
Il concetto di sezione aurea fu introdotto dai pitagorici attorno al VI sec. a.C.; essi notarono che (v. Figura 40) tracciando le diagonali di un pentagono regolare,
a
b
Figura 40: Tracciando le diagonali di un pentagono regolare si disegna
un altro pentagono regolare, il cui lato è la sezione aurea del primo
(cioè ab è un rapporto aureo); si può procedere ricorsivamente
si individua un altro pentagono regolare il cui lato è la sezione aurea del lato del
primo; in altri termini, il rapporto tra un lato del pentagono esterno ed un lato del
pentagono interno coincide con un numero che ha il privilegio di avere un nome:
numero d’oro.
Dai pitagorici passiamo ad Euclide che, nel XIII libro della sua vasta opera Elementi, definisce la divisione di un segmento in media e ultima ragione.
Possiamo ripercorrere il suo ragionamento traducendo la trattazione esclusivamente geometrica nella più semplice trattazione algebrica, effettuata nel 1202 da Leonardo da Pisa detto Fibonacci nel suo Liber Abaci, testo che ha il merito di aver
propiziato la diffusione in Europa delle cifre indo-arabe.
A
B
C
Figura 41: Schematizzazione per il ragionamento di Euclide
Nella Figura 41 è evidenziato un segmento diviso in due parti, AB quella maggiore e BC quella minore (quindi l’intero segmento é AC). Il segmento è diviso
88
in media e ultima ragione se il rapporto tra misura dell’intero segmento e parte
maggiore è uguale al rapporto tra parte maggiore e minore, formalmente
AC
AB
=
AB
BC
Supponiamo che:
AB misuri a;
BC misuri b;
AC misuri (implicato dalle precedenti) a + b.
Possiamo riassumere la proporzione precedente nella seguente:
a+b a
=
a
b
Poniamo a = bϕ, con ϕ costante che determineremo; sostituendo si ottiene:
bϕ + b bϕ
=
bϕ
b
da cui, semplificando ed isolando la costante ϕ otteniamo:
6 bϕ
6 b(ϕ + 1)
=
6 bϕ
6b
2
ϕ −ϕ−1=0
la cui soluzione positiva è
√
ϕ=
5+1 ∼
= 1.618033988749
2
numero irrazionale definito numero d’oro.
Nel medesimo libro Fibonacci introdusse la seguente successione38
1
1
2
3
5
55
89
144
8
233
13
21
377
34
610
...
38
in realtà introdusse solo 12 termini della sequenza che iniziava con 0; in un secondo tempo essa
è stata espansa ricorsivamente con il nome successione di Fibonacci
89
in cui descrisse matematicamente una questione di ordine riproduttivo del mondo
animale. Per tale successione, stabiliti i valori iniziali, è facilmente intuibile la legge che ne determina i successivi, poiché ogni numero è somma dei due immediatamente precedenti. Come nel precedente esempio, assegnati i primi due, a1 = 1 e
a2 = 1, si possono definire i successivi con la regola ricorsiva an+2 = an + an+1 ,
quindi si ha:
a3 = a1 + a2 = 1 + 1 = 2
a4 = a2 + a3 = 1 + 2 = 3
a5 = a3 + a4 = 2 + 3 = 5
a6 = a4 + a5 = 3 + 5 = 8
e così di seguito.
→
→
→
→
1
1
1
1
1
1
1
1
2
2
2
2
3
3
3
5
5
8
Anche se l’autore l’ignorava, tale successione è fortemente legata alla sezione
aurea; nel 1611 Keplero scoprì che il rapporto tra due numeri consecutivi della successione di Fibonacci approssimano il numero aureo, sempre con maggiore
90
precisione a mano a mano che si avanza nella successione:
1
=1
1
2
=2
1
3
= 1, 5
2
5
= 1, 6
3
8
= 1, 6
5
13
= 1, 625
8
21 ∼
= 1, 6153846
13
34 ∼
= 1, 6190476
21
55 ∼
= 1, 6176470
34
89
= 1, 618
55
144 ∼
= 1, 6179775
89
233
= 1, 61805
144
377 ∼
= 1, 6180257
233
610 ∼
= 1, 6180371
377
987 ∼
= 1, 6180327
610
1597 ∼
= 1.6180344
987
2584 ∼
= 1, 6180338
1597
...
Sintetizzando, in maniera rigorosa possiamo scrivere:
xn+1
=ϕ
n→∞ xn
lim
con xn termine ennesimo della successione.
È facile intuire che per molto tempo la conoscenza della sezione aurea fu confinata
al campo matematico, ma il Rinascimento diede un grosso impulso alla produzione
in vari ambiti, in particolar modo acquistò notevole importanza sia nello studio dei
fenomeni naturali, sia in quello artistico.
Di seguito saranno illustrati alcuni studi celebri in vari ambiti culturali.
91
Matematica
Come già mostrato precedentemente, il numero d’oro corrisponde ad una delle due
soluzioni dell’equazione quadratica
x2 − x − 1 = 0
le cui radici sono:
(
√
1± 5
x1
x=
=
2
x2
∼
= 1, 618
∼
= −0, 618
Sia x1 sia x2 sono entrambi numeri irrazionali: si assegna alla sezione aurea il valore x1 anche se non esiste una preferenza mostrata in alcun campo ad esclusione
della geometria, in quanto solo la radice positiva mostra la natura di rapporto; pertanto il valore numerico della sezione è circa pari a 1,618.
Nella letteratura si può incorrere in un altro numero definito numero d’oro, talvolta,
ma non diffusamente, definito sezione argentea, il cui valore è
√
5−1∼
x=
= 0, 618
2
cioè il precedente valore x2 cambiato di segno. Questo valore è determinato dalla
soluzione del problema generale
a+b a
=
a
b
in cui non si considera come incognita la a, bensì la b. Ponendo b = aφ, con φ
costante, sostituendo si ottiene:
a + aφ
a
=
a
aφ
da cui, semplificando ed isolando la costante φ otteniamo:
6a
6 a(1 + φ)
=
6a
6 aφ
2
φ +φ−1=0
le cui radici sono
−1±
φ=
2
92
√
5
(
∼ 0, 618
φ1 =
=
φ2 ∼
= −1, 618
Sia φ1 sia φ2 sono entrambi numeri irrazionali, con segno opposto alle soluzioni
dell’equazione ϕ2 − ϕ − 1 = 0.
Pertanto si intuisce l’imbarazzo nel definire ϕ o φ come numero d’oro, in cui
l’imbarazzo è maggiore se si ricorda la proprietà
φ=
1
ϕ
1
che equivale ovviamente a ϕ = .
φ
Quindi il numero d’oro e φ o ϕ?
Nella trattazione mi uniformo alla letteratura e nel seguito si considera ϕ il numero
d’oro.
Mostriamo una simpatica proprietà che possiamo
verificare con l’ausilio di una
√
5
+
1
calcolatrice39 scientifica. Calcoliamo ϕ =
: la mia visualizza il numero
2
ϕt = 1, 618033989 (troncamento di ϕ): per i nostri scopi ϕt è una sufficiente
approssimazione di ϕ.
Calcoliamo il reciproco, cioè 1/1, 61803398940 : il display mostra 0, 618033988:
le stesse cifre decimali dopo la virgola (ad esclusione dell’ultima che, come appena
scritto è da ignorare a causa dei troncamenti).
Calcoliamo il quadrato di ϕt , quindi 1, 618033989 per se stesso41 : sarà visualizzato
2, 618033989, nuovamente le stesse cifre decimali.
Se sommiamo ϕt a ϕ2t (ottenendo ϕt (1+ϕt )) avremo 4, 236067977, ottenendo ϕ3t ;
valori uguali anche per ϕ2t + ϕ3t e ϕ4t = 6, 854101966; in generale si ha l’identità
matematica
ϕn + ϕn+1 = ϕn+2
con n qualsiasi.
Un’ulteriore proprietà si ha utilizzando esponenti interi elevati per ϕn , che si approssimano ad un numero naturale a mano a mano che aumenta il valore di n, per
39
non è necessario che sia scientifica, ma faciliterà la digitazione; in ogni caso, utilizzando
strumenti elettronici, il numero irrazionale sarà troncato e, quindi, l’ultima cifra sarà da ignorare
40
tramite il tasto 1/x
41
tasto x2
93
difetto se l’esponente è pari, per eccesso se è dispari; alcuni esempi:
ϕ10 ∼
= 122.991869381244
11 ∼
ϕ = 199.005024998741
ϕ20 ∼
= 15126.999933893
21 ∼
ϕ = 24476.0000408564
ϕ30 ∼
= 1860497.99999946
ϕ31 ∼
= 3010349.00000034
Le curiosità matematiche non terminano qui; ad esempio, il numero aureo può essere rappresentato attraverso due rappresentazioni inconsuete di seguito mostrate.
Si voglia determinare il valore dell’espressione composta da radici quadrate che si
succedono indefinitamente:
s
r
q
√
x = 1 + 1 + 1 + 1 + ...
Elevando al quadrato si ottiene
s
2
x =1+
r
q
√
1 + 1 + 1 + ...
1+
Il secondo addendo del membro di destra è uguale ad x (si veda l’equazione iniziale), quindi possiamo scrivere
x2 = 1 + x
la cui radice positiva è ancora ϕ.
La seconda espressione inconsueta è una frazione continua illimitata, composta da
denominatori tutti identici, in cui l’unico numero che appare è 1; il calcolo avviene
attraverso un analogo procedimento:
1
x=1+
1
1+
1
1 + ...
Dato che la frazione continua è illimitata, il denominatore del membro di destra è
1
uguale ad x, quindi x = 1 + ; moltiplicando per x entrambi i membri si ha
x
1+
x2 = 1 + x
la cui radice positiva è nuovamente ϕ.
94
Geometria
Già precedentemente sono stati presentati esempi di applicazione geometrica della
sezione aurea (v. Figura 40 e Figura 41). Esistono molti poligoni definiti aurei; i
casi più famosi, ad esclusione del pentagono regolare che è un poligono aureo per
costruzione, sono quelli del rettangolo e triangolo aurei.
Nel rettangolo aureo (v. Figura 42(a)) il rapporto tra lato lungo e lato corto è
ϕ, mentre nel triangolo aureo lo stesso rapporto è tra lati e base. La simpatica proprietà è che per entrambi i poligoni si può ricavare una successione dello
stesso poligono con un fattore ϕ tra il lato del poligono esterno e quello interno
immediatamente successivo. Per entrambe le successioni è possibile ricavare una
sorta di spirale (talvolta confusa con la spirale aurea). Quest’ultima è una spirale
logaritmica la cui funzione è
r = aebθ
con a qualsiasi ad esclusione di zero e b uguale a ϕ.
(a) Rettangolo aureo
(b) Triangolo
Figura 42: I poligoni aurei più famosi ad esclusione del pentagono
Storia
Tra la letteratura storica contemporanea è possibile incorrere in testi che riportino
l’uso della sezione aurea in opere preelleniche; si ritiene che molti scritti siano la
proiezione delle fantasiose ipotesi Ottocentesche; in ogni caso, di seguito saranno
trattati i popoli e le opere a cui più spesso si fa riferimento.
95
Babilonia
Alcune tavolette riportano calcoli i quali inducono a ritenere i babilonesi possessori
di una cultura matematica tale da conoscere con buona approssimazione π, tuttavia
non esistono prove che conoscessero la sezione aurea.
Nonostante tale evidenza, alcuni studiosi continuano a ritenere che il popolo babilonese conoscesse il rapporto aureo, supportando tale tesi attraverso l’esistenza
di alcuni steli e bassorilievi del IX sec. a.C. nei quali la misurazione di alcune
raffigurazioni si avvicinano al rapporto aureo. Ovviamente tale tesi è assolutamente ingenua: preferisco non analizzare ulteriormente questa considerazione poiché
sarà più chiara tra breve.
Egitto
Le ipotesi sulla conoscenza del rapporto aureo in epoca preellenica probabilmente
derivano dalla misticheggiante quanto acritica letteratura Ottocentesca, i cui oggetti privilegiati sono i monumenti degli antichi Egizi, ed in particolare la famosa
Piramide di Cheope situata nella piana di Giza.
ip
cateto
ot
en
us
a
cateto
Figura 43: Schematizzazione della Piramide di Cheope
Dalla Figura 43 si nota che la base è approssimativamente quadrata, con un piccolo42 scarto, in cui i lati della base misurano circa 230,38 m; l’altezza misura oggi
136,86 m (inizialmente misurava 147,61 m); attraverso il teorema di Pitagora, dai
valori originali è possibile calcolare l’ipotenusa:
v
!2
u
u
t147, 612 + 230, 38
∼ 187, 26 m
=
2
42
96
i quattro lati di base presentano uno scostamento medio di 1,52 cm
Figura 44: Fotografia della Piramide di Cheope
ed il rapporto tra altezza e semilato della base è:
187, 26
altezza
=
= 1, 625
semilato 115, 19
molto vicino ϕ, con uno scarto inferiore allo 0,5%.
Fortunatamente, la maggior parte degli storici non ritiene che la sezione aurea sia
celata nei rapporti dimensionali della piramide poiché, per ipotizzare verosimilmente che gli architetti egizi conoscessero ϕ, è necessaria l’esistenza di testimonianze storiche che avvalorino l’uso consapevole, quindi intenzionale, del rapporto
aureo.
In questa fase è utile introdurre un passo dell’astronomo John Herschel che, citando
Erodoto, afferma:
Piramide caratterizzata dalla proprietà di avere ciascuna delle facce
uguale al quadrato costruito dell’altezza
Questo passo, nonostante la perplessità sull’interpretazione, sarebbe più corretto
considerarlo come prova indiziaria e non una vera testimonianza; in ogni caso è
sufficiente una semplice verifica per trovare l’originale passo43 di Erodoto:
Per la costruzione della Piramide occorsero vent’anni. Essa è quadrata.. Presenta da tutti i lati una faccia di otto plettri, un’altezza uguale.
43
tratto da Erodoto, Storie - Libro II 124:5
97
Figura 45: Ricostruzione del Partenone
È di pietre levigate e perfettamente connesse, di cui nessuna misura
meno di trenta piedi.
Quindi, nello scritto originale non esiste alcun riferimento al quadrato dell’altezza,
anzi la pseudo-citazione di Erodoto non assomiglia affatto all’originale.
È facile concludere che il testo di Erodoto non può essere considerato una testimonianza della presenza di ϕ nel monumento; difatti il buon senso ci suggerisce che
la peculiarità è da considerare una coincidenza del tutto fortuita che ha subito una
manipolazione numerica derivante dal fascino del misticismo da cui taluni sono
fatalmente attratti.
Partenone
Alcuni studiosi ritengono che la facciata del Partenone possa essere inquadrata in
base
un rettangolo aureo (cioè proporzionato secondo il rapporto aureo
= ϕ)
altezza
supportando tale tesi attraverso le proporzioni di vari fregi.
Anche qui vi è una forte critica poiché si osserva una metodologia inesistente,
attraverso imprecisioni e arbitrarietà nella scelta dei punti di riferimento: sono
contestate sia la sistematica differenza nei valori delle misurazioni (per loro natura oggettive) tra le fonti, sia scelte per far quadrare i rapporti dimensionali con le
ipotesi. Per quest’ultimo aspetto è utile evidenziare che spesso non si considerano
elementi ritenuti marginali, ed è evidente che non lo sono nell’ottica architettonica,
ma esclusivamente per evidenziare rapporti che altrimenti non sarebbero nemmeno
vicini a ϕ; ad esempio, la più estrema esclusione avviene per il basamento.
98
Nonostante non sia possibile escludere che alcuni matematici conoscessero il rapporto aureo prima degli Elementi di Euclide (circa 300 a.C.), né che taluni artisti
già utilizzassero ϕ nelle proprie opere, si evidenzia che la costruzione del Partenone risale al V secolo (termina nel 438 a.C.), e quindi la realizzazione architettonica
è precedente più di un secolo rispetto alla prima formalizzazione matematica del
rapporto aureo44 .
Palazzo di Vetro
La sede dell’Organizzazione delle Nazioni Unite (v. Figura 46) è ultimamente
portata come esempio nell’architettura contemporanea di applicazione del rapporto
Figura 46: Palazzo di Vetro
aureo. Il palazzo misura 154 m di altezza ed è largo 87,5 m; quindi
154
= 1.76
87, 3
valore che si avvicina a ϕ con un’approssimazione di circa l’8%, producendo un
sorriso per la tesi inizialmente riportata ed una conclusione rapida dell’analisi.
Psicologia
Nell’Ottocento iniziarono i primi studi psicologici per confermare la presunta preferenza estetica per la sezione aurea; famoso è lo studio di Gustav Theodor Fechner
riportato nel Manuale d’estetica, edito nel 1879, che lo proietta a fondatore della
44
solitamente la formalizzazione matematica, appartenente all’ambito teorico, precede di molto
tempo le applicazioni; sottolineo che questa considerazione spesso si dimentica nell’evidenziare la
non utilità applicativa intrinseca della matematica pura
99
psicologia sperimentale.
Fechner condusse esperimenti per testare la preferenza estetica delle persone e al
contempo misurò tantissimi oggetti di uso quotidiano; nonostante solo la prima
delle tre modalità di ricerca da lui utilizzate supportasse la sua ipotesi, confermò la
tesi della preferenza dell’uomo per il rapporto aureo.
Da subito il testo attirò forti critiche per la metodologia, certamente all’avanguardia, ma non compatibile con il metodo sperimentale, che prevede accuratezza45
affinché la ricerca sia ripetibile alle stesse condizioni.
Negli anni successivi la tesi di Fechner è stata oggetto di ripetute verifiche, ma solo
alcuni studi l’hanno convalidata. In ogni caso i lavori favorevoli alla tesi fechneriana sono diminuiti, anzi sono aumentati quelli che ridicolizzano tale tesi; il più
noto è il lavoro di Holger Höge intitolato The golden section hypothesis - ist last
funeral che probabilmente pone termine a tutte le speculazioni.
Arte
Nell’arte spesso si citano opere in cui sono presenti le proporzioni auree, ma se
consideriamo le onnipresenti imprecisioni di misurazione e le consuete scelte arbitrarie dei punti di riferimento, ripeteremmo le considerazioni di pag. 98, per cui la
tesi è verosimile solo in alcuni casi.
Pittura
Diffusamente si ritiene che molti pittori abbiano utilizzato la sezione aurea, rintracciabile in particolari più o meno estesi, iscritti in un rettangolo aureo.
Tra i precedenti pittori, molti sono prerinascimentali, pertanto si può escludere che
conoscessero le proporzioni auree. È altresì essenziale che per ipotizzare verosimile l’uso consapevole del rapporto aureo, manca l’ammissione e quindi, nonostante
il dibattito accademico sia ancora aperto, possiamo escludere che sia utilizzo nelle pitture prerinascimentali. Tra le pitture a cui si associa l’utilizzo della sezione
aurea spiccano quelle di Leonardo Da Vinci (v. Figura 47(a) e Figura 47(b)),
illustratore d’eccezione del Liber Abaci, pertanto conoscitore delle proporzioni auree, ma non necessariamente utilizzatore delle stesse nei suoi dipinti. Altri studiosi
ipotizzano che nelle pitture di Leonardo Da Vinci, la presenza del rettangolo aureo
non sia consapevole, ma sia conseguente alla riproduzione fedele del corpo umano
nel quale è ripetutamente presente il rapporto aureo (quest’aspetto sarà esaminato
45
non esistendo la psicologia sperimentale, non esisteva neanche un metodologia ortodossa, pertanto non eseguì esperimenti seguendo modelli standard (in effetti, non è stato possibile ripetere i
suoi esperimenti perché, non essendo documentata la sua metodologia nei minimi particolari, non si
è potuto ricostruirla nei dettagli)
100
(a) San Gerolamo
(b) La Gioconda
Figura 47: Dipinti di Leonardo Da vinci in cui sono evidenziati particolari che alcuni studiosi ritengono si possano iscrivere in un
rettangolo aureo
di seguito).
Più verosimile fu il caso del pittore francese Georges Seurat che, con un largo uso
di tratti rettangolari (v. Figura 48) ha indotto una forte diffusione della sezione
aurea.
L’uso della sezione aurea muta in epoca più recente ed uno dei primi ad utilizzarla
fu Paul Sèrusier (1864-1927) per sua ammissione. La storia vuole che a seguito
di una visita del 1896 ad un amico pittore, l’olandese Jan Werkade, presso un monastero di Benedettini nella Germania, apprese da un gruppo di monaci le misure
sacre, tra le quali vi era la sezione aurea.
Sèrusier ha avuto il merito di diffondere la conoscenza della proporzione aurea e,
probabilmente a causa dell’aura mistica legata all’originale utilizzo nella pittura, le
opere pittoriche si sono moltiplicate; in quel periodo, la densità critica di diffusione
della conoscenza del rapporto aureo fu superata, con il conseguente sdoganamento
in campi diversi (ad esempio scultura) e in aree geografiche diverse (oltreoceano).
Nonostante oramai esistano tanti esempi del suo utilizzo, continuano le false associazioni della pittura contemporanea; la più celebre è quella dell’utilizzo della
sezione aurea da parte dell’olandese Piet Mondrian, il quale si limitò ad utilizzare
101
Figura 48: La parata del circo
varie forme rettangolari e linee orizzontali e verticali.
Scultura
La scultura è ricca di falsi riferimenti di applicazione della sezione aurea, probabilmente per le difficoltà intrinseche delle operazioni di misurazione; in ogni caso,
si dovranno attendere le applicazioni di ϕ nella pittura e, solo successivamente,
artisti poliedrici la impiegheranno anche nella scultura, favorendone la diffusione
in quest’ultimo campo.
Musica
Da molti è ritenuto che la musica abbia molti legami con la sezione aurea; è possibile suddividere due aspetti, struttura degli strumenti musicali e struttura della
musica.
Per quanto riguarda la struttura degli strumenti, solitamente si fa riferimento al violino ed al piano.
Nel caso del violino, elemento strutturale in oggetto è la cassa armonica: l’arco che
ne costituisce la base si può spesso identificare con il centro di curvatura, situato in
posizione aurea rispetto alla lunghezza complessiva dello strumento.
Nel pianoforte la struttura della tastiera è suddivisa in ottave costituite da 13 tasti,
di cui 8 bianchi e 5 neri, a loro volta suddivisi in gruppi da 2 e 3 tasti ciascuno:
102
facile il parallelismo con la successione di Fibonacci con la sequenza 2, 3, 5, 8,
13. In entrambi i casi precedenti, sia per il violino sia per il pianoforte non ci sono conferme che tali accorgimenti geometrici conferiscano un suono più piacevole
allo strumento, trattandosi di evoluzioni strutturali in alcuni casi non dettate da motivazioni acustiche, con parallelismi forzati per la sezione aurea.
Per quanto riguarda il piano compositivo, i rapporti aurei (attraverso la serie di
Fibonacci) possono essere confrontati con tantissimi elementi quali, ad esempio,
la durata temporale di un brano, numero di note e battute. Avendo a disposizione tantissimi riferimenti, è semplice trovare qualche esempio e, pertanto, è facile
congetturare l’uso della sezione aurea; se applichiamo la regola secondo la quale l’intenzionalità ne produce l’utilizzo, in tempi recenti, attraverso i sintetizzatori
elettronici tantissimi autori hanno utilizzato sequenze della successione di Fibonacci: ad esempio, l’album Octavarium della band statunitense Dream Theater è
interamente ispirato al rapporto tra i numeri 8 e 5, ed in particolare la melodia
dell’ultimo brano dura 24 minuti esatti (8 · 3), diviso in 5 movimenti.
Letteratura
Probabilmente non sapendo come impiegare il tempo, qualcuno ha cercato il rapporto aureo nella letteratura e, in particolare, nella poesia. Oggetto dello studio è
stata la metrica dell’Eneide di Virgilio: l’analisi effettuata da George Duckworth
dell’università di Princeton è stata ripetuta ed è stata confutata, rilevando assoluta
casualità nei rapporti.
Nonostante le analisi non abbiano condotto ai risultati sperati, la letteratura si è
arricchita di una simpatica opera poetica ispirata alla sezione aurea, opera a sfondo
umoristico, scritta dal matematico Paul Bruckman intitolata Costantly Mean, pubblicata nel 1977 nella rivista matematica The Fibonacci quarterly, in cui in versi
sono decantate alcune proprietà algebriche del numero (vedi [Liv07]).
Biologia
In biologia esistono molti sistemi in cui è possibile riscontrare l’utilizzo di alcuni
numeri della sequenza di Fibonacci.
Noto è l’esempio della morfogenesi del girasole, il quale ha una notevole infiorescenza del capolino. I fiori del girasole si differenziano in:
esterni: fiori dei petali ed hanno esclusivamente funzione estetica poiché sterili;
interni: fiori del disco che maturano in frutti della pianta contenenti semi.
103
(a) Tipico girasole di campo
(b) Illustrazione del modello di Vogel derivante dal modello a spirale
di Fermat
Figura 49: Illustrazione di un tipico girasole di campo e di una
illustrazione del modello di Vogel
I fiori all’interno del disco si dispongono secondo uno schema a spirale, in cui le
spirali disposte in senso orario e quelle disposte in senso antiorario costituiscono
due numeri successivi della successione di Fibonacci (solitamente sono 34 spirali
in un senso e 55 nell’altro, ma in girasoli grandi possono essere anche 89 spirali in
un senso e 144 nell’altro).
Si può immaginare che la spiegazione del fenomeno sia da ricercare nell’evoluzione che probabilmente ha imposto il mantenimento di un maggior numero di semi
affinché ci siano maggiori probabilità di riproduzione.
È necessario evidenziare che le regole della fillotassi appena descritte non sono
generali, pertanto si ritiene siano solo delle affascinanti tendenze.
Corpo umano
Per completezza, analizzo anche l’associazione del numero d’oro con il corpo umano, in quanto è possibile trovarla in alcuni documenti; come sarà palesemente evidente di seguito, le relazioni con ϕ sono improponibili forzature.
Di seguito riporto due esempi che non ho mai verificato per intuibile discutibilità:
- la distanza dal gomito sino alla mano con le dita tese moltiplicato ϕ è uguale
alla lunghezza del braccio;
- la larghezza della bocca moltiplicato ϕ è uguale alla distanza esterna tra gli
occhi.
104
Conclusioni
Sino al Rinascimento non c’è alcun riferimento esplicito alla sezione aurea che, più
semplicemente, era definita sezione o, come scrisse Euclide “. . . divisione in media
ed estrema ragione”. Dalle sezioni precedenti, nonostante siano emerse notevoli
forzature, sono altresì emerse alcune coincidenze, in cui è verosimile l’utilizzo di
ϕ solo in pochi casi, ed è stato diffusamente utilizzato solo in opere recenti.
Ci può aiutare la seguente domanda: “Se abbiamo un disegno costruito anche con
poche linee, quanto è probabile individuare il numero ϕ?”. Anche se in molti casi
il calcolo delle probabilità e l’intuito umano non concordano, è correttamente intuibile che, avendo a disposizione un piccolo numero di linee, è semplice individuare
il numero ϕ46 , anche con una tolleranza minima.
La questione si traduce nella seguente domanda: “Cosa c’è di vero in ϕ?”. È stato
oggi accertato definitivamente che non esiste una preferenza per ϕ. ϕ è un numero
come ogni altro. I ϕedeli47 non concordano affatto: in passato sono stati eseguiti tanti studi e, in effetti, diversi provano statisticamente una qualche propensione
estetica dell’uomo per il numero d’oro.
È innegabile, però, che con il tempo la metodologia si è affinata: è ovvio che i
precedenti studi siano stati affetti da errori metodologici (in più di qualche occasione gli errori sembrano volontari): oggi possiamo affermare con certezza che
non c’è nessuna propensione affinché un uomo scelga o disegni un rettangolo aureo. L’unica consolazione che rimane ai ϕedeli è la grande proprietà aritmetica di
ϕ, null’altro.
È utile riportare, come è scritto in un articolo48 pubblicato nel 1968 dal The Fibonacci Quarterly, che il colonnello R. S. Beard di Berkley consiglia “Dunque tirate
i dadi e sceglietevi la vostra teoria”.
46
47
o un qualunque altro numero si nell’intorno dell’unità
da recenti critiche, sono stati così definiti coloro che sono rimasti fedeli alla validità estetica di
ϕ
48
tratto dal già citato [Liv07]
105
106
Il numero più grande
L’immaginazione ci permette
di immaginare entità maggiori
di quanto possiamo immaginare.
Anonimo
“Qual è il numero più grande?”. La prima
risposta che potrebbe venire in mente è “Il numero più grande è infinito49 ”.
In effetti con ∞ si intende una quantità infinita, e poiché non è propriamente identificabile con un numero, la risposta precedente non è corretta.
Pertanto si potrebbe rispondere: “Non considerando la quantità ∞, ogni numero
ha almeno un numero più grande50 , quindi non esiste il numero più grande in
senso assoluto”. È senz’altro vero, pertanto la questione affrontata in questa sezione rimane aperta; si potrebbe però riproporla in altri termini: “Qual è il numero
più grande che riesco a pensare il cui nome scritto letteralmente non è composto
da numeri più piccoli”. Ad esempio dieci, cento, mille, un milione sono numeri che scritti letteralmente possono considerarsi atomici, ma diecimila è composto
da dieci e mille, duemilioni è composto da due e milione, centoventicinquetrilioninovantanovebilionitrecentomiladue è composto da cento, venti, cinque, trilione,
novanta, nove, bilione, tre, cento, mille e due. Non saprei cosa risponderebbe il generico lettore, che potrebbe pensare bilione, oppure trilione51 , ma esistono numeri
poco comuni che sono assolutamente non comparabili con le quantità che riusciamo ad immaginare; questo aspetto sarà più chiaro tra breve. Esaminerò brevemente
i numeri più grandi presenti nella letteratura:
S
EMBREREBBE una domanda banale:
googol: È pari a 10100 , cioè 1 seguito da cento zeri.
49
di seguito utilizzerò il corrispondente simbolo ∞
scrivere almeno un numero equivale, non formalmente, ma sostanzialmente, a infiniti numeri:
nella letteratura matematica è preferita la forma almeno un
51
per essere precisi, anch’essi possono essere considerati etimologicamente numeri composti;
si veda la Tabella 4, in cui più si scende di livello e meno utilizzati (e lessicalmente meno
accettabili/accettati) saranno tali numeri
50
107
valore
scala breve
100
103
106
109
1012
1015
1018
1021
1024
1027
1030
1033
1036
1039
uno
mille
milione
bilione
trilione
quadrilione
pentilione
esilione
eptilione
ottilione
ennilione
decilione
endecilione
dodecilione
logica della
scala breve
1.0001−1
1.0001+0
1.0001+1
1.0001+2
1.0001+3
1.0001+4
1.0001+5
1.0001+6
1.0001+7
1.0001+8
1.0001+9
1.0001+10
1.0001+11
1.0001+12
scala lunga
uno
mille
milione
miliardo
bilione
biliardo
trilione
triliardo
quadrilione
quadriliardo
pentilione
pentiliardo
esilione
esiliardo
logica della
scala lunga
1.000.0000
1.000.0000,5
1.000.0001
1.000.0001,5
1.000.0002
1.000.0002,5
1.000.0003
1.000.0003,5
1.000.0004
1.000.0004,5
1.000.0005
1.000.0005,5
1.000.0006
1.000.0006,5
Tabella 4: Nomi di numeri grandi: la scala breve è utilizzata, ad esempio, negli USA e recentemente in Gran Bretagna, la scala lunga è
utilizzata, ad esempio, nell’Europa continentale, compreso l’Italia.
Nella scala breve, i termini pentilione, esilione, eptilione, . . . , sono
talvolta sostituiti rispettivamente con gli equivalenti quintilione, seilione, settilione, . . . ; nella scala lunga talvolta il termine miliardo
può essere sostituito da migliaia di milioni, biliardo con migliaia di
bilioni, triliardo con migliaia di trilioni, . . .
gooplex: È pari a 10googol , cioè 10 alla googol-esima, cioè 10 moltiplicato per se
stesso un googol di volte, risultando 1 seguito da un googol di zeri.
numero di Graham: È così chiamato in onore di Ronal Graham ed è il numero
più grande che sia stato utilizzato in una dimostrazione matematica. Per
esprimere tale quantità, non è sufficiente ricorrere alla notazione classica,
ma è necessario utilizzarne una nuova (notazione di Knuth).
Megistron: È il più grande a cui sia stato dato un nome. Come il numero di Graham, per esprimerlo si dovrà ricorrere ad un’ulteriore notazione (notazione
di Steinhaus-Moser).
108
Notazione di Knuth
Nel 1976 Donald Knuth52 introdusse una notazione per esprimere numeri molto
grandi; l’idea base della notazione di Knuth è la scrittura sintetica di iterati elevamenti a potenza, analogamente alla notazione dell’elevamento a potenza per esprimere ripetuti prodotti e, quest’ultimi, rappresentano iterate somme. La maniera più
immediata per comprendere questa nuova notazione è presentare alcuni esempi.
Esempio - Moltiplicazione Iterate addizioni possono essere definite attraverso
l’operazione di moltiplicazione:
a·b=a
| +a+
{z. . . + a}
b volte
Esempio - Potenza Ripetuti prodotti possono essere rappresentati attraverso l’operazione di elevamento a potenza:
ab = a ↑ b = a
| · a ·{z. . . · a}
b volte
Gli esempi precedenti suggeriscono l’operatore doppia freccia (chiamato anche
tetrazione) per esprimere iterati elevamenti a potenza:
a
··
a
a ↑↑ b = b a = a
↑ a ↑ ... ↑ a
|{z} = a
|
{z
}
b volte
b volte
Di seguito alcuni esempi numerici.
3 ↑↑ 2 = 2 3 = 33 = 27
3
3 ↑↑ 3 = 3 3 = 33 = 327 = 7.625.597.484.987
33
3 ↑↑ 4 = 4 3 = 33 = 37.625.597.484.987 = un numero grande
33
3 ↑↑ 5 = 5 3 = 33
3
= 3un numero grande = . . .
Nonostante la notazione tramite operatore doppia freccia permetta di esprimere
numeri molto grandi, Knuth ha esteso ulteriormente la sua notazione introducendo l’operatore tripla freccia (anche chiamato pentazione) il quale esprime l’iterati
operatori doppia freccia:
a ↑↑↑ b = a ↑↑ a ↑↑ . . . ↑↑ a
{z
}
|
b volte a
52
a cui sono particolarmente grato per aver inventato il sistema di composizione tipografia digitale TEX, il quale è alla base del LATEX, linguaggio di markup utilizzato per la creazione di questo
documento
109
Di seguito alcuni esempi.
3
3 ↑↑↑ 2 = 3 ↑↑ 3 = 3 ↑ 3 ↑ 3 = 33 = 7.625.597.484.987
| {z } | {z }
2 volte 3
3 volte 3
3 ↑↑↑ 3 = 3 ↑↑ 3 ↑↑ 3 = 3 ↑↑ (3 ↑ 3 ↑ 3) =
| {z }
| {z }
3 volte 3
3 volte 3
= 3 ↑↑ 7.625.597.484.987 = 3 ↑ 3 ↑ . . . ↑ 3
|
{z
}
3↑↑3 volte 3
Dalla tripla freccia passiamo alla quadrupla freccia:
a ↑↑↑↑ b = a ↑↑↑ a ↑↑↑ . . . ↑↑↑ a
{z
}
|
b volte a
e dalla quadrupla freccia passiamo alla quintupla freccia:
a ↑↑↑↑↑ b = a ↑↑↑↑ a ↑↑↑↑ . . . ↑↑↑↑ a
|
{z
}
b volte a
e così di seguito. Generalizzando:
a ↑↑ . . . ↑ b = a ↑↑ . . . ↑ a ↑↑ . . . ↑ a . . . a ↑↑ . . . ↑ a
| {z }
| {z }
| {z } | {z }
n−1
n−1
n−1
n volte
|
{z
}
b volte a
Può accadere che il numero di frecce che compongono l’operatore freccia è elevato,
pertanto solitamente si sintetizza attraverso la seguente notazione alternativa:
a ↑↑ . . . ↑ b = a ↑n b
| {z }
n
Numero di Graham
Il numero di Graham deriva dallo studio della teoria di Ramsey, in particolare per
il problema seguente:
Consider an n-dimensional hypercube, and connect each pair of vertices to obtain a complete graph on 2n vertices. Then colour each of the
edges of this graph using only the colours red and black. What is the
smallest value of n for which every possible such colouring must necessarily contain a single-coloured complete sub-graph with 4 vertices
which lie in a plane?
che può essere tradotto:
110
Considerando un ipercubo di n dimensioni, unendone i vertici, si ottiene un grafo completo con 2n vertici. Si colora ogni lato utilizzando
solo i colori rosso e nero; qual è il valore più basso di n per cui ogni
possibile lato colorato necessariamente conterrà un subgrafo completo
monocolore con 4 vertici giacenti in un piano?
Il risultato di tale problema non è noto, ma nel 1971 Graham e Rothschild hanno
dimostrato che tale problema ha soluzione n0 stimando che 6 ≤ n0 ≤ n, con n
molto grande. In un successivo lavoro non pubblicato, Graham valutò tale limite
superiore e, nel 1977, Martin Gardner in Scientific America pubblicò tali risultati
battezzando questo limite superiore come numero di Graham. Formalmente è di
seguito definito:

3 ↑↑↑↑ 3
| {z }




3 ↑↑ . . . ↑ 3

| {z }

..
G=
64 livelli
.






|
{z
}



3 ↑↑ . . . . . . ↑ 3
in cui il valore espresso da ogni livello indica il numero di frecce dell’operatore al
successivo livello, sino a raggiungere l’ultimo livello (il 64o ).
In maniera equivalente, possiamo definire ricorsivamente:
G = g64 in cui g1 = 3 ↑↑↑↑ 3, gn = 3 ↑gn−1 3
Notazione di Steinhaus-Moser
La notazione di Steinhaus-Moser può essere utilizzata per esprimere numeri grandissimi attraverso una notazione poligonale. Ad esempio:
(il numero n inserito in un triangolo) equivale a nn ;
(il numero n inserito in un quadrato) equivale al numero n inserito in n triangoli;
(il numero n inserito in un pentagono) equivale al numero n inserito in n
quadrati.
111
Nel caso generale, n inserito in un poligono di m + 1 lati equivale al numero n
inserito in n poligoni di m lati, tutti consecutivi.
Per esempio, il numero 3 in due triangoli è equivalente a 33 in un triangolo, il quale
è equivalente ad elevare 33 alla potenza di 33 ; formalmente:
triang(triang(3)) = triang(33 )) = triang(27))) = 2727 =
= 443.426.488.243.037.769.948.249.630.619.149.892.803
L’originale notazione di Steinhaus definisce solo il triangolo, il quadrato ed il
cerchio, equivalente al pentagono precedente. Steinhaus ha introdotto i seguenti
numeri:
Mega, equivalente ad un due in un cerchio: 2 ;
Megistron, equivalente ad un dieci in un cerchio: 10 .
Per estensione, nella notazione di Steinhaus-Moser si generalizza il numero di lati
del poligono, introducendo il numero di Moser tramite un due in un megagono,
cioè un poligono costituito da Mega-lati;
Mega
2 è un numero elevatissimo poiché:
2 = quad(quad(2)) = quad(triang(triang(2))) =
= quad(triang(22 )) = quad(triang(4)) =
= quad(44 ) = quad(256) =
= triang(triang(. . . triang(256). . . )) =
|
{z
}
256 triangoli
= triang(triang(. . . triang(256256 ). . . )) ∼
=
{z
}
|
255 triangoli
∼
= triang(triang(. . . triang(3, 2 · 10216 ). . . )) ∼
=
|
{z
}
255 triangoli
∼
= ...
È possibile dimostrare che il Mega si approssima al valore 256 ↑↑ 257, in particolare è vera la seguente disuguaglianza:
10 ↑↑ 257 < Mega < 10 ↑↑ 258
pertanto, nonostante il Mega sia un numero grandissimo, è notevolmente inferiore
al numero di Graham.
112
Megistron
Il numero 10 è stato introdotto nel 1983 ed è il numero più grande a cui sia stato
dato un nome. Considerando l’estrema grandezza, è possibile effettare solo alcune
espansioni:
10 = quad(quad(. . . quad(10). . . )) =
|
{z
}
10 quadrati
= quad(quad(. . . quad(triang(. . . triang(10)) . . .)) =
|
{z
}|
{z
}
9 quadrati
10 triangoli
= quad(quad(. . . quad(triang(. . . triang(1010 )) . . .)) =
|
{z
}|
{z
}
9 quadrati
9 triangoli
10
= quad(quad(. . . quad(triang(. . . triang((1010 )10 )) . . .)) =
|
{z
}|
{z
}
9 quadrati
8 triangoli
= ...
Complementi
Tale sottosezione approfondirà la magnitudo di alcune grandezze e la relazione
seguente:
Mega numero di Moser numero di Graham
Prima di esaminare ulteriormente tale relazioni, riscriviamo la notazione di SteinhausMoser utilizzando tale accorgimento: M (n, m, p) equivale al numero n dentro m
poligoni ognuno di p lati.
Di seguito alcuni esempi.
Esempio - Potenza
M (n, 1, 3) = triang(n) = nn
Esempio - Riduzione di lato
M (n, 1, p + 1) = M (n, n, p)
Ad esempio, quad(n) = triang(. . . triang(n) . . .)
|
{z
}
n triangoli
113
Esempio - Scomposizione
M (n, m + 1, p) = M (M (n, 1, p), m, p)
Ad esempio, quad(quadrato(n)) = quad(quad(n))
|
{z
}
| {z }
M (n,2,4)
M (n,1,4)
|
{z
}
M (·,1,4)
Dagli esempi precedenti, possiamo esprimere:
Mega = M(2,1,5)
Moser = M(2,1,M(2,1,5))
Precedentemente, nell’espansione di Mega abbiamo trovato questa relazione:
Mega = M (2, 1, 5) = M (256, 256, 3)
Se definiamo la funzione f (x) = xx , Mega è definito f 256 (256) = f 258 (2), in cui
l’esponente definisce l’applicazione della medesima funzione esponente-volte.
Per intuire l’ordine di grandezza del Mega = M (256, 256, 3), si riportano di seguito alcune valutazioni.
256
1 ·256256
M (256, 2, 3) = (256256 )256
= 256256
2561+256
256257
= 256
257
M (256, 3, 3) = (256256
= 256
256257
)256
257
256257+256
= 256
256
M (256, 4, 3) ∼
= 256256
256
M (256, 5, 3) ∼
= 256256
...
=
257 ·256256257
= 256256
∼
= 256
=
257
256256
256257
256256
257
Utilizzando la notazione di Knuth, possiamo scrivere:
Mega = M (256, 256, 3) ∼
= 256 ↑↑ 257
Per quanto riguarda il numero di Moser, utilizzando la notazione di Knuth è stata
dimostrata la seguente disuguaglianza:
Moser < f (f (f (4))), con f (n) = 3 ↑n 3
Quindi, nonostante il numero di Moser sia elevatissimo, la sua magnitudo è non
comparabile al quella del numero di Graham:
Moser f 64 (4) = numero di Graham
114
Quando è iniziato il nuovo
millennio?
Ab Urbe condita
2754
cinese
4697 – 4698
ebraico
5760 – 5761
induista
Vikram Samvat 2056 – 2057
Shaka Samvat
1923 – 1924
Kali Yuga
5102 – 5103
persiano
1379 – 1380
islamico
1421 – 1422
bizantino
7509 – 7510
berbero
2951
runico
2251
Corrispondenza dell’anno 2001
del gregoriano negli altri calendari
domanda sintetizza un dubbio impresso nella mente di molte persone,
derivante dalla convinzione storica che l’anno zero non sia esistito, in contrapposizione alla deduzione matematica che, passando dall’anno 1999 al 2000, si
superi la linea di demarcazione delle migliaia. Analizziamo più a fondo questa
antitesi, partendo dalla considerazione storica.
Q
UESTA
Molti conoscono la storia di Dionigi il Piccolo, dotto monaco che visse a Roma tra
il V ed il VI secolo. La sua notorietà è conseguente al tentativo di calcolare la data
di nascita di Gesù, collocandola nell’anno 753 della fondazione di Roma. Oggi il
calendario più diffuso è quello gregoriano, sviluppato secondo tale schema.
Da notare la scelta del riferimento per la numerazione, la data dell’Incarnazione
del nostro Signore Gesù Cristo (ab Incarnatione Domini nostri Iesu Christi), deducendo la stessa dai Vangeli e da documenti storici. Il riferimento è stato scelto
115
in modo insolito, poiché in quell’epoca si fissava come origine la data della fondazione di Roma o l’inizio del regno di Diocleziano, oppure, meno usualmente, il
principio dei tempi (calcolato secondo convenzioni bibliche).
Ad oggi, la maggioranza degli studiosi ritiene che la data di nascita di Gesù sia
collocata tra il 7 a.C. ed il 4 a.C., quindi alcuni anni prima della data calcolata. In
ogni caso, secondo la dottrina cristiana, il momento dell’Incarnazione di Gesù è
avvenuto all’atto del concepimento e non alla nascita; ma poiché, secondo la stessa
tradizione, la nascita è datata 25 dicembre, quest’ultima ed il concepimento (25
marzo, festa dell’Annunciazione) sono avvenuti lo stesso anno.
Sintetizzando, Dionigi il Piccolo stabilì la data di concepimento di Cristo, gli anni
successivi li numerò d.C. (dopo Cristo53 ) e quelli precedenti a.C. (avanti Cristo54 ).
Passiamo alla considerazione matematica. Riporto di seguito un passaggio tratto
dal testo [Zic02]55 :
Qualcuno potrebbe obiettare che nella storia non si ritrovano avvenimenti datati nell’anno Zero. Fermi direbbe: “Tanto peggio per gli
storici”. Dovremmo forse decidere di adottare una nuova aritmetica
senza lo Zero? In modo da contare gli anni nostri stabilendo di averne
uno in più in quanto gli storici non trovano alcun evento datato nell’anno Zero? Dovremmo dire che un bambino celebra il suo primo
compleanno quando vede la luce, non un anno dopo?
Per comprendere tale citazione è necessario distinguere tra numeri ordinali e cardinali (v. Scheda di approfondimento). Ad esempio, nel caso temporale, il primo
cardinale è 0 ed indica l’origine, il primo ordinale è 1o ed indica l’intervallo (temporale) tra i cardinali 0 e 1.
Si consideri la Figura 50 che rappresenta l’andamento dell’età di un bambino, sia
tramite i numeri ordinali, sia tramite i cardinali.
È possibile osservare, ad esempio, la nascita (coincidente con l’evento nascita), il
1o anno di nascita (coincidente con 1o anno), il compimento del 1o anno (coincidente con 1 anno), il 2o anno (coincidente con 2o anno), il compimento del 2o anno
(coincidente con 2 anni).
Supponiamo che tale bambino sia Gesù, pertanto il 1o anno sia il 1 d.C., il 2o anno
sia il 2 d.C., . . . . Questo ci permette di ripetere il lavoro di Dionigi il Piccolo il
53
A.D., anno domini
B.C., before Christ
55
purtroppo tale testo riporta una conclusione errata per il festeggiamento del nuovo millennio,
affermando che dovrebbe avvenire nel passaggio tra 1999 d.C. e 2000 d.C.
54
116
Scheda di approfondimento
Gli ordinali sono comunemente utilizzati per indicare una posizione in una
sequenza di elementi; alcuni esempi di ordinali sono:
1o
2o
3o
4o
5o
6o
=
=
=
=
=
=
primo
secondo
terzo
quarto
quinto
sesto
I numeri cardinali sono gli ordinari numeri; ad esempio:
0=
1=
2=
3=
4=
5=
6=
zero
uno
due
tre
quattro
cinque
sei
Generalmente i cardinali indicano una misura puntuale, mentre gli ordinali
rappresentano un intervallo.
1° anno
0
nascita
2° anno
1
6° mese
fine del
1° anno
1 anno
2
inizio del
2° anno
fine del
2° anno
inizio del
3° anno
2 anni
Figura 50: Nella figura è rappresentata la nascita e l’evoluzione nei
primi anni di un bambino
quale ha utilizzato gli ordinali per la numerazione degli anni (v. Figura 51).
Come evidente, utilizzando gli ordinali, Dionigi il Piccolo non ha utilizzato il numero 0: non è importante che lui non conoscesse tale numero (introdotto in Europa
da Leonardo Fibonacci nel 1202), poiché solo utilizzando i cardinali ne avrebbe
avuto necessità.
Tale questione ha una semplice conseguenza che può essere visualizzata nella Fi117
Figura 51: Nella figura sono rappresentati i primi anni a.C. e d.C.
gura 52: se la data odierna è, ad esempio, 8 agosto 2008, significa che siamo nel
Figura 52: Nella figura sono rappresentati i primi millenni a.C. e d.C.
2008o anno d.C., quindi il 2008 è l’anno corrente (non ancora concluso); ciò implica che il calendario mostra una notazione non corretta, in quanto si confondono
gli ordinali con i cardinali: sarebbe più corretto scrivere 8 agosto 2008o .
Se volessimo utilizzare i cardinali, molto più comodi, possiamo scrivere alcune
osservazioni:
anno 0: inizia il 1 gennaio del 1 d.C. e termina il 31 dicembre del 1 d.C.56 ;
anno 1: inizia dal 2 d.C. e termina alla fine del 2 d.C.;
anno 1000: inizia dal 1001 d.C. e termina alla fine del 1001 d.C.;
anno 2000: inizia dal 2001 d.C. e termina alla fine del 2001 d.C..
Se utilizzassimo i cardinali ci saremmo accorti senza problemi che il III millennio
inizia con l’anno 2000, che, utilizzando gli ordinali, coincide con l’anno 2001 d.C.
Sintetizzando, non è vero che:
l’anno 0 non è esistito: se si utilizzano i numeri cardinali invece dei soliti ordinali, appare evidente la falsità di tale affermazione;
56
sarebbe più corretto scrivere inizia contestualmente con l’inizio del 1 gennaio del 1 d.C. e termina contestualmente con il termine del 31 dicembre dello stesso anno; si è preferito non appesantire
il testo
118
l’anno 2000 d.C. è l’inizio del III millennio: per essere corretti, si dovrebbe scrivere anno 2000o , che termina il 31 dicembre 2000, in coincidenza dell’inizio
dell’anno 2000 se utilizziamo i cardinali.
Quindi, l’inizio del III millennio coincide con il passaggio dal 31 dicembre 2000
al 1 gennaio 2001, cioè tra il 2000o e il 2001o se utilizziamo gli ordinali, 1999 e
2000 se utilizziamo i cardinali.
119
120
La casualità
Come possiamo parlare di leggi del caso?
Non è forse il caso l’antitesi di ogni legge?
Bertrand Russell
casualità è uno dei concetti più utilizzati e, al contempo, meno compresi che
la mente umana abbia mai prodotto. È di dominio popolare che la casualità
sia associata al concetto di incapacità di conoscere un sistema, o più semplicemente, ignoranza del sistema.
L
A
Storicamente, il dibattito sulla casualità è nato in seguito alle discussioni sul tema
della causalità. Nella visione della fisica classica, la meccanica newtoniana associava ad ogni causa certa un effetto certo. In questo quadro laplaciano, l’idea di
evento casuale si identifica come ignoranza soggettiva.
La fisica moderna ha ribaltato il concetto di casualità, affermando che essa non
dipende dal non conoscere totalmente il sistema, ma dall’impossibilità intrinseca
della conoscenza esatta. In maniera più rigorosa, l’interpretazione classica ritiene che qualunque processo (in quanto deterministico) conduca ad inferenze certe;
l’interpretazione moderna, invece, ingloba il concetto di casualità quale principio
di natura.
Questo principio non è stato sintetizzato dalla comunità scientifica senza un salto
culturale notevole, tanto che Einstein coniò la famosa frase “Dio non gioca a dadi”, ammettendo successivamente il suo grossolano errore.
Nel mondo macroscopico (cioè il quotidiano per tutti noi) abbiamo estrema confidenza con eventi casuali quali, per eccellenza, sono il lancio di una monetina o di
un dado57 .
L’impredicibilità nel mondo macroscopico è giustificata dalla teoria del caos. Alternativamente, nel mondo microscopico non è possibile prescindere dalla mecca57
i più precisi potrebbero obiettare che, per questi oggetti, solo nel caso ideale il centro di massa
coincide con quello geometrico, per cui la probabilità associata (frequenza ideale) non coincide con
la frequenza osservata; in ogni caso sarebbe accettabile lo scarto
121
nica quantistica, e dalla sua ineluttabile intrinseca impredicibilità. In questo contesto è poco interessante (e sarebbe inutilmente complesso) analizzare più a fondo
questo aspetto.
Vorrei invece osservare che, realizzare un efficiente meccanismo il quale produca
rapidamente casualità, è estremamente complesso. Ad esempio, è difficile creare un meccanismo che produca numeri casuali da 1 a 7 per 1000 volte. L’idea
che potrebbe balenarci in testa è l’analogia con un dado, ma questo ha solo sei
facce e, comunque, non sarà né banale né rapido ripetere 1000 lanci. Fortunatamente questo problema è stato risolto elegantemente dall’informatica, attraverso
l’implementazione del corpus di conoscenze matematiche e fisiche.
La matematica impredicibile (pseudocasualità)
Sono stati sviluppati diversi metodi matematici per generare sequenze di numeri
randomici. Quanto appena scritto potrebbe sembrare molto strano, e in effetti è necessario essere più precisi. La randomicità trattata in ambito matematico è meglio
definita come pseudocasualità, proprio per evidenziare la caratteristica (talvolta solo apparente) di imprevedibilità, ma non sostanziale casualità.
Gli algoritmi per generare numeri pseudocasuali, definiti PRNG (pseudorandom
number generator) utilizzano formule matematiche, o semplicemente tabelle precalcolate, per produrre sequenze numeriche che sembrano casuali. È evidente che
l’utilizzo di formule matematiche sia in apparente antitesi con il concetto di casualità, ma in seguito sarà altrettanto evidente che la pseudocasualità è la forma
randomica più utilizzata.
Di seguito saranno mostrati gli algoritmi più importanti.
Generatori lineari congruenziali
Un generatore lineare congruenziale (LCG, linear congruential generator) è un
algoritmo della forma:
Xn+1 = (aXi + c) mod m
in cui Xn rappresenta il valore ennesimo della sequenza pseudorandomica, mod
rappresenta l’operatore modulo, a, c, m e X0 sono valori arbitrari, determinanti
per il livello di imprevedibilità della sequenza. I numeri generati saranno compresi tra 0 e m − 1 e presenteranno una periodicità inferiore o uguale ad m. Nel
caso l’algoritmo generi una sequenza con tutti i numeri interi tra 0 e m − 1 (compresi questi ultimi), la sequenza sarebbe definita di periodo pieno. Si presenta un
122
semplice esempio con a = 3, c = 6, m = 5, X0 = 1. che corrisponde al modello
Xi+1 = (3Xi + 6) mod 5
La sequenza generata è:
X1 = (3X0 + 6) mod 5 = 4
X2 = (3X1 + 6) mod 5 = 3
X3 = (3X2 + 6) mod 5 = 0
X4 = (3X3 + 6) mod 5 = 1
X5 = (3X4 + 6) mod 5 = 4
Si nota che il periodo è uguale a 4 (sequenza di base 4, 3, 0, 1).
Si dimostra che l’algoritmo LCG genera una sequenza di periodo pieno se e solo
se:
- c e m sono primi tra loro;
- a − 1 è divisibile per tutti i fattori primi di m;
- a − 1 è multiplo di 4 se m è multiplo di 4.
La tabella seguente mostra i valori utilizzati da alcuni compilatori.
Compilatore
ANSI C
glibc
Borland C/C++
m
232
232
232
a
1103515245
1103515245
22695477
c
12345
12345
1
Tabella 5: Valori di a, c ed m per alcuni compilatori
Pro e contro: È l’algoritmo che produce sequenze pseudocasuali con maggior
rapidità e minor consumo di memoria. Purtroppo, i numeri della sequenza presentano una correlazione elevata. Nonostante questo ed altri difetti minori, gli LCG
sono molto utilizzati.
123
Registri a scorrimento a retroazione lineare
I registri a scorrimento a retroazione lineare (LFSR, linear feedback shift register)
sono costituiti da registri di traslazione i cui dati in ingresso sono prodotti da una
funzione lineare dello stato. Le uniche funzioni lineari di singoli bit sono l’XOR
(or esclusivo) e l’XNOR (la negazione dell’XOR). Nella tabella seguente sono sintetizzate i 4 casi possibili.
A
0
0
1
1
B
0
1
0
1
A XOR B
0
1
1
0
A XNOR B
1
0
0
1
Tabella 6: Sintesi delle funzioni XOR e XNOR.
I registri che influenzano lo stato successivo sono chiamati tap, la lista di posizioni
che influenza lo stato successivo è chiamata sequenza di tap. Nelle Figure 53 e 54
la sequenza di tap è [8, 6, 5, 3].
Un LFSR è definito massimale se passa attraverso tutti i possibili stati di traslazione, ad esclusione di quello che produce tutti i registri pari a 0.
La sequenza di tap può essere rappresentata tramite un polinomio modulo 2, chiamato polinomio caratteristico (anche polinomio di retroazione). Nel caso in esame, i tap si identificano con l’8o , il 6o , il 5o ed il 3o registro, pertanto il polinomio
associato è
x8 + x6 + x5 + x3 + 1
in cui il termine noto del polinomio non corrisponde ad un tap, ma corrisponde all’input del primo bit, quindi ad x0 (che equivale appunto ad 1). Il primo e l’ultimo
registro sono sempre connessi, rispettivamente, all’input e ad un tap.
Pro e contro: L’algoritmo produce sequenze pseudocasuali con elevatissima rapidità, essendo i registri realizzati in hardware. Purtroppo l’uso di uno schema
LFSR presenta una forte correlazione (sequenze periodiche).
Generatori crittograficamente sicuri58
Gli algoritmi LFSR sono utilizzati massicciamente come generatori in quanto sono
economicamente implementati in hardware. Purtroppo, essi non sono immuni da
58
questa sezione non è necessaria per avere una visione essenziale
124
feedback
1
1
1
1
0
0
1
1
0
1
1
0
0
1
0
0
1
output
(a) Stato iniziale
feedback
1
1
1
1
1
0
0
0
1
1
0
output
1
(b) 1a traslazione
feedback
0
1
1
1
1
output
(c) 2o stato
feedback
0
1
1
1
1
1
1
1
0
output
0
1
1
(d) 2a traslazione
Figura 53: Evoluzione (fino alla 2a traslazione) di un arbitrario schema
LFSR con seme 11001111, con equazione associata x8 +x6 +x5 +
x3 + 1
correlazione, pertanto sono stati implementati diversi schemi per incrementare la
sicurezza.
La tecnica più immediata per rimuovere la linearità consiste nell’applicare a più
125
feedback
1
0
1
1
1
1
0
0
1
0
0
1
1
0
1
1
0
output
(a) 3o stato
feedback
1
0
1
1
1
1
1
1
1
0
1
output
0
(b) 3a traslazione
feedback
1
1
1
0
1
output
(c) 4o stato
feedback
1
1
0
1
0
0
1
1
0
output
1
1
0
(d) 4a traslazione
Figura 54: Evoluzione (fino dal 3o stato) di un arbitrario schema LFSR
con seme 11001111, con equazione associata x8 +x6 +x5 +x3 +1
LFSR che lavorano in parallelo, una funzione booleana non lineare per formare un
generatore non lineare. Un secondo accorgimento consiste nell’usare l’uscita di un
LFSR che, in AND con il clock, pilota il generatore.
126
La fisica impredicibile (casualità vera)
Gli schemi per generare sequenze realmente casuali sono definiti TRNG (true
random number generator), la cui realizzazione avviene tramite un dispositivo che
effettui misurazioni di fenomeni fisici. Si potrebbe idealmente pensare al lancio
di dadi il cui risultato, in qualche modo, sia connesso al computer. In realtà sono
utilizzati fenomeni fisici la cui misurazione è più facile e, contemporaneamente, la
variazione più rapida, cosicché i valori prodotti dal generatore saranno rapidamente disponibili.
Si potrebbe immaginare, ad esempio, che una tipica misurazione randomica possa
essere la rilevazione della temperatura, o della rumorosità di una stanza, oppure
della posizione del mouse sulla superficie, o altro ancora.
Ad una più attenta analisi, la distribuzione dei valori prodotti tramite le misurazioni
precedenti, può essere correlata all’attività umana, quindi teoricamente prevedibile. In altri termini, si potrebbero focalizzare fenomeni il cui controllo (inteso come
attività di modifica dello stato e dell’evoluzione) da parte dell’uomo sia impossibile, una sorta di imperturbabilità. La scelta migliore ricadrà sui fenomeni naturali.
Tra i fenomeni ai quali si rivolge l’attenzione, i maggiori sono quelli regolati da
dinamiche caotiche oppure da effetti quantistici.
Meccanica quantistica
Un metodo per ottenere valori casuali, è la misurazione del decadimento da una
sorgente radioattiva. Il fenomeno del decadimento è assolutamente impredicibile
e, al contempo, può essere facilmente rilevato e reso disponibile per un computer.
Un esempio concreto è offerto da HotBits service, servizio del Fermilab in
Svizzera, il quale rende disponibile i valori di piccole variazioni nel ritardo tra due
rilevazioni successive.
Dinamica caotica
Un secondo metodo per ottenere valori casuali può avvenire attraverso la misurazione di fenomeni atmosferici, ad esempio il rumore elettromagnetico. Esso è
facilmente rilevabile tramite la trasduzione di una comune radio. Quest’approccio
è seguito da RANDOM.ORG, il quale rende disponibile i valori di piccole variazioni
dell’ampiezza del rumore atmosferico.
127
Analisi delle sequenze59
È senz’altro difficile determinare in maniera intuitiva se una sequenza sia casuale;
fortunatamente, la stessa difficoltà non la riscontriamo in campo matematico, in
quanto una serie di parametri permettono di stabilire oggettivamente la randomicità
di una sequenza. Di seguito elenco i principali:
Entropia: misura la quantità di incertezza (o informazione) presente in una sequenza. Intuitivamente, maggiore è l’entropia, maggiore è la randomicità
della sequenza.
Test del χ2 (chi-quadro): è il più comune test per stabilire la randomicità di una
sequenza. È espresso tramite un numero assoluto ed una percentuale, quest’ultima può essere interpretata come indicatore di quanto la sequenza testata sia sospetta di non essere randomica:
- se essa è maggiore del 99% o inferiore all’1% la sequenza è quasi
certamente non casuale;
- se è compresa tra il 95% e il 99% oppure tra l’1% ed il 5%, il sospetto
è fondato;
- se è compresa tra il 90% ed il 95% oppure tra il 5% ed il 10% la
sequenza è tendenzialmente sospetta.
Media aritmetica: è definita come rapporto tra la somma dei valori della sequenza e la lunghezza della stessa.
π secondo Monte Carlo: il metodo è utilizzato per approssimare il valore di π.
Immaginiamo che i numeri della sequenza possano essere identificati con la
coppia (x,y), da collocare in un quadrato in cui è inscritta una circonferenza
di raggio unitario (v. Figura 55). Se per la coppia è verificata la disequazione
x2 +y 2 ≤ 1, allora il numero è interno alla circonferenza, altrimenti è esterna
(quindi si trova nel quadrato e non nel cerchio).
Considerando che il rapporto delle superfici è π4 (l’area del cerchio misura
π, quella del quadrato 4), essa è approssimativamente uguale al rapporto
dei punti che cadono nel cerchio con il numero totale, approssimazione che
migliora aumentando il numero dei punti presi in considerazione60 .
59
questa sezione non è necessaria per avere una visione essenziale, ma la trattazione presentata
permetterà una migliore concettualizzazione
60
la convergenza al valore vero è molto lenta, in particolare l’ordine di convergenza è √1n , con n
numero dei punti
128
(-1,1)
(1,1)
(-1,-1)
(1,-1)
Figura 55: Nella figura sono stati scelti alcuni punti con |x| < 1 e |y| <
1. Se x2 + y 2 < 1, il punto appartiene al cerchio, altrimenti è
esterno
Nel dominio informatico, questi parametri sono stati contestualizzati. In particolare, per determinare la randomicità di un file (che potrebbe contenere, ad esempio,
l’archivio di una sequenza) si analizzano i caratteri contenuti nello stesso. Considerando che un carattere è codificato61 da 00000000 a 11111111 si possono
definire più in dettaglio i parametri precedenti:
Entropia: esprime la densità di informazione contenuta in un file, espressa come
numero di bit per carattere. Poiché un carattere è codificato tramite 8 bit, la
massima densità informativa è 8 bit per byte.
Un file estremamente denso di informazioni è essenzialmente randomico e
sarà difficile la sua compressione. Ad esempio, una entropia di 4,7 bit per
byte indica che un’ottima compressione del file (mantenendo lo stesso conte61
l’ASCII esteso prevede la codifica tramite 8 bit, in decimale da 0 a 255. È utile ricordare che 8
bit costituiscono un byte, quest’ultimo (equivalente nella codifica appena citata) ad un carattere
129
nuto informativo) potrebbe ridurre l’occupazione dello stesso pari al 41,3%
(compressione ottimale = 1 − 4,7
8 = 0, 413).
Media aritmetica: sommando tutti i byte nel file e dividendo questo numero per
la lunghezza del file, si ha il valore cercato. Ricordando che i byte sono
rappresentati da 0 a 255, un file il cui contenuto è randomico avrà media
aritmetica vicino a 127,5.
π secondo Monte Carlo: ogni sequenza di 6 byte identifica una coppia ordinata
(x,y), in particolare i primi 24 bit sono utilizzati per l’elemento x da collocare
nell’asse delle ascisse, gli altri 24 per l’elemento y da collocare nell’asse delle ordinate (v. Figura 56). I punti sono così inseriti in una griglia quadrata il
cui lato ha risoluzione 16.777.216, in cui è inscritta una pseudocirconferenza
con raggio la cui risoluzione è 8.388.608. Come nel caso generale, il rapporto tra i punti che cadono all’interno della circonferenza62 e quelli all’esterno,
moltiplicato per il numero 4 determineranno il valore di π.
Coefficiente di correlazione seriale: misura quanto ogni byte dipenda dal precedente. Per una sequenza randomica, questo valore (che può essere sia
positivo sia negativo) dovrebbe essere vicino a zero.
Ad arricchimento di questa sezione, presento il software ent (pseudorandom number sequence test). Questo software è stato creato con lo scopo di eseguire diversi
test statistici al file in oggetto, trattandolo come una sequenza di byte. Di seguito
presento alcune statistiche su arbitrari file suddivisi per tipologia.
un file C++: testo ASCII
Entropy = 5.058022 bits per byte.
Optimum compression would reduce the size
of this 13261 byte file by 36 percent.
Chi square distribution for 13261 samples is
203711.15, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
76.8941 (127.5 = random).
62
la disequazione è
130
!2
x − 8.388.608
+
8.388.608
!2
y − 8.388.608
≤1
8.388.608
(0,2 2 4 )
(2 2 4,2 2 4)
(0,0)
(2 2 4,0)
24
Figura 56: Nella
p figura sono stati scelti alcuni punti con x < 2 e y <
24
23
2 . Se x2 + y 2 ≤ 2 , il punto appartiene al cerchio, altrimenti
è esterno. Si noti che i punti individuati con (0, 224 ), (224 , 0) e
(224 , 224 ) non sono corretti. In realtà dovrebbero essere sostituiti
rispettivamente con (0, 224 − 1), (224 − 1, 0) e (224 − 1, 224 − 1),
ma ho preferito non appesantire la figura. Inoltre, avendo sia l’asse
delle ascisse sia quello delle ordinate una risoluzione pari, esse non
hanno un centro, pertanto ci sarà un errore di approssimazione.
Monte Carlo value for Pi is 4.000000000
(error 27.32 percent).
Serial correlation coefficient is 0.503540
(totally uncorrelated = 0.0).
un file Perl: testo ASCII
Entropy = 4.790045 bits per byte.
Optimum compression would reduce the size
131
of this 3414 byte file by 40 percent.
Chi square distribution for 3414 samples is
69237.81, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
72.5428 (127.5 = random).
Monte Carlo value for Pi is 4.000000000
(error 27.32 percent).
Serial correlation coefficient is 0.565876
(totally uncorrelated = 0.0).
un file bmp: formato immagine bitmap
Entropy = 1.461604 bits per byte.
Optimum compression would reduce the size
of this 824 byte file by 81 percent.
Chi square distribution for 824 samples is
103099.57, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
70.0364 (127.5 = random).
Monte Carlo value for Pi is 2.656934307
(error 15.43 percent).
Serial correlation coefficient is 0.274033
(totally uncorrelated = 0.0).
un file png: formato immagine Portable Network Graphics
Entropy = 7.876972 bits per byte.
Optimum compression would reduce the size
of this 24956 byte file by 1 percent.
Chi square distribution for 24956 samples is
10334.37, and randomly would exceed this
132
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
127.1687 (127.5 = random).
Monte Carlo value for Pi is 3.082471748
(error 1.88 percent).
Serial correlation coefficient is 0.246999
(totally uncorrelated = 0.0).
un file jpeg: formato immagine Joint Photographic Experts Group
Entropy = 7.793545 bits per byte.
Optimum compression would reduce the size
of this 29241 byte file by 2 percent.
Chi square distribution for 29241 samples is
12322.85, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
142.7461 (127.5 = random).
Monte Carlo value for Pi is 2.643956495
(error 15.84 percent).
Serial correlation coefficient is -0.047236
(totally uncorrelated = 0.0).
un file pdf: formato Portable Document Format
Entropy = 7.982358 bits per byte.
Optimum compression would reduce the size
of this 6741525 byte file by 0 percent.
Chi square distribution for 6741525 samples is
206193.96, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
125.5211 (127.5 = random).
133
Monte Carlo value for Pi is 3.138266997
(error 0.11 percent).
Serial correlation coefficient is 0.058508
(totally uncorrelated = 0.0).
un file mp3: formato MPEG-1 Audio Layer 3
Entropy = 7.909700 bits per byte.
Optimum compression would reduce the size
of this 2747990 byte file by 1 percent.
Chi square distribution for 2747990 samples is
717103.24, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
126.3179 (127.5 = random).
Monte Carlo value for Pi is 3.093480758
(error 1.53 percent).
Serial correlation coefficient is 0.156270
(totally uncorrelated = 0.0).
un file flv: formato Flash Video
Entropy = 7.402919 bits per byte.
Optimum compression would reduce the size
of this 37381391 byte file by 7 percent.
Chi square distribution for 37381391 samples is
54106764.92, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
113.6762 (127.5 = random).
Monte Carlo value for Pi is 3.300657712
(error 5.06 percent).
Serial correlation coefficient is 0.094482
(totally uncorrelated = 0.0).
134
un file mp4: formato MPEG-4
Entropy = 7.899581 bits per byte.
Optimum compression would reduce the size
of this 24285482 byte file by 1 percent.
Chi square distribution for 24285482 samples is
4006678.79, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
135.7472 (127.5 = random).
Monte Carlo value for Pi is 2.835105421
(error 9.76 percent).
Serial correlation coefficient is 0.113812
(totally uncorrelated = 0.0).
una sequenza pseudocasuale con $i = 255000: vedi Scheda di approfondimento
Entropy = 7.999337 bits per byte.
Optimum compression would reduce the size
of this 255000 byte file by 0 percent.
Chi square distribution for 255000 samples is
234.03, and randomly would exceed this
value 75.00 percent of the times.
Arithmetic mean value of data bytes is
127.5891 (127.5 = random).
Monte Carlo value for Pi is 3.137600000
(error 0.13 percent).
Serial correlation coefficient is -0.000665
(totally uncorrelated = 0.0).
una sequenza pseudocasuale con $i = 25500000: vedi Scheda di approfondimento
135
Scheda di approfondimento
Per generare un file contenente una sequenza di byte pseudocasuale, è stato
utilizzato questo semplice script in linguaggio Perl:
$i = shift || 255*10**5;
open (RH,">random.txt");
print RH chr(int(rand(256))) foreach (1..$i);
close RH;
il quale, preso come argomento $i (parametrizza il numero di iterazioni), scrive su file il carattere corrispondente al codice ASCII generato in
maniera pseudocasuale dalla funzione rand.
Per completezza, segnalo che:
- l’argomento $i, se non immesso, ha valore 255 ∗ 105 ;
- la funzione rand restituisce un valore non intero tra 0 e 256 (quest’ultimo non compreso), per cui, prima di associare il carattere corrispondente
(tramite la funzione char), si tronca tramite la funzione int.
Entropy = 7.999993 bits per byte.
Optimum compression would reduce the size
of this 25500000 byte file by 0 percent.
Chi square distribution for 25500000 samples is
254.39, and randomly would exceed this
value 50.00 percent of the times.
Arithmetic mean value of data bytes is
127.5005 (127.5 = random).
Monte Carlo value for Pi is 3.142240000
(error 0.02 percent).
Serial correlation coefficient is -0.000011
(totally uncorrelated = 0.0).
una sequenza casuale: prodotta da un flusso di 47216 byte prelevati da RANDOM.ORG
Entropy = 7.981204 bits per byte.
136
Optimum compression would reduce the size
of this 47216 byte file by 0 percent.
Chi square distribution for 47216 samples is
1517.64, and randomly would exceed this
value 0.01 percent of the times.
Arithmetic mean value of data bytes is
126.3317 (127.5 = random).
Monte Carlo value for Pi is 3.190748507
(error 1.56 percent).
Serial correlation coefficient is 0.011254
(totally uncorrelated = 0.0).
Randomicità: pseudo o casuale?
Nelle precedenti sezioni, sono state presentate le principali differenze tra la randomicità PRNG e TRNG. Di seguito le sintetizzo più dettagliatamente.
Caratteristica
Efficienza
Determinismo
Periodicità
PRNG
sì
sì
sì
TRNG
no
no
no
Tabella 7: Sintesi delle differenze essenziali tra gli algoritmi PRNG ed i
sistemi TRNG
Efficienza: equivale alla produzione di molti valori in breve tempo.
Determinismo: proprietà che indica la possibilità di ripetere la medesima sequenza conoscendo lo stato in un determinato momento.
Periodicità: ripetizione di una sequenza base nella sequenza generale.
La caratteristica evidente per i sistemi TRNG è la loro reale casualità, pertanto
saranno utilizzate per applicazioni in cui è fondamentale l’aspetto di randomicità,
quali lotterie o giochi d’azzardo in generale. Quando è invece fondamentale la
reperibilità continua di numeri randomici, non è più possibile utilizzare sistemi
137
TRNG, ma si dovrà ricorrere agli algoritmi PRNG, in cui è doveroso effettuare una
scelta tra gli algoritmi disponibili a seconda delle caratteristiche desiderate.
138
La crittografia
La sicurezza di un crittosistema
non deve dipendere dalla segretezza
dell’algoritmo usato, ma solo dalla
segretezza della chiave.
Principio di Kerckhoffs
crittografia è la disciplina che si occupa della scrittura nascosta, più correttamente fonde i metodi e le tecniche per rendere offuscato un messaggio, ma
nel contempo il destinatario lo dovrà decifrare agevolmente. Diviene ovvio il motivo dell’introduzione della crittografia, rendere comprensibile il messaggio solo al
destinatario, impedendo l’accesso all’informazione a persone non autorizzate.
Prima di continuare nella trattazione, è necessaria qualche precisazione. La disciplina in oggetto è denominata crittologia, e si distingue in crittografia e crittoanalisi, rispettivamente per identificare i sistemi utilizzati per cifrare (e decifrare) messaggi e quelli per rompere sistemi crittografici. Io preferisco utilizzare il termine
crittografia anche in contesti generici, nei quali sarebbe formalmente più corretto
riferirsi a crittologia.
Nelle sequenze che proporrò saranno da ignorare gli eventuali segni di spaziatura,
interpunzione o elementi non alfabetici. Difatti, nei sistemi crittografici manuali,
tali simboli non hanno un corrispondente cifrato, quindi sarebbero lasciati immutati, costituendo un’interessante informazione per eventuali crittoanalisti.
Per essere più precisi, i precedenti simboli sono da escludere dal messaggio da
cifrare se il supporto non è digitale. Infatti, nell’informatica qualunque simbolo
(lettere, cifre, segni di interpunzione, . . . ) è codificato in valore numerico, pertanto
sono tutti trattati in maniera indifferente.
Per concludere, i sistemi di cifratura citati nel seguito sono solo alcuni dei moltissimi utilizzati. Quelli presentati sono (dal mio punto di vista) i più importanti,
essendo la base di derivazione per la maggior parte di quelli da me incontrati.
L
A
139
Figura 57: Esempio di scitala
Un po’ di storia
Storicamente esistono innumerevoli esempi di utilizzo della crittografia. Già alcuni
geroglifici (risalenti a circa 4500 anni fa) utilizzavano metodi, anche se rudimentali,
di offuscamento del messaggio. Anche se sarà evidente che alcuni sistemi sono
facili da rompere, si dovrebbe tener conto che spesso la loro robustezza era più che
sufficiente considerando che, a causa della bassa alfabetizzazione, già il testo in
chiaro era difficile da comprendere. Di seguito i sistemi di cifratura storicamente
più rilevanti.
La scitala
Si ritiene che i primi ad utilizzare un metodo sistematico di crittografia furono
i Greci (probabilmente l’esercito di Sparta), i quali utilizzavano un bastone (la
scitala) per trasmettere messaggi segreti. Il singolo messaggio era scritto su una
striscia di pelle arrotolata attorno ad un bastone, e la codifica era lo stesso processo
di scrittura che procedeva in senso longitudinale rispetto la scitala (v. Figura 57).
Srotolando la striscia non era più facile dare un senso a lettere la cui sequenza
era apparentemente casuale. Il destinatario, se aveva a disposizione una scitala il
cui diametro fosse uguale a quello del mittente, riusciva facilmente a decifrare il
messaggio.
In dettaglio Il sistema crittografico utilizzato è classificato come metodo per trasposizione. Concettualmente, è molto semplice decodificare un messaggio poiché
140
la distanza tra lettere consecutive è sempre la medesima. Ad esempio, immaginiamo che il messaggio da codificare sia il seguente:
m e s s a g g i o d a s c a m b i a r e
1 2 3 4 5 6 7 8 91011121314151617181920
in cui ad ogni lettera è associata la posizione nella sequenza, e che il messaggio
sia scritto su un bastone di circonferenza di 3 lettere (potremmo equivalentemente
supporre che la base sia triangolare). Per semplicità, immaginiamo un bastone
corto, tale che il messaggio riempia la superficie, quindi:
m e s s a g g
i o d a s c a
m b i a r e
Srotolando la striscia, vedremmo la sequenza codificata:
m i m e o b s d i s a a a s r g c e g a
1 815 2 916 31017 41118 51219 61320 714
La chiave per decifrare il messaggio è il raggio della circonferenza della base del
bastone (o l’apotema nel caso la base fosse costituita da un poligono).
Il cifrario di Cesare
Un successivo sistema molto antico fu il cifrario di Cesare, in cui ogni lettera
del messaggio è sostituita con un’altra la cui distanza nell’alfabeto (spiazzamento)
sia costante. La particolarità del sistema utilizzato da Giulio Cesare era nel seme
utilizzato, cioè le lettere nel cifrato erano spostate di 3 in avanti.
Per decifrare il messaggio l’operazione da eseguire è molto semplice: si sottrae lo
stesso seme precedentemente utilizzato per cifrare il messaggio (nel caso di Cesare
si sottrae 3).
Nonostante questo cifrario sia probabilmente il più semplice da rompere, ancora
oggi si possono trovare degli utenti (v. Scheda di approfondimento).
In dettaglio Il sistema crittografico utilizzato è classificato come cifrario a sostituzione, o cifrario a scorrimento (si veda la Tabella 8) in cui ogni lettera è sostituita
dalla corrispondente shiftata del seme scelto.
Per rompere la cifratura, si può ipotizzare un attacco di tipo esaustivo (senza perdere di sostanzialità, possiamo definirlo a tentativi), ma con l’attuale tecnologia
informatica è più semplice un attacco tramite l’analisi delle frequenze.
141
Scheda di approfondimento
Il rudimentale cifrario di Cesare è stato di ispirazione per il sistema di codifica utilizzato da Bernardo Provenzano per proteggere la sua corrispondenza
scritta nei famosi pizzini, i fogli di carta con i quali il boss della mafia comunicava.
Il sistema consisteva nel sostituire ad ogni lettera la sua corrispondente posizione alfabetica (a=1, b=2, . . . ), e sommando 3. I valori così ottenuti andavano
a formare un singolo numero. Ad esempio:
messaggiosegreto
diviene
1482020410101216208101982116
in quanto m corrisponde a 14 (è la lettera 11 sommata a 3), e corrisponde a 8
(è la lettera 5 sommata a 3), e cosí di seguito.
testo in chiaro
testo cifrato
a
d
b
e
c
f
d
g
e
h
f
i
...
...
Tabella 8: Cifrario a sostituzione con seme 3
Si consulti la Tabella 9, la quale mostra la frequenza nell’utilizzo di comuni lettere
in vari idiomi.
Essendo l’approccio di tipo statistico, più è lungo il testo, maggiore è l’efficacia
del sistema.
Medioevo
A seguito delle guerre sia politiche sia religiose, in Europa la crittografia divenne
una componente molto importante. Si susseguirono molte invenzioni, ma sicuramente il miglior sistema crittografico del tempo fu quello introdotto da Leon
Battista Alberti con il suo disco cifrante.
Disco cifrante
Il dispositivo si compone di due dischi concentrici (v. Figura 58) contenenti uno
l’alfabeto in chiaro (quello esterno, ordinato), l’altro il corrispondente cifrato (quello interno, non ordinato). La particolarità consiste nella possibilità di rotazione del
142
lettera
a
b
c
d
e
f
g
h
i
j
k
l
m
n
o
p
q
r
s
t
u
v
w
x
y
z
italiano
11.74%
0.92%
4.50%
3.73%
11.79%
0.95%
1.64%
1.54%
11.28%
0.00%
0.00%
6.51%
2.51%
6.88%
9.83%
3.05%
0.51%
6.37%
4.98%
5.62%
3.01%
2.10%
0.00%
0.00%
0.00%
0.49%
inglese
8.167%
1.492%
2.782%
4.253%
12.702%
2.228%
2.015%
6.094%
6.966%
0.153%
0.772%
4.025%
2.406%
6.749%
7.507%
1.929%
0.095%
5.987%
6.327%
9.056%
2.758%
0.978%
2.360%
0.150%
1.974%
0.074%
francese
7.636%
0.901%
3.260%
3.669%
14.715%
1.066%
0.866%
0.737%
7.529%
0.545%
0.049%
5.456%
2.968%
7.095%
5.378%
3.021%
1.362%
6.553%
7.948%
7.244%
6.311%
1.628%
0.114%
0.387%
0.308%
0.136%
tedesco
6.51%
1.89%
3.06%
5.08%
17.40%
1.66%
3.01%
4.76%
7.55%
0.27%
1.21%
3.44%
2.53%
9.78%
2.51%
0.79%
0.02%
7.00%
7.27%
6.15%
4.35%
0.67%
1.89%
0.03%
0.04%
1.13%
spagnolo
12.53%
1.42%
4.68%
5.86%
13.68%
0.69%
1.01%
0.70%
6.25%
0.44%
0.01%
4.97%
3.15%
6.71%
8.68%
2.51%
0.88%
6.87%
7.98%
4.63%
3.93%
0.90%
0.02%
0.22%
0.90%
0.52%
Tabella 9: Analisi delle frequenze delle lettere in alcuni idiomi (tratto
da [Sin99])
disco interno rispetto quello esterno. Ciò implica che non è mantenuta più la stessa associazione delle lettere tra chiaro e cifrato per tutto il messaggio, ma rimane
invariata solo per porzioni dello stesso, quindi se ne creeranno di nuove per ogni
spezzone, fino all’esaurimento del testo.
In termini formali, si passa dai cifrari monoalfabetici a quelli polialfabetici, in cui
la corrispondenza tra lettere del messaggio in chiaro e del cifrato cambia durante il
singolo messaggio.
Supponiamo che la corrispondenza iniziale sia quella della Figura 58, quindi:
143
Figura 58: Esempio di disco cifrante
ABCDEFGILMNOPQRSTVXZ1234
gklnprtuz&xysomqihfdbace
e inoltre, supponiamo che il messaggio da trasmettere sia messaggio da scambiare.
Esistono due modalità alternative di cifratura, ipotizzando che l’indice iniziale sia
sul disco rotante (disco interno) o sul disco fisso (disco esterno), nel qual caso si
tratterà rispettivamente di indice mobile o indice fisso.
Esempio - indice mobile Stabilita la lettera g quale indice, il cifrato diviene
MESSAGGIODA
A&pmmgttuxngQ
in cui le lettere maiuscole nel cifrato indicano che il disco interno dovrà ruotare, in
particolare la lettera scritta in maiuscolo sarà quella da mettere in corrispondenza
dell’indice g. Quindi, la nuova corrispondenza sarà:
ABCDEFGILMNOPQRSTVXZ1234
ysomqihfdbacegklnprtuz&x
continuando il processo di cifratura:
SCAMBIARE
loybsfykq
Il messaggio completo sarà:
A&pmmgttuxngQloybsfykq
144
Esempio - indice fisso Come indice fisso si sceglie una lettera dell’anello esterno, ad esempio A. Inoltre, si sceglie (scrivendolo nel cifrato) una lettare nel disco interno (ad esempio m) e la si mette in corrispondente con l’indice. L’iniziale
corripondenza diviene:
ABCDEFGILMNOPQRSTVXZ1234
mqihfdbacegklnprtuz&xyso
Per indicare il cambio delle corrispondenza degli alfabeti, si scrive (cifrata) una
delle quattro cifre. Quindi:
MESSAGGIODA
mefrrmbbakhms
in cui s indica la rotazione del disco interno, e lo si mette in corrispondenza
dell’indice. La nuova corrispondenza diviene:
ABCDEFGILMNOPQRSTVXZ1234
somqihfdbacegklnprtuz&xy
ed il resto del messaggio:
SCAMBIARE
nmsaodsli
Il messaggio completo sarà:
mefrrmbbakhmsnmsaodsli
In entrambi gli esempi si può notare la caratteristica di cifrario polialfabetico, nel
primo esempio inserendo arbitrariamente lettere maiuscole nel cifrato, nel secondo
inserendo arbitrariamente cifre nel testo in chiaro (e quindi cifrando le stesse).
La chiave è costituita dalla sequenza casuale delle lettere inserite nel disco interno. Tale sequenza dovrà ovviamente essere condivisa tra mittente e destinatario
affinché quest’ultimo possa decifrare agevolmente il messaggio.
Cifrario di Vigenère
Il cifrario di Vigenère è un cifrario polialfabetico basato sul sistema del cifrario di
Cesare. Più in dettaglio, è equivalente ad accostamenti di cifrari di Cesare. Il loro
numero e i singoli spiazzamenti sono definiti dalla chiave scelta. Per essere più
chiari, di seguito un esempio. Si voglia cifrare il solito messaggio:
145
MESSAGGIODASCAMBIARE
CHIAVESEGRETACHIAVES
scegliendo come chiave la parola CHIAVESEGRETA, la quale sarà impiegata ripetutamente sino alla fine del messaggio da cifrare. Il testo cifrato sarà quindi:
OLASVKYMUUCCTJIVVW
in quanto la lettera O del cifrato deriva dalla lettera M con spiazzamento C, la lettera
E del cifrato deriva dalla lettera E con spiazzamento H, e così di seguito.
Per semplificare questo metodo di cifratura, è possibile utilizzare la tavola di Vigenère (v. Tabella 10).
A B C D E F G H I J K L MN O P Q R S T U VWX Y Z
B C D E F G H I J K L MN O P Q R S T U VWX Y Z A
C D E F G H I J K L MN O P Q R S T U VWX Y Z A B
D E F G H I J K L MN O P Q R S T U VWX Y Z A B C
E F G H I J K L MN O P Q R S T U VWX Y Z A B C D
F G H I J K L MN O P Q R S T U VWX Y Z A B C D E
G H I J K L MN O P Q R S T U VWX Y Z A B C D E F
H I J K L MN O P Q R S T U VWX Y Z A B C D E F G
I J K L MN O P Q R S T U VWX Y Z A B C D E F G H
J K L MN O P Q R S T U VWX Y Z A B C D E F G H I
K L MN O P Q R S T U VWX Y Z A B C D E F G H I J
L MN O P Q R S T U VWX Y Z A B C D E F G H I J K
MN O P Q R S T U VWX Y Z A B C D E F G H I J K L
N O P Q R S T U VWX Y Z A B C D E F G H I J K L M
O P Q R S T U VWX Y Z A B C D E F G H I J K L MN
P Q R S T U VWX Y Z A B C D E F G H I J K L MN O
Q R S T U VWX Y Z A B C D E F G H I J K L MN O P
R S T U VWX Y Z A B C D E F G H I J K L MN O P Q
S T U VWX Y Z A B C D E F G H I J K L MN O P Q R
T U VWX Y Z A B C D E F G H I J K L MN O P Q R S
U VWX Y Z A B C D E F G H I J K L MN O P Q R S T
VWX Y Z A B C D E F G H I J K L MN O P Q R S T U
WX Y Z A B C D E F G H I J K L MN O P Q R S T U V
X Y Z A B C D E F G H I J K L MN O P Q R S T U VW
Y Z A B C D E F G H I J K L MN O P Q R S T U VWX
Z A B C D E F G H I J K L MN O P Q R S T U VWX Y
Tabella 10: Tavola di Vigenère
Nel precedente esempio, per cifrare la lettera M con la lettera C sarà sufficiente
trovare la lettera in cui si incontrerà la colonna individuata dalla prima lettera M e
la riga con la prima lettera C, ottenendo così O63 . Lo stesso procedimento si ripete
con le altre lettere della chiave, per poi riapplicare quest’ultima fino alla fine del
messaggio da trasmettere.
Si nota che quando la lettera della chiave è una A, il testo in chiaro e quello cifrato
corrispondono. Questa anomalia non dovrà indurre a non scegliere una chiave con
63
i più attenti avranno notato che nella precedente frase i termini riga e colonna possono essere
scambiati; ciò deriva dalla proprietà commutativa dell’addizione
146
una o più lettere A: sarebbe un errore ipotizzare che ciò costituirebbe informazione
per un crittoanalista.
Tornando al cifrario monoalfabetico di Cesare con seme 3, la chiave equivalente
nel sistema di Vigenère è costituita solo dalla lettera D. Utilizzando la Tabella 10,
per cifrare un testo semplicemente si sostituirà l’alfabeto della prima riga con quello della quarta, cioè individuata la lettera da cifrare sulla prima riga la si sostituirà
con quella della quarta appartenente alla stessa colonna.
In dettaglio Si evidenzia nuovamente che per ogni lettera non si è proceduto in
maniera differente rispetto al metodo di Cesare, anche se ognuna avrà uno spiazzamento che varierà a seconda della chiave scelta. Si nota altresì che lo spiazzamento
ha carattere periodico, periodo che è determinato dalla lunghezza della chiave (ricordo che la chiave è ripetuta per tutto il messaggio).
Nonostante storicamente questo cifrario abbia goduto di notevoli simpatie, la debolezza è proprio nell’essere uguale a n cifrari di Cesare, in cui n è la lunghezza
della chiave.
La crittoanalisi si esegue adottando il metodo di Kasiski64 , proposto dall’omonimo
maggiore prussiano. Essenzialmente permette di dedurre la lunghezza n della chiave utilizzata, e successivamente il cifrato è suddiviso in n colonne. Ogni colonna
è equivalente ad un testo con cifratura monoalfabetica, pertanto si procederà per
ciascuna colonna con una distinta analisi frequentistica.
Il metodo Kasiski prevede l’analisi delle ripetizioni di sequenze, e la distanza tra le
ripetizioni più frequenti sarà molto probabilmente multipla della lunghezza della
chiave. Solitamente l’analisi dà i migliori risultati se è effettuata su ripetizioni di
almento 3 lettere, ma in questo caso è necessario disporre di cifrati sufficientemente
lunghi.
Esempio Si analizzi il cifrato65 crypto is short for cryptography, in cui la ripetizione è la sequenza crypto, la cui distanza è 20 caratteri. Nel conteggio sono stati
considerati anche gli spazi per una questione di chiarezza espositiva.
Supponiamo che la chiave di crittazione sia abcde, di 5 caratteri (5 è un divisore di
20).
crypto is short for cryptography
abcdeabcdeabcdeabcdeabcdeabcdeab
Nel testo cifrato si otterrà una ripetizione di 6 caratteri. Notiamo che la sequenza
ripetuta è combinata con i medesimi caratteri, quindi possiamo lecitamente sup64
65
in realtà il metodo fu inizialmente proposto da Charles Babbage nel 1854
tratto da [Wikah]
147
porre che la chiave sia sottomultiplo di 20 (quindi 2, 4, 5, 10 o 20 caratteri).
Supponiamo ora che la chiave di crittazione sia abcdefghij, di 10 caratteri (10 è un
divisore di 20).
crypto is short for cryptography
abcdefghijabcdefghijabcdefghijab
Notiamo che anche in questo caso la combinazione è identica per la ripetizione,
quindi possiamo ripetere la medesima deduzione appena proposta.
Supponiamo che la chiave di crittazione sia abcdef, di 6 caratteri (6 non è un
divisore di 20).
crypto is short for cryptography
abcdefabcdefabcdefabcdefabcdefab
Purtroppo in questo caso la combinazione delle sequenza ripetute è differente, nel
primo caso si combina con abcdef, nel secondo cdefab, pertanto non è possibile
dedurre la lunghezza della chiave.
Nonostante l’esempio precedente riporta un brevissimo testo, si comprende il metodo nei suo caratteri essenziali. Ovviamente questo frammento è stato creato ad
arte, ma si avranno ottimi risultati se la sequenza del cifrato è sufficientemente lunga e la chiave è sufficientemente breve.
Al contrario, se la chiave è molto lunga, paragonabile alla lunghezza del messaggio
in chiaro66 , l’approccio statistico diviene molto difficile, ma non è sempre impossibile. In questo caso, la strada che solitamente si segue è l’analisi della chiave,
ipotizzando che essa derivi dal linguaggio naturale, sfruttando la caratteristica di
bassa entropia (cioè frequenze conosciute sia di lettere, sia di gruppi di lettere) di
quest’ultimo.
Inoltre, se una (anche piccola) porzione della chiave (o del testo) diviene nota,
spesso diviene facile l’identificazione dell’intera chiave, tramite un attacco conosciuto come plaintext attack.
In conclusione, la chiave dovrebbe possedere due caratteristiche:
- essere sufficientemente lunga;
- essere resistente ad attacchi statistici.
Quest’ultima caratteristica implica che la chiave scelta dovrà essere più randomica
possibile, quindi escluse parole di qualsiasi idioma e preferite sequenze pseudocasuali o, meglio, casuali in senso stretto67 .
1
del testo rende un’attacco statistico estremamente difficoltoso
26
67
a tal proposito si veda il capitolo precedente
66
una chiave di lunghezza ∼
148
Fino alla Seconda Guerra Mondiale
Il più importante algoritmo di questo periodo fu il cifrario di Vernam. La novità
essenziale non fu però nella creazione di nuovi algoritmi crittografici, ma l’introduzione di macchine elettromeccaniche che autonomamente eseguissero sia i procedimenti di cifratura sia quelli di decifratura. Ovviamente il passo successivo fu
il loro impiego nel campo computazionalmente più impegnativo della crittoanalisi.
Cifrario di Vernam
In realtà, questo cifrario è tecnicamente equivalente a quello di Vigenère, con il
vincolo che la chiave sia lunga quanto il testo in chiaro.
Ovviamente, come già scritto, il requisito della robustezza della chiave è essenziale, e ciò si rispecchia nella randomicità delle componenti e nel non riutilizzo della
medesima chiave (o parte di essa). Questo vincolo rende inattaccabile il sistema (v.
Scheda di approfondimento) ma, nel contempo, rende estremamente difficoltoso
il suo impiego manuale.
Inoltre, questo sistema ha il grave difetto di scambio della chiave prodotta e, ricordando il vincolo di non riutilizzo della stessa, la non economicità rende poco
conveniente l’impiego del sistema.
Per questo motivo, le poche applicazioni sono state maggiormente dovute a dispositivi crittografici elettromeccanici e, successivamente, rudimentali apparecchi
elettronici.
Scheda di approfondimento
Il cifrario di Vernam è il più famoso cifrario OTP, acronimo di One Time Pad
poiché, a differenza di altri algoritmi, la chiave è monouso. Questa particolarità
rende, dal punto di vista teorico, un eventuale studio statistico impossibile, per
cui il cifrato è inattaccabile. A tal proposito, il matematico Claude Shannon dimostrò la sua inviolabilità nel 1949, in un suo scritto (Communication Theory
of Secrecy System, tradotto in La teoria della comunicazione nei sistemi crittografici). Poiché la rottura è teoricamente impossibile, il sistema guadagnò il
titolo di cifrario perfetto.
Macchine crittografiche
L’impulso economico determinato dagli interessi e dalle tensioni in gioco nelle
guerre, hanno sempre portato sia nella tecnica sia nelle scienze grosse investimen149
ti. Se in altre epoche si inventavano nuovi modelli per cifrare messaggi, ora gli
sforzi erano nell’incremento della velocità di cifratura. Al contempo, gli avversari
si sforzavano nei compiti di decifratura, cercando di rompere tali sistemi attraverso
macchine crittoanalitiche. Di seguito le maggiori realizzazioni.
Nel 1917 fu utilizzata una telescrivente cifrante in cui, una chiave impostata su
nastro perforato, era combinata con il testo in chiaro attraverso il sistema OTP.
Purtroppo i requisiti della chiave non permisero (e permettono) un buon uso del
sistema.
Nel 1918 fu sviluppata la macchina Enigma, probabilmente la più famosa ai giorni nostri. Dopo il brevetto fu perfezionata ulteriormente, e nel 1929 fu acquistato
dall’esercito tedesco e da molti degli appartenenti alla gerarchia nazista. Essenzialmente si basava su dischi cifranti in cascata. Ogni disco (tecnicamente un rotore)
era costituito da 26 contatti (tale era il numero di lettere dell’alfabeto tedesco). La
difficoltà di rompere il cifrario era essenzialmente nella dinamicità della chiave,
essendo questa costituita da rotori cambiati giornalmente, secondo un ordine stabilito. Sforzi nella crittoanalisi, prima dei servizi segreti polacchi che inventarono
la macchina Bomba, successivamente di quelli inglesi che trasformarono questo
dispositivo nel successivo denominato Colossus, diedero buoni risultati.
Note di crittoanalisi
Dalle poche osservazioni crittoanalitiche sin qui riportate, si deduce che sia i cifrari
a trasposizione sia quelli a sostituizione monoalfabetica siano estremamente facili
da rompere.
Più in dettaglio, i cifrari a trasposizione hanno uno spazio delle chiavi che idealmente è pari alla lunghezza del testo, ma tecnicamente si riduce a poche unità,
poiché tale è il numero di tentativi che un crittoanalista dovrà compiere per avere
successo.
Per quanto riguarda i cifrari a sostituzione monoalfabetica, lo spazio delle chiavi
è pari al numero delle lettere dell’alfabeto, quindi anche in questo caso la rottura
dell’algoritmo è molto semplice.
Al contrario, per i cifrari a sostituzione polialfabetica non esiste una regola generale, e la crittoanalisi è più complessa. In ogni caso, tramite uno studio frequentistico,
è spesso possibile sfruttare eventuali regolarità. In tal modo si individuano porzioni
di testo e, attraverso un processo di interpolazione lessicale, se ne dedurrà agevolmente il resto. L’esempio più evidente è portato dalle rubriche di enigmistica nei
150
crittogrammi.
L’utilizzazione della tecnica omofonica è un interessante tentativo per aumentare
la difficoltà degli attacchi. In pratica, le lettere del messaggio in chiaro potranno
essere sostituite tra un insieme di simboli, e più la frequenza della lettera nel messaggio in chiaro è alta, più numeroso sarà il gruppo delle lettere tra le quali sarà
possibile scegliere per la sostituzione. Se adottata correttamente, tale tecnica rende
estremamente complessa un eventuale analisi statistica sul testo cifrato, essendo la
frequenza delle lettere di quest’ultimo idealmente identica.
Classificazione
I cifrari incontrati si dividono in due classi:
trasposizione: le lettere nel messaggio in chiaro sono riordinate in maniera tale
che il contenuto del cifrato non sarà più immediatamente leggibile;
sostituzione: ogni unità del testo in chiaro è sostituita con il corrispondente cifrato, secondo uno schema ben definito. Questi si possono ulteriormente
classificare a seconda che la sostituzione sia:
monoalfabetica: fissa per ogni lettera (ad es. cifrario di Cesare);
polialfabetica: dinamica secondo uno schema predeterminato (ad. es cifrario di Vigenère);
e a seconda di cosa si consideri unità testuale:
semplice: l’unità è la singola lettera;
poligrafica: l’unità è costituita da un gruppo di lettere.
Da quanto riporato, possiamo classificare i cifrari finora presentati. La scitala è
l’unico cifrario a trasposizione, gli altri sono a sostituzione semplice. Nel seguito
non considererò più i cifrari a trasposizione non essendo più di interesse.
Il sistema di Cesare è monoalfabetico, sia il disco dell’Alberti sia il sistema di Vigenère sono polialfabetici. Il sistema di Vernam è spesso classificato come sistema
polialfabetico ma, per essere precisi, non è propriamente una sostituzione68 , ma
una combinazione dinamica definita dall’ideale randomicità della chiave (one time
pad ideale).
Un accenno è necessario per i sistemi a sostituzione poligrafica, in cui gruppi di lettere del testo in chiaro sono sostituiti da singoli elementi nel cifrato. Ovviamente,
68
in una sostituzione lo spiazzamento è definito tramite una regola
151
per sostituire i gruppi è necessario prevedere un alfabeto sostitutivo composto da
tantissimi simboli69 . Questo aspetto rende complessa un’eventuale realizzazione
del modello, e forse non lo si è mai considerato realmente, se non come ipotesi di
studio.
Quelli finora esaminati appartengono alla classe dei cifrari a flusso, anche definiti
cifrari a carattere. La caratteristica che li contraddistingue è il processo di codifica
dei simboli del testo in chiaro, la quale avviene indipendentemente l’uno dall’altro.
Formalmente, dato un testo in chiaro costituito da n simboli s1 , s2 , . . . , sn , il
cifrato è la successione E(s1 ), E(s2 ), . . . , E(sn ), in cui per passare dal simbolo
al suo cifrato si è utilizzata la funzione E. Ovviamente, per passare dal cifrato al
messaggio in chiaro si dovrà applicare la funzione E −1 . Schematicamente:
E(·)
−
→
s1 s2 . . . sn −
←
−−
−−
−
− E(s1 )E(s2 ) . . . E(s1 )
E −1 (·)
in cui si è utilizzata la funzione E(·) e E −1 (·) per definire rispettivamente la funzione di codifica e decodifica del singolo simbolo. La funzione E −1 , denominata
funzione inversa, è in stretta relazione con la funzione diretta E, tale che da una si
può derivare agevolmente l’altra.
In tempi più moderni, con l’introduzione del calcolatore elettronico, si è introdotta
una nuova classe di sistemi cifranti. Essa è costituita dai cifrari a blocchi, la cui
caratterisita algoritmica è la codifica applicata su blocchi di lunghezza definita. In
altre parole, l’unità della codifica è costuita dal blocco e non dal singolo simbolo.
In questo caso si usa spesso l’espressione codifica contemporanea di simboli appartenenti allo stesso blocco70 .
Formalmente, dato un testo in chiaro costituito da n simboli s1 , s2 , . . . , si , si+1 ,
. . . , sn , in cui il blocco è di lunghezza i, il cifrato è la successione E(s1 s2 . . . si ),
E(si+1 . . . s2i ), . . . , E(sn−i+1 . . . sn ), in cui per passare dal blocco in chiaro al
suo cifrato si è utilizzata la funzione di blocco E. Per semplicità, si è ipotizzato
che il rapporto tra la lunghezza del testo in chiaro e quella del blocco sia intera,
cioè n = ki, con k numero naturale71 (quindi un intero positivo).
69
se l’alfabeto è composto da n lettere ed ogni gruppo è formato da m elementi, il nuovo sistema
dovrà prevedere la codifica per nm simboli; nel caso di 26 lettere a gruppi di 2, la codifica prevederà
262 = 676 simboli
70
anche se ho preferito riportala in quanto molto utilizzata, non la ritengo corretta. Difatti, nella
codifica per blocchi, l’unità è il blocco e non il simbolo, pertanto non ha più senso riferirsi al singolo
simbolo, essendo il processo di codifica determinato dalla sequenza ordinata dei simboli appartenenti
al medesimo blocco
71
questa semplificazione non implica perdita di generalizzazione poiché, negli algoritmi in cui
l’unità è il blocco, si assume che la lunghezza del blocco sia sottomultiplo del testo in chiaro. Se non
152
Per decifrare il testo è necessario un distinguo poiché l’operazione potrebbe essere
differente. Difatti, sinora abbiamo utilizzato cifrari simmetrici, in cui la funzione
di decodifica è E −1 , la funziona inversa della codifica. In alternativa potremmo
utilizzare cifrari asimmetrici, in cui la funzione di decodifica non è più la funzione inversa di E, ma una nuova funzione che chiameremo D, funzione ovviamente
costruita in maniera particolare (quindi in stretto rapporto con E), ma non è affatto
l’inverso di E. Schematicamente, i cifrari a blocco72 appartengono a uno delle due
classi di cifrari:
simmetrico:
E|·|
−
→
s1 . . . si . . . sn −
←
−−
−−
−
− E(s1 . . . si ) . . . E(sn−i+1 . . . sn )
E −1 |·|
asimmetrico:
E|·|
−
→
s1 . . . si . . . sn −
←
−−
−−
−
− E(s1 . . . si ) . . . E(sn−i+1 . . . sn )
D|·|
in cui ripeto che per passare dal cifrato al messaggio originale la chiave di cifratura è E −1 | · | oppure D| · |, a seconda che il sistema sia rispettivamente a chiave
simmetrica o asimmetrica.
Crittografia simmetrica
La crittografia simmetrica è anche chiamata crittografia a chiave privata. Essendo utilizzata la medesima chiave sia per cifrare sia per decifrare, essa dovrà essere
condivisa tra mittente e destinatario e restare segreta per il resto del mondo.
Avendo già esaminato diversi sistemi di questo tipo (tutti quelli finora esaminati)
non mi dilungherò ulteriormente, menzionando semplicemente gli standard oggi
utilizzati, gli algoritmi AES (Advanced Encryption Standard), IDEA (International
Data Encryption Algorithm), 3DES (triplo DES, evoluzione dell’originario DES,
Data Encryption Standard) e altri ancora.
fosse rispettato il rapporto intero, si aggiungerà un padding (riempimento) finché non sarà realizzata
questa condizione
72
in realtà si distingue tra cifrari simmetrici e asimmetrici solo quando ci si riferisce a cifrari a
blocco; è comunque possibile allargare la classe dei cifrari simmetrici, considerando i cifrari a flusso
come caso particolare di cifrari a blocco, in cui il blocco sia definito da un solo simbolo
153
Crittografia asimmetrica
La crittografia asimmetrica è anche chiamata crittografia a chiave pubblica (o
anche crittografia a coppia di chiavi), in cui ogni attore ha una coppia di chiavi di
cui quella:
pubblica: è distribuita a tutti coloro che vorranno comunicare in maniera cifrata,
e si utilizzerà per l’operazione di cifratura del messaggio;
privata: è personale e si utilizzerà per l’operazione di decodifica.
Per meglio comprendere i ruoli delle chiavi73 , potrebbe essere utile il seguente
esempio.
Esempio I soggetti A e B vorrebbero scambiare messaggi in maniera cifrata tramite crittografia asimmetrica. Si ipotizza che entrambi siano dotati della coppia di
chiavi privata e pubblica (al soggetto A sarà associata la coppia (a, A), al soggetto
B la coppia (b, B), in cui a e b sono le chiavi private, A e B quelle pubbliche), e
che quelle pubbliche siano distribuite, ad esempio visibili su Internet74 .
Voglia il soggetto A inviare il messaggio in chiaro messaggio1 al soggetto B. Potrà quindi inviare il messaggio EB (messaggio1 ), il corrispondente cifrato tramite
la chiave pubblica di B. A questo punto, solo il soggetto B potrà decifrare il messaggio tramite la sua chiave privata, applicando Db (EB (messaggio1 )), che equivale al messaggio originale. In risposta, il soggetto B vorrà spedire messaggio2
in maniera cifrata, quindi invierà EA (messaggio2 ), il cifrato mediante la chiave pubblica di A. Il soggetto A sarà l’unico a leggere il messaggio, applicando
Da (EA (messaggio2 )).
Nella pratica
Per non essere troppo criptici, è possibile semplificare il funzionamento di massima
ripercorrendo il passaggio della spedizione da A a B:
73
successivamente sarà evidente che la distinzione tra chiave pubblica e chiave privata è del tutto
arbitraria. È importante stabilire (prima del loro utilizzo, solitamente ciò avviene al momento della
creazione) quale delle due sarà pubblica, quale sarà privata e, da quel momento, la distinzione sarà
permanente
74
è possibile scambiare le chiavi pubbliche tramite canali non sicuri; tipicamente la si distribuisce
tramite e-mail, pagine web, o key server
154
1. B sceglie due numeri primi molto grandi (∼ centinaia di cifre75 ) e li moltiplica con il suo computer (∼ meno di un secondo);
2. B invia il numero che ha ottenuto ad A;
3. A usa questo numero per cifrare il messaggio;
4. A manda il messaggio cifrato a B;
5. B riceve il messaggio e, utilizzando i due fattori primi che solo lui conosce,
lo decifra.
I soggetti A e B impiegano pochi secondi per le operazioni di cifratura e decifratura, ma chiunque intercetti la comunicazione impiegherebbe troppo tempo per
scoprire i due fattori primi con cui è possibile decifrare il messaggio.
Infatti, il principio della segretezza nei sistemi asimmetrici è derivante dall’elevata complessità computazionale della fattorizzazione di prodotti di due primi (v.
Scheda di approfondimento).
Scheda di approfondimento
Per moltiplicare tra loro numeri grandi, il procedimento matematico è computazionalmente non difficoltoso. Questo semplice frammento di codice scritto
in Perl:
use bigint;
$a = 10**10000-1;
$b = 10**10000-2;
$a *= $b;
moltiplica due numeri composti entrambi da 10000 cifre. Il tempo di esecuzione del prodotto è di soli 1,9 secondi sul mio portatile. Invece, fattorizzare uno solo di questi numeri (supponendo che sia il prodotto di due numeri
primi (i quali siano di un ordine di grandezza simile) è un’impresa immane,
quantificabile in anni di lavoro.
RSA76
L’acronimo RSA, anche chiamato PKCS #1 (Public-Key Cryptography Standards)
deriva dai cognomi di tre ricercatori del MIT (Ronald Rivest, Adi Shamir e Leo75
nel momento in cui scrivo (e probabilmente per alcuni anni) si considerano crittograficamente
sicuri numeri composti da circa 300 cifre
76
questa sezione non è necessaria per avere una visione essenziale, ma la trattazione presentata
permetterà una migliore concettualizzazione
155
nard Adleman) i quali hanno per primi77 implementato un algoritmo di cifratura
asimmetrico, sfruttando una proprietà dei numeri primi78 . Il funzionamento base è
il seguente:
1. si scelgono arbitrariamente due numeri primi79 p e q, l’uno indipendentemente dall’altro, sufficientemente grandi da garantire la robustezza della
chiave (∼ centinaia di cifre);
2. si calcola il prodotto n = pq, chiamato anche modulo (poiché l’aritmetica
che segue è modulo n);
3. si sceglie il numero e, chiamato esponente pubblico, più piccolo di n e
coprimo80 di (p − 1)(q − 1);
4. si calcola il numero d, chiamato esponente privato, tale che ed mod (p −
1)(q − 1) = 1
La chiave pubblica è definita dalla coppia (n, e) e la chiave privata da (n, d).
La forza dell’algoritmo è nella difficoltà di calcolo di d da n81 , poiché la fattorizzazione è un’operazione molto lenta.
Un messaggio m è cifrato attraverso l’operazione me mod n, mentre il cifrato h
è decifrato con hd = med mod n = m1 mod n. Di seguito un esempio.
Esempio I numeri scelti sono volutamente primi piccoli, nella realtà sono utilizzati numeri dell’ordine di 10100 .
1. Sia p = 3, q = 11, quindi (p − 1)(q − 1) = 2 · 20;
2. n = pq = 3 · 11 = 33;
3. si sceglie e = 7, poiché e è minore di n ed è coprimo di 20;
4. d = 3, infatti e · d mod ((p − 1)(q − 1)) = 1, poiché
21
= 1 con resto 1.
20
77
in realtà, già il matematico britannico Clifford Cocks descrisse un sistema equivalente in un documento interno al suo dipartimento di spionaggio del GCHQ (Government Communications Headquarters), ma i documenti furono posti sotto segreto, e solo nel 1997 tale notizia fu di dominio
pubblico
78
i fondamenti metematici si basano sul piccolo teorema di Fermat [Wikau] e il teorema cinese
del resto [Wikj]
79
in realtà, si eseguono test per capire se un numero sia probabilmente primo; in altre parole, non
se ne avrà certezza ma, se i test saranno superati con successo, allora si congettura che sia primo
80
detti anche primi tra loro, cioè se e solo se essi non hanno un divisore comune (eccetto 1), che
equivale ad affermare che il massimo comun divisore è 1
81
la difficoltà esiste anche per e, ma non è interessante poiché e è pubblica
156
Sistema
simmetrico
asimmetrico
Rapidità
alta
bassa
Canale sicuro
necessario
non necessario
Tabella 11: Confronto tra crittografia simmetrica e asimmetrica
Quindi la chiave privata è (33, 3) e la chiave pubblica è (33, 7). Si voglia ora cifrare
il messaggio m = 15. Utilizzando la chiave pubblica:
h = me
mod n = 153
mod 33 = 27
e per decifrare h = 27 utilizzeremo la chiave privata:
m = hd
mod n = 273
mod 33 = 15
decriptando così il messaggio.
Confronto tra cifratura simmetrica e asimmetrica
Nella crittografia simmetrica la sicurezza del sistema è riposta nella segretezza della chiave, condivisa tra mittente e destinatario, e in prima approssimazione la sua
robustezza è correlata alla propria lunghezza (in proporzione al messaggio). La
necessità di mantenere segreta la chiave rende necessario l’utilizzo di una canale sicuro per la trasmissione della stessa, poiché l’intercettazione da parte di terzi
renderebbe insicuro l’intero sistema. Al contempo, sia la codifica sia la decodifica
sono procedimenti estremamente rapidi.
Nella crittografia asimmetrica non è più necessaria la condivisione della medesima chiave, quindi non è più necessaria la presenza di un canale sicuro. Purtroppo
l’operazione di codifica e decodifica è meno rapida, certamente non idonea ai procedimenti crittografici che avvengono in tempo reale per grosse quantità di dati.
Queste caratteristiche sono sintetizzate in Tabella 11.
Crittosistemi ibridi
Dal confronto tra i due sistemi crittografici, è evidente che solo per le applicazioni
in cui non è necessario lavorare con quantità di informazioni ingenti, si utilizza
la crittografia asimmetrica. Per tutte le altre sarebbe eccessivo il tempo di codifica, pertanto è necessario utilizzare quella simmetrica, in cui evidenzio nuovamente il problema di distribuzione della chiave. L’intuizione è l’utilizzo combinato,
sfruttando i vantaggi di entrambi i sistemi (e ignorando gli aspetti negativi), quindi:
157
rapidità: la si può ottenere solo tramite la crittografia simmetrica;
canale sicuro: può essere fornito tramite la crittografia asimmetrica la quale cifrerà solo le informazioni che necessitano l’attraversamento di un canale
sicuro.
Tecnicamente, il primo passo sarà cifrare la chiave dell’algoritmo simmetrico tramite l’algoritmo asimmetrico, dopodiché si cifrerà il testo con la chiave che oramai
è condivisa tra i soggetti. Il tempo speso per cifrare la chiave è trascurabile, ed è
comunque un’operazione necessaria per scambiare in modo sicuro informazioni tra
i due soggetti. Scambiata la chiave, il messaggio sarà codificato tramite un algoritmo simmetrico, in maniera da essere agevole lo scambio di quantità significative
di dati.
Per complicare ulteriormente il lavoro di un eventuale crittoanalista, i soggetti potrebbero intervallare lo scambio di messaggi con lo scambio di una nuova chiave
simmetrica, ogni volta randomica, cosicché statisticamente il lavoro crittoanalitico
sarebbe estremamente complesso.
Firma digitale
Oltre i compiti precedenti ai quali è destinata la crittografia asimmetrica, essa può
essere utilizzata anche per verificare l’autenticità e l’integrità dei messaggi. Con
autenticità si intende la verifica del mittente, con integrità si escludono eventuali
modifiche, sia intenzionali sia accidentali.
Nella pratica, il mittente produce un fingerprint tramite una funzione di hash (v.
Scheda di approfondimento), è quest’ultimo sarà cifrato tramite la propria chiave
privata, quindi aggiunto al messaggio da spedire. Questa cifratura non va intesa nel
senso ordinario di offuscamento, ma come firma digitale. Infatti, si può notare che
il processo di codifica investe esclusivamente il fingerprint (quindi non il messaggio). Inoltre, l’eventuale offuscamento non avrebbe senso poiché, per sua natura,
la chiave pubblica associata è spesso banalmente reperibile.
Il destinatario potrà verificare:
autenticità: attraverso la chiave pubblica potrà decodificare solo informazioni
precedentemente codificate con la chiave privata associata, e quindi verificare il corrispondente mittente;
integrità: tramite l’applicazione del medesimo algoritmo hash, calcolerà lui stesso il digest dal messaggio ricevuto, e se coincide con quello inviato e decodificato, ne dedurrà l’integrità.
158
Scheda di approfondimento
Il fingerprint (denominato anche digest) è tecnicamente costituito da un blocco
alfanumerico di lunghezza prefissata, ed equivale ad un’impronta del messaggio, più precisamente ad una estrema sintesi dello stesso. Ogni sequenza di
dati può essere sintetizzato da funzioni hash, e queste restituirano ciascuna un
fingerprint. Gli algoritmi di hash sono costruiti esclusivamente per la lettura
di dati con conseguente produzione di digest. La caratteristica delle funzioni
hash sono essenzialmente due:
variazioni estreme: piccole modifiche nei dati in input produrranno differenze estreme. In altre parole, le variazioni dell’output devono essere estremamente sensibili alle variazioni dell’input (equivalente a fenomeni di
dinamica caotica);
resistenza alle collisioni: la ricerca di dati di input che producano fingerprint identici deve essere infruttuosa (caratteristica correlata
all’equispazialità).
Gli algoritmi più diffusi sono:
MD5: (message digest algorithm) è un algoritmo progettato da Ronald Rivest che, dato un input, produce un output di 128 bit. È un evoluzione
del MD4, sostituito in quanto ritenuto insicuro [Wikao]. L’MD5 oggi è
molto utilizzato, anche se sono noti alcuni casi di collisione [Wikap].
SHA-2: (secure hash algorithm) in realtà indica una famiglia di algoritmi
progettati dall’NSA [Wikba] per la produzione di digest di lunghezza
variabile a seconda dell’algorimo utilizzato. Ad esempio, SHA-224,
SHA-256, SHA-384 e SHA-512 producono rispettivamente digest da
224, 256, 384 e 512 bit.
Certificato digitale
Per quanto riguarda l’autenticità del messaggio, nella precedente sezione ci si è
accontentati di verificare dati cifrati tramite chiave privata, in particolare se la decodifica tramite la chiave pubblica associata andava a buon fine, se ne deduceva il
mittente. In altre parole, si è assunto che la corrispondenza mittente e chiave pubblica sia corretta. Di seguito, ci si pone nell’ottica pessimistica che le questioni non
sia stata risolta, quindi è necessario certificare che ad una o più chiavi pubbliche
siano associate alla persona ipotizzata.
159
Azione banale comunemente consigliata per garantire l’identità, è l’incontro dei
due soggetti o, in alternativa, una telefonata con lettura di codici associati alle proprie chiavi pubbliche (ad esempio, le prime lettere).
Tornando nel mondo dell’informatica, lo scopo del certificato digitale è garantire
che una chiave sia associata ad un’identità che un soggetto rivendica come propria.
Lo schema tipico prevede l’intervento di una CA (certification autority), la quale
ha esclusivamente il compito di attestare la corrispondenza in oggetto tramite la
sua firma. Alternativamente, è possibile entrare nel web of trust, una rete di fiducia
in cui la firma è applicata da altri utenti. I principali attributi di un certificato sono:
- i dati identificativi (una soggetto, un’organizzazione, . . . );
- una chiave pubblica;
- un periodo di validità;
- i riferimenti alla lista dei certificati revocati.
Quest’ultima proprietà deriva proprio dalla possibilità assegnata ai richiedenti del
certificato di revoca dello stesso, quindi sarebbe doveroso la verifica per ogni firma
certificata valutare la sua eventuale revoca, quindi esistenza nella lista suddetta.
In Internet, il più comune incontro con i certificati è l’accesso a siti web attraverso
il protocollo HTTPS. Tramite questi certificati è possibile accertare che il server
al quale si è connesso è autentico, quindi assicurarsi che non si interponga nella
comunicazione un eventuale terzo.
Steganografia
La steganografia è una tecnica di offuscamento che è completamente diversa dalla
crittografia. In ogni caso spesso i due sistemi sono trattati assieme, in quanto entrambi utilizzati per il medesimo scopo.
La differenza tra crittografia e steganografia è l’oggetto dell’offuscamento, nel primo caso il messaggio diviene cifrato, nel secondo il canale è difficile da individuare. Più in dettaglio, nella steganografia il messaggio è in chiaro, ma è necessario comprendere le modalità di trasmissione. Si veda l’esempio di seguito, tratto
da [Poem1].
Esempio - acrostico Si ipotizzi che due soggetti si siano accordati per scambiarsi
brevi messaggi attraverso acrostici. Supponiamo una voglia comunicare all’altro
chi dovrà uccidere, in particolare Elizabeth. Fortunatamente le opere poetiche sono
particolarmente piene di esempi.
160
Elizabeth it is in vain you say
“Love not“ – thou sayest it in so sweet a way:
In vain those words from thee or L.E.L.
Zantippe’s talents had enforced so well:
Ah! if that language from thy heart arise,
Breath it less gently forth – and veil thine eyes.
Endymion, recollect, when Luna tried
To cure his love – was cured of all beside –
His follie – pride – and passion – for the died.
Non dobbiamo scomodare necessariamente la poesia o periodi così remoti. Un
acrostico contemporaneo è quello tratto dalla lettera datata ottobre 2009, prodotto dall’ufficio del Governatore della California Arnold Schwarzenegger (si veda [Sil09] e [Bia09]), in cui dalla sequenza delle iniziali di ogni riga ne esce
l’espressione Fuck you.
Le forme più interessanti di steganografia si trovano nelle applicazioni informatiche, in cui è facile nascondere informazioni in grosse quantità di dati. In questo
campo, la più conosciuta e diffusa forma è l’utilizzo della steganografia LSB (least
significant bit). Questa tecnica si può adottare su tantissime formati multimediali,
ma per produrre un esempio preferisco trattare nel seguito un’immagine digitale.
In linea di principio, se aggiungiamo ai dati del rumore di fondo imprecettibile per
l’uomo, si è costruito un vettore di informazioni difficile da intercettare.
Nel dettaglio, un’immagine digitalizzata è formata dall’accostamento di milioni
di pixel, e questi non cambiano contenuto informativo per l’occhio umano se sono modificati in modo impercettibile. Un modo classico di operare è il seguente:
l’algoritmo aggiunge ad una immagine contenitore un dato da nascondere, modificando i bit meno significativi. I pixel saranno modificati attrverso uno schema
definito da una chiave, che ha appunto il compito di indicare quali bit meno significativi saranno sovrascritti per celare il messaggio. Se la tecnica è adoperata
correttamente, e se i dati da nascondere non sono eccessivi rispetto quelli a disposizione, la qualità dell’immagine non né risentirà, e le persone che visualizzeranno
l’immagine non noteranno alcuna differenza, essendo questa non apprezzabile dall’occhio umano. Al contrario, il destinatario, che saprà come trattare l’immagine,
riuscirà senza problemi ad invertire il procedimento del mittente, ottenendo così
l’informazione celata.
La steganografia digitale ha il pregio di offuscare grosse quantità di dati, ma al contempo ha il grosso difetto di essere persa se, accidentalmente, un utente ignaro modifica l’immagine tramite un programma di editing. Per complicare ulteriormente
l’eventuale steganalista, taluni algoritmi prevedono una cifratura del messaggio
attraverso una chiave.
161
Esempio In questo esempio è stato utilizzato il software steghide82 , il quale
permette di introdurre ed estrarre messaggi steganografici in particolari formati, tra
i quali il fromato jpeg utilizzato in questo esempio.
Di seguito sono state fornite due immagini (v. Figura 59) apparentemente identiche, ma nell’immagine 59(b) è offuscato un messaggio. Tale messaggio non può
essere estratto se non si ha l’originale elettronico, pertanto mi scuso con i lettori
poiché di seguito riporterò un’analisi non ripetibile dagli stessi.
Il testo che ho scelto di nascondere nel file testo.txt è il seguente:
Questo messaggio e’ stato nascosto. Lo vedi?
da immettere (embedding) nell’immagine machuPicchu.jpg, visualizzata in
Figura 59(a). Per verificare quanta capacità di memorizzazione steganografica è
possibile sul file, è sufficiente dare il comando
$ steghide info machuPicchu.jpg
"machuPicchu.jpg":
...
capacity: 6,0 KB
...
ed il software risponde che l’immagine può contenere circa 6000 caratteri. Poiché
il messaggio da offuscare è di 45 caratteri, è possibile immetterlo con successo
utilizzando questo formalismo:
$ steghide embed -cf machuPicchu.jpg -ef testo.txt
Enter passphrase:
Re-Enter passphrase:
embedding "testo.txt" in "machuPicchu.jpg"... done
Si è ottenuta la Figura 59(b), in cui si nota che nel processo di inserimento è stata
fornita una passphrase, utilizzata per determinare la sequenza dei pixel investita
dalle modifiche, ottenendo in tal modo il prodotto finale. Per leggere il contenuto,
è sufficiente il seguente comando:
$ steghide extract -sf machuPicchu.jpg
Enter passphrase:
wrote extracted data to "testo.txt".
in cui è stata richiesta la medesima passphrase utilizzata in fase di embedding.
82
v. [Het]
162
(a) Senza steganografia
(b) Con steganografia
Figura 59: Esempio steganografico
163
164
L’evoluzione della definizione
probabilistica
Le definizioni seguono uno schema
di approssimazioni successive, sino al
raggiugimento (sostanziale) di
incertezza nulla.
Anonimo
la definizione classica, enunciata nel Settecento, la probabilità di un
evento è uguale al rapporto tra il numero di casi favorevoli ed il numero di
casi possibili.
Utilizzando questa definizione è possibile attribuire una probabilità a molti eventi, ma è altresì possibile incorrere in qualche errore di valutazione. Un semplice
esperimento, quale il lancio delle monete, può creare qualche problema. Si veda
l’esempio seguente:
S
ECONDO
Nel lancio di due monete, qual è la probabilità dell’evento CC83 ?
La risposta non è per tutti scontata; le più gettonate sono:
- P = 14 , considerando 4 casi possibili: TT, CC, CT84 e TC85 ;
- P = 31 , considerando 3 casi possibili: TT, CC e CT86 .
Essendo entrambe le risposte coerenti con la definizione precedentemente riportata, poiché le probabilità associate differiscono, la definizione proposta è ambigua,
pertanto è stata migliorata.
83
l’evento CC indica l’uscita di due croci; per brevità C sintetizza l’uscita di croce, T di testa
prima moneta croce, seconda testa
85
prima moneta testa, seconda croce
86
croce e testa, considerando l’esito della coppia, ma non della coppia ordinata
84
165
La risposta corretta è P = 41 ; per avere un riscontro empirico si prendano due monete di valore commerciale differente: sia, ad esempio, la prima moneta da 1 ¤ e
la seconda da 2 ¤. I casi possibili sono:
MONETA
da
1¤
2¤
esito finale
1o esito
T
T
TT
2o esito
T
C
TC
3o esito
C
T
CT
4o esito
C
C
CC
totalizzando 4 possibili esiti. I sostenitori della tesi P = 13 considerano i due casi
distinti CT e TC uno solo. In altri termini, i sostenitori87 della tesi errata P = 13
non hanno distinto i casi a seconda dei pesi88 . Di seguito sono elencati gli esiti
possibili con i relativi pesi:
C ASO POSSIBILE
due testa
due croce
una testa e una croce
E SITO
TT
CC
TC o CT
P ESO
1
1
2
Per evitare l’ambiguità interpretativa come nel caso precedente, la prima definizione è sostituita dalla seguente:
La probabilità di un evento è uguale al rapporto tra il numero di
casi favorevoli ed il numero di casi equiprobabili.
Purtroppo questa definizione è linguisticamente viziata: per superare l’ambiguità
associata alla prima definizione, si è ricorso alla nozione di equiprobabilità, ma il
termine equiprobabilità rimanda alla nozione di probabilità instaurando un ciclo:
ciò rende difettosa la definizione appena scritta.
In altri termini, una definizione rigorosa non può basarsi sul concetto che intende
definire. In ogni caso, è comunemente accettata in quanto la nozione di equiprobabilità è intuitiva.
L’aspetto negativo che permane è l’applicabilità della definizione sin qui proposta,
valida in molti casi, ma non in tutti.
Tale carenza ha favorito l’introduzione di una nuova definizione, la definizione
frequentistica:
La probabilità di un evento è uguale al rapporto tra il numero di
casi favorevoli ed il numero di esperimenti effettuati.
87
il più famoso fu D’Alembert
pesi uguali sono attribuiti a eventi equiprobabili; un evento ha peso doppio di un altro se il primo
è doppiamente probabile rispetto al secondo
88
166
Questa definizione introduce una novità sostanziale: per procedere con l’attribuzione di una probabilità ad un evento, si sostituisce il ragionamento (teorico e, quindi,
a priori) con una valutazione basata sull’esperienza (quindi a posteriori).
La definizione frequentistica ha il merito di permetterci valutazioni probabilistiche
di fenomeni molto complessi per i quali l’unico metodo d’indagine è la statistica.
Ad esempio, per stabilire se in un preciso giorno dell’anno in una certa città pioverà, si procede ad una ricerca sul passato della città e, in particolare, che tempo c’è
stato quel determinato giorno negli anni passati, stabilendo la frequenza relativa.
Un esempio concreto è:
Qual è la probabilità che il 15 marzo del prossimo anno pioverà a
Chieti?
Se procediamo ad una ricerca negli ultimi quarant’anni e, ad esempio, risulterà che
il 15 marzo è piovuto 4 volte in quest’intervallo, la probabilità che pioverà il 15
4
1
marzo è P = 40
= 10
.
Il procedimento proposto restituisce solo un’approssimazione della probabilità,
poiché si potrebbe migliorare la valutazione considerando, ad esempio, anche l’incidenza della piovosità dell’anno corrente rispetto gli anni passati.
Il limite della definizione frequentistica è l’applicazione ad eventi già accaduti.
Inoltre, c’è una questione importante sollevata dalla stessa definizione: la probabilità di un evento dipende dal numero di esperimenti esaminati. In altri termini,
qual è il numero di prove che è necessario effettuare (o cui è necessario accedere)
affinché si possa ottenere una stima affidabile della probabilità di un evento?
Purtroppo non è possibile stabilire un criterio generale; in questo contesto si inserisce la nuova definizione del matematico Bruno De Finetti, il quale propose la
definizione di probabilità soggettiva:
La probabiltà di un evento è il grado di fiducia che si pone nel
verificarsi dell’evento stesso.
Secondo questa definizione, la probabilità non è una caratteristica oggettiva, ma è
una personale valutazione, pertanto variabile da persona a persona.
Questa nuova visione consente di utilizzare i risultati legati alle definizioni precedenti (classica e frequentistica), ma ognuna si applica nelle situazioni in cui ha
dimostrato di funzionare meglio.
La definizione classica è da preferire nei casi in cui nessun evento appare favorito
rispetto gli altri (oppure è facile determinare numericamente quanto sia favorito
rispetto gli altri): nel gioco dei dadi, del Lotto, del Superenalotto, giochi di carte,
la roulette, . . .
Per calcolare la probabilità relativa ad eventi terribilmente complessi (ad esempio,
167
eventi regolati dal caos deterministico), i quali sono stati registrati per ampi intervalli oppure è possibile ripeterli, è da preferire (probabilmente l’unica applicabile)
la definizione frequentistica, prendendo in esame una serie statistica.
168
L’intuizione e il calcolo
probabilistico
è da sempre una grande amica degli uomini ed è da molti considerata la chiave intellettuale della nostra evoluzione (non solo culturale).
Spesso le stesse scoperte e invenzioni, frutto di numerose rivoluzioni culturali, sono state avviate dagli affascinanti quanto intricati meccanismi del rapido processo
mentale denominato intuizione.
Nonostante sia una grande alleata per l’uomo, non sempre si rivela un’amica fedele; la disciplina che più di tutte mostra i limiti dell’intuito è il calcolo delle
probabilità.
Di seguito riporterò pochi semplici problemi (alcuni molto famosi) che si possono
considerare controintuitivi.
L’
INTUIZIONE
Il figlio maschio
Rispondiamo a questa semplice domanda:
Un uomo ha due figli; qual è la probabilità che il secondo sia maschio?
I casi possibili possono essere riportati di seguito:
C ASI P OSSIBILI
MM
MF
FM
FF
C ASI FAVOREVOLI
sì
sì
-
1
Com’è facile intuire, la probabilità è P = .
2
Ora si provi a rispondere alla domanda seguente:
169
Un uomo ha due figli e almeno uno dei due è maschio; qual è la
probabilità che anche l’altro sia maschio?
1
1
La risposta corretta non è P = , ma P = ; si veda la seguente tabella:
2
3
C ASI P OSSIBILI
MM
MF
FM
C ASI FAVOREVOLI
sì
-
Se il problema fosse:
Un uomo ha due figli di cui il maggiore è maschio; qual è la probabilità che anche l’altro sia maschio?
1
In questo caso la risposta corretta sarebbe P = ; si veda la seguente tabella:
2
C ASI P OSSIBILI
MF
MM
C ASI FAVOREVOLI
sì
Il cavaliere de Méré
Il seguente problema fu proposto da Antoine Gombaud, cavaliere de Méré, a Blaise
Pascal, e la sua formalizzazione è considerata l’atto di nascita del calcolo delle
probabilità.
È più facile ottenere almeno un 6 lanciando quattro volte un dado89 o
ottenere almeno un 12 lanciando ventiquattro volte due dadi90 ?
Il cavaliere de Méré aveva già provato a rispondere, ma la sua esperienza non concordava con i risultati del suo intuitivo ma erroneo ragionamento. Pertanto, chiese
l’aiuto al matematico Blaise Pascal che fornì la corretta risposta. Pascal ragionò
nei seguenti termini:
La probabilità di non ottenere un 6 in quattro lanci è:
P =
89
90
4
5
625
=
;
6
1296
composto da sei facce numerate da 1 a 6
ognuno composto da sei facce numerate da 1 a 6
170
la probabilità complementare, cioè ottenere almeno un 6 in quattro
lanci, è:
P =1−
625
1296 − 625
671 ∼
=
=
= 0, 52.
1296
1296
1296
La probabilità di non ottenere un doppio 6 in ventiquattro lanci è:
P =
35 24
;
36
la probabilità complementare, cioè ottenere almeno un doppio 6 in 24
lanci, è:
P =1−
35 24 ∼
= 0, 49.
36
Quindi è più facile che esca almeno un 6 in quattro lanci di un dado
piuttosto che almeno un doppio 6 in ventiquattro lanci di due dadi.
La data di compleanno
Molto citato nei testi di calcolo delle probabilità, è la coincidenza della data di compleanno in un gruppo di persone. Nel seguito semplificherò il calcolo considerando
l’anno composto da 365 giorni e le nascite ripartite uniformemente nell’anno.
È ovvio che sia poco probabile che due persone che si incontrino abbiano la mede1
sima data di nascita valutabile con P =
.
365
Nei casi successivi è conveniente calcolare la probabilità dell’evento complementare e poi sottrarla da 1. Applicherò da subito questo metodo, ricordando che la
probabilità complementare è il calcolo dell’evento nessuno festeggia il complean364
1
no lo stesso giorno, quindi nel caso precedente P = 1 −
=
.
365 365
Analogamente, se si incontrassero tre persone, si ha una bassa probabilità che al364 · 363
meno due persone festeggino il compleanno lo stesso giorno: P = 1 −
.
3652
La questione cambia se le persone formano un gruppo più numeroso. Ad esempio,
364 · 363 · . . . · 344 · 343 ∼
con 23 persone la probabilità cresce diventando P = 1−
=
36522
364 · 363 · . . . · 326 · 325 ∼
0, 507; e se le persone nel gruppo sono 41, la probabilità è P = 1−
=
36540
0, 903.
171
Il problema di Monty Hall
Nel 1991 andava in onda una trasmissione televisiva americana dal titolo Let’s Make a Deal che ispirò il problema di Monty Hall, nome che deriva dal conduttore
dello show, Maurice Halprin, noto con lo pseudonimo di Monty Hall.
Il regolamento del gioco prevede che il conduttore Monty Hall conduce il giocatore
di fronte a tre porte chiuse: una nasconde il premio (un’automobile di lusso) e le
altre due nascondono ciascuna una capra; il concorrente è invitato a scegliere una
porta (la quale resta chiusa) e terrà ciò che si trova al di là di essa; il conduttore, il
quale conosce la porta che nasconde l’automobile, apre una porta delle rimanenti
dietro cui c’è una capra e, in seguito, aprirà la porta scelta dal concorrente per consegnare il premio da lui vinto.
Come appena scritto, nel gioco a premi originale, dopo che il concorrente sceglie
una porta, il conduttore ne apre un’altra dietro cui c’è una capra; l’apertura di un’altra porta, aumenta la tensione negli spettatori e, pertanto, ha fini esclusivamente
emotivi. È stata proposta una formulazione alternativa, in cui ci si chiede:
Successivamente all’apertura della porta da parte del conduttore, se
al giocatore fosse offerta la possibilità di cambiare la porta, avrebbe
maggiori possibilità di vincere l’automobile?
La formulazione del problema in questi termini è contenuta in una lettera del 1990
di Craig F. Whitaker, indirizzata alla rubrica della giornalista Marilyn vos Savant
nel settimanale Parade. In realtà, la formulazione originale del problema fu di Steve Selvin nel 1975, il quale la battezzò problema di Monty Hall. Un problema
sostanzialmente identico appare nella rubrica Mathematical Games nel 1959 con il
nome problema dei tre prigionieri. Si ritiene però che la formulazione più antica
sia quella proposta nel volume di Joseph Bertrand in Calcul des Probabilités nel
1889, nota come il paradosso della scatola di Bertrand.
La giornalista della rivista Parade, Marylin vos Savant, risolse il problema affermando che, cambiando la scelta iniziale, la probabilità di trovare l’automobile di2
venti P = , cioè raddoppiano; il suo intervento, corretto ma assolutamente non
3
intuitivo, fu criticato da moltissimi, anche cultori e accademici i quali non riconobbero corretta la soluzione proposta finché, in un successivo articolo, spiegò nel
dettaglio la soluzione.
Il ragionamento è il seguente: inizialmente la probabilità che l’auto non si trovi
2
dietro la porta scelta dal concorrente è P = ; dopo che il presentatore mostra una
3
porta dietro cui è nascosta una capra, la probabilità che l’auto non è dietro la porta
172
2
scelta dal concorrente rimane P = poiché il presentatore, non scegliendo a caso,
3
non fornisce alcuna informazione utile ai fini probabilistici riguardo la scelta del
concorrente.
Più in dettaglio, possiamo esemplificare la questione attraverso i seguenti passi:
1. Avendo a disposizione tre porte in cui distribuiamo casualmente due capre
ed un auto, le probabilità associata ad ogni porta è riportata in Figura 60.
I
1
3
auto
2
capra
3
II
1
3
auto
2
capra
3
III
1
auto
3
2
3
capra
Figura 60: Probabilità associate ad ogni porta prima della scelta del
concorrente e, ovviamente, non modificate in seguito alla sua scelta
2. Il concorrente sceglierà, ad esempio, la porta I: in questo stesso istante non
si modificheranno (ovviamente) le probabilità associate alle porte. Arrivati
a questo punto, il regolamento del gioco prevede che il conduttore mostri la
capra dietro una delle due porte non scelte; schematicamente, il grafico associato a tale situazione è invariato e, pertanto, è ancora valida la Figura 60;
comunque, preferisco riproporlo nella Figura 61 evidenziando una questione importante: anche se lo schema è simile al precedente, a seguito della
scelta del concorrente è stata congelata sia la probabilità associata alla porta
scelta, sia quella associata al raggruppamento formato delle restanti porte.
3. Supponiamo che il conduttore mostri che dietro la porta II ci sia una capra;
in questo caso, lo schema varierà come mostrato in Figura 62
Attraverso questo breve ragionamento si è prevenuti alla corretta conclusione che
al concorrente conviene cambiare la porta poiché è due volte più probabile che dietro quella da lui scelta si celi una pecora.
Per risolvere la questione trattata in questa sezione ho preferito utilizzare diagrammi di Eulero-Venn, ma è possibile utilizzare anche la metodologia impiegata nelle
173
'
$
I
II
III
1
3
auto
1
3
auto
1
3
auto
2
3
capra
2
3
capra
2
3
capra
&
%
Figura 61: A seguito della scelta del concorrente, le due porte rimanenti
variano singolarmente la propria probabilità legate agli eventi del
gioco, ma non varierà la probabilità data dalla loro somma
'
$
I
1
3
2
3
II
auto
0
3
capra
3
3
III
auto
2
3
auto
capra
1
3
capra
&
%
Figura 62: Supponendo che il conduttore mostri che dietro la seconda
porta si celi una capra, la probabilità associata alla prima porta
non varia e non varia nemmeno la probabilità associata al raggruppamento delle due porte rimanenti, ma variano singolarmente le probabilità associate a tali porte (nel caso specifico, per la
seconda porta abbiamo solo certezze)
precedenti sezioni, cioè elencare tutti i casi possibili.
Abbiamo tre possibili situazioni, a seconda che l’auto si celi dietro la prima, la
seconda o la terza porta:
1o caso
A C C
2o caso
C A C
3o caso
C C A
Figura 63: Nelle tre figure l’auto è nascosta dietro la porta segnata con
A; le altre due nascondono la capra (segnata con C)
174
Per semplificare la trattazione, suppongo che il concorrente scelga la prima porta; in questo caso, il conduttore mostrerà la seconda o la terza porta (comunque
mostrerà una porta dietro la quale c’è una capra) che possiamo eliminare come riportato schematicamente nella Figura 64.
1o caso
C
A
C
oppure
C
A C
2o caso
C
A
3o caso
C
C
C
A
Figura 64: Nei casi mostrati di seguito, il concorrente sceglie la prima
porta. Nel 1o caso il conduttore è libero di mostrare la seconda o
la terza porta (entrambe nascondono una capra), nel secondo e nel
terzo caso il conduttore è obbligato a mostrare la porta dietro cui
c’è la capra, lasciando chiusa la porta che nasconde l’automobile
Come possiamo vedere dalla figura, nel 1o caso il conduttore è libero di mostrare
la seconda o la terza porta, ma sia nel secondo sia nel terzo caso è vincolato a mostrare l’unica porta (tra le due rimaste) che cela una capra.
Nel 1o caso il concorrente avrà indovinato se non muterà la scelta (un caso su tre,
P = 13 ), mentre negli altri due casi il concorrente indovinerà indirizzando la scelta
verso la porta scartata dal conduttore (due casi su tre, P = 23 ).
Come ho già scritto prima, anche se i tre casi citati non sono generali (poiché
si suppone che il concorrente abbia scelto la prima porta), gli altri due casi sono
analoghi ed è pertanto inutile la trattazione.
I sogni premonitori - liberamente tratto da Gli snumerati, di
J. Allen Paulos
Supponiamo realisticamente che sia molto poco probabile che un sogno corrisponda per alcuni particolari ben distinti ad una serie di eventi reali futuri. Pertanto,
associamo a tale corrispondenza una probabilità su 100.000; in altri termini, abbia99.999
mo ipotizzato che un sogno non sia premonitore con una probabilità P = 100.000
.
Supponiamo, per semplicità, che i sogni si avverino indipendentemente e ipotizziamo che una persona si ricordi un sogno una mattina ogni due; la probabilità che
365
99.999 2
in un anno non si verifichi nessun sogno premonitore è P =
e per
100.000
175
2.922
2
99.999
∼
otto
la probabilità diventa P =
= 0, 985.
100.000
Si conclude che il 98,5% delle persone che ricordano il loro ultimo sogno una volta
ogni due giorni nel corso di otto anni sperimentano soltanto sogni non premonito
2.922
2
99.999
∼
ri; ciò significa anche che 1 −
= 0, 014, cioè l’1, 4% di individui
100.000
che ricordano il loro ultimo sogno una volta ogni due giorni nel corso di otto anni
sperimentano almeno una volta sogni premonitori; se consideriamo le persone che
conosciamo o, meglio ancora, la popolazione della Terra, i sogni premonitori sono
tantissimi.
anni91
Conclusioni
Come spero sia stato sufficientemente evidenziato dagli esempi precedenti, il calcolo delle probabilità può condurre a conclusioni sorprendenti. Spesso l’intuizione
ci suggerisce l’attribuzione ad un evento una probabilità errata, che solo un’analisi approfondita smentisce e, a volte, ci conduce ad una realtà inattesa. Forse la
prossima volta ci penseremo un po’ su prima di dire: “Incredibile!”.
91
un anno bisestile ogni quattro
176
Lista delle figure
Elenco delle figure utilizzare e relativo copyright.
Sarà utilizzato lo schema seguente:
Figura num. figura, pag. num.
riferimento – fonte
pagina: riferimento num.
Figura 1, pag. 10: rif. 2 – wikimedia commons
Figura 2, pag. 11: rif. 1 – wikimedia commons
Figura 3, pag. 12: rif. 2 – wikimedia commons
Figura 4, pag. 13: rif. 2 – wikimedia commons
Figura 5, pag. 14: rif. 2 – wikimedia commons
Figura 8, pag. 29: rif. 1 – wikimedia commons
Figura 9, pag. 30: rif. 1 – wikimedia commons
Figura 10, pag. 32: rif. 3 – wikipedia
Figura 11(a), pag. 33: rif. 2 – wikimedia commons
Figura 11(b), pag. 33: rif. 2 – wikimedia commons
Figura 12(a), pag. 34: rif. 2 – wikimedia commons
Figura 12(b), pag. 34: rif. 2 – wikimedia commons
Figura 13, pag. 35: rif. 1 – wikimedia commons
Figura 14, pag. 35: rif. 4 – wikimedia commons
Figura 15, pag. 40: rif. 2 – wikimedia commons
Figura 16, pag. 41: rif. 2 – wikimedia commons
Figura 38, pag. 85: rif. 1 – wikimedia commons
Figura 42(a), pag. 95: rif. 1 – wikimedia commons
Figura 42(b), pag. 95: rif. 1 – wikimedia commons
Figura 44, pag. 97: rif. 5 – wikimedia commons
Figura 45, pag. 98: rif. 1 – wikimedia commons
Figura 46, pag. 99: rif. 1 – wikimedia commons
Figura 47(a), pag. 101: rif. 1 – wikimedia commons
Figura 47(b), pag. 101: rif. 1 – wikimedia commons
Figura 48, pag. 102: rif. 1 – wikimedia commons
177
Figura 49(a), pag. 104: rif. 6 – wikimedia commons
Figura 49(b), pag. 104: rif. 1 – wikimedia commons
Figura 57, pag. 140: rif. 1 – wikimedia commons
Figura 58, pag. 144: rif. 1 – wikimedia commons
Figura 59, pag. 163: rif. 2 – wikimedia commons
Tutte le altre immagini sono dell’autore, il cui copyright è rif. 1.
Di seguito sono elencati i riferimenti utilizzati per i relativi copyright.
1. Permission is granted to copy, distribute and/or modify this document under
the terms of the GNU Free Documentation License, Version 1.2 or any later
version published by the Free Software Foundation; with no Invariant Sections, no Front-Cover Texts, and no Back-Cover Texts. A copy of the license
is included in the section entitled GNU Free Documentation License
2. This image (or other media file) is in the public domain because its copyright
has expired. This applies to the United States, Canada, the European Union
and those countries with a copyright term of life of the author plus 70 years.
3. This work is licensed under the This work is licensed under the Creative
Commons Attribution 3.0 License.
Simplified human cone response curves, based on Dicklyon’s PNG version,
itself based on data from Stockman, MacLeod & Johnson (1993) Journal
of the Optical Society of America A, 10, 2491-2521d (log E human cone
response, via
http://www.cvrl.org/database/text/cones/smj2.htm)
4. This file is licensed under Creative Commons Attribution 2.5 License In
short: you are free to distribute and modify the file as long as you attribute its author(s) or licensor(s).
Author (3ucky(3all at en.wikipedia
5. This file is licensed under the Creative Commons Attribution ShareAlike 2.0
Belgium Licence.
Author Alex lbh
6. The copyright holder of this image hereby irrevocably releases all rights to
it, allowing it to be freely reproduced, distributed, transmitted, used, modified, built upon, or otherwise exploited in any way by anyone for any purpose, commercial or non-commercial. However, as a courtesy, a link back to
Wikipedia (http://www.wikipedia.org/) would be appreciated.
178
Riferimenti bibliografici
Di seguito ho fuso la bibliografia con la webografia per ottenere riferimenti maggiormente esaustivi.
Per sua natura, la dinamicità del web impedisce la certezza temporale della disponibilità dei contenuti webografici, per cui mi scuso anticipatamente per eventuali
errori. In ogni caso, per quanto possibile cercherò di mantenere tali url aggiornate.
Segnalo che nella lettura dei riferimenti web, spesso si presenteranno link ugualmente importanti rispetto quelli indicati ma, per non provocare eventuale dispersività, ho proferito non menzionare quest’ultimi, riportando solo le voci che ho
ritenuto essenziali.
In ultimo, evidenzio che per molte delle url elencate di seguito, in particolare per
quelle della wikipedia, sono disponibili anche versioni in italiano. Nonostante la
loro disponibilità, ho comunque solitamente preferito riportare quelle in inglese, in
quanto queste ultime sono più complete e spesso maggiormente aggiornate.
La variabilità del mondo
[Dul05]
Renato Dulbecco. La mappa della vita. Sperling & Kupfer, 2005,
p. 284.
[Odi03]
Piergiorgio Odifreddi. Zichicche. Pensieri su uno scienziato a cavallo
tra politica e religione. Dedalo, 2003, p. 288.
[Rep]
Repubblica. ‘Caro Darwin, scusaci’ svolta nella Chiesa anglicana.
URL : http : / / ricerca . repubblica . it / repubblica /
archivio / repubblica / 2008 / 09 / 15 / caro - darwin scusaci-svolta-nella-chiesa-anglicana.html.
[Sta]
La Stampa. “Non abbiamo compreso la sua teoria” scuse della
Chiesa anglicana a Darwin. URL: http : / / www . lastampa .
it/redazione/cmsSezioni/esteri/200809articoli/
36484girata.asp.
179
[UAA]
UAAR. Chiesa anglicana chiede scusa a Darwin. URL: http : / /
www.uaar.it/news/2008/09/15/chiesa- anglicanachiede-scusa-darwin/.
[Wiki]
Wikipedia. Charles Darwin. URL: http://en.wikipedia.org/
wiki/Charles_Darwin.
[Wikp]
Wikipedia. Creationist. URL: http : / / en . wikipedia . org /
wiki/Creationist.
[Wikt]
Wikipedia. Evolution. URL: http : / / en . wikipedia . org /
wiki/Evolution.
[Wikag]
Wikipedia. Jean Baptiste Lamarck. URL: http://en.wikipedia.
org/wiki/Jean-Baptiste_Lamarck.
[Wikas]
Wikipedia. Origin of life. URL: http://en.wikipedia.org/
wiki/Origin_of_life.
[Wikax]
Wikipedia. Punctuated equilibrium. URL: http : / / en .
wikipedia.org/wiki/Punctuated_equilibrium.
[Zic06]
Antonino Zichichi. Perchè io credo in Colui che ha fatto il mondo. Tra
fede e scienza. Il Saggiatore, 2006, p. 246.
Il mondo a colori
[GS01]
Karl R. Gegenfurtner e Lindsay T. Sharpe. Color vision: from genes to
perception. Cambridge University Press, 2001, p. 504.
[Wikb]
Wikipedia. Additive color. URL: http://en.wikipedia.org/
wiki/Additive_color.
[Wikk]
Wikipedia. CMYK color model. URL: http://en.wikipedia.
org/wiki/CMYK_color_model.
[Wikl]
Wikipedia. Color blindness. URL: http://en.wikipedia.org/
wiki/Color_blindness.
[Wikm]
Wikipedia. Color space. URL: http : / / en . wikipedia . org /
wiki/Color_space.
[Wikn]
Wikipedia. Color theory. URL: http://en.wikipedia.org/
wiki/Color_theory.
[Wiko]
Wikipedia. Colorimetry. URL: http : / / en . wikipedia . org /
wiki/Colorimetry.
180
[Wikac]
Wikipedia. HSL and HSV. URL: http://en.wikipedia.org/
wiki/HSL_and_HSV.
[Wikae]
Wikipedia. Ishihara color test. URL: http : / / en . wikipedia .
org/wiki/Ishihara_color_test.
[Wikbg]
Wikipedia. Subtractive color. URL: http : / / en . wikipedia .
org/wiki/Subtractive_color.
La coerenza dell’astrologia
[Cav96]
Mario Cavedon. Astronomia. Stock Libri S.p.A. su licenza della
Arnoldo Mondadori S.p.A., 1996, p. 240.
[Wikw]
Wikipedia. Forer effect. URL: http : / / en . wikipedia . org /
wiki/Forer_effect.
[Zic03]
Antonino Zichichi. Il vero e il falso. Il Saggiatore, 2003, p. 568.
Il caos
[AB]
Eliana Argenti e Tommaso Bientinesi. Webfract. URL: http://www.
webfract.it/FRATTALI/indice0.htm.
[Bar06]
Michael Barnsley. SuperFractals. Cambridge University Press, 2006,
p. 464.
[Bia04]
Carlo Biasi. Caos Complessità Criticità. 2004.
[CM]
Marc Culler e Howard Masur. Fractals, Chaos and Complex Dynamics.
URL : http://www.math.uic.edu/~culler/chaos/.
[Gle00]
James Gleick. Caos. La nascita di una nuova scienza. BUR, 2000,
p. 352.
[Ken]
Norm Kenkel. Quantitative Plant Ecology Laboratory. URL: http://
www.umanitoba.ca/faculties/science/biological_
sciences/botany_lab/.
[Kue05]
Eric Kuennen. Chaotic Dynamics and Fractals. 2005, p. 55.
[Lor63]
Edward N. Lorenz. “Deterministic Nonperiodic Flow”. In: Journal of
the Atmospheric Sciences 20.Issue 2 (1963), pp. 130–141. URL: http:
/ / journals . ametsoc . org / doi / abs / 10 . 1175 / 1520 0469%281963%29020%3C0130%3ADNF%3E2.0.CO%3B2.
181
[Man04]
Paul Manneville. Instabilities, Chaos and Turbulence. An Introduction
to Nonlinear Dynamics and Complex Systems. Imperial College Press,
2004, p. 408.
[Per]
Mark Pernarowski. Some “Numerical” Chaos Examples. URL: http:
//www.math.montana.edu/~pernarow/M455/2005/Lab_
3/lab3.html.
[Poi08]
H. Poincaré. Science et méthode. Flammarion, 1908.
[Pri08]
Ilya Prigogine. Le leggi del caos. Editori Laterza, 2008, p. 122.
[Vul05]
Angelo Vulpiani. Determinismo e Caos. Carrocci, 2005, p. 148.
[Wikd]
Wikipedia. Attractor. URL: http://en.wikipedia.org/wiki/
Attractor.
[Wikh]
Wikipedia. Chaos theory. URL: http://en.wikipedia.org/
wiki/Chaos_theory.
[Wiks]
Wikipedia. Edward Lorenz. URL: http://en.wikipedia.org/
wiki/Edward_Lorenz.
[Wikx]
Wikipedia. Fractal. URL: http://en.wikipedia.org/wiki/
Fractal.
[Wikaf]
Wikipedia. Iterated Function System. URL: http : / / en .
wikipedia . org / w / index . php ? title = Iterated _
function_system.
[Wikaj]
Wikipedia. L-system. URL: http : / / en . wikipedia . org / w /
index.php?title=L-system.
[Wikan]
Wikipedia. Lorenz attractor. URL: http://en.wikipedia.org/
wiki/Lorenz_attractor.
La matematica della bellezza
[Bar02]
John D. Barrow. L’universo come opera d’arte. BUR, 2002, p. 346.
[Ero]
Erodoto. Erodoto Storie II. URL: http : / / www . scribd . com /
doc/6635476/Erodoto- Storie- i- II- III- IV- v- ViVii.
[Liv07]
Mario Livio. La sezione aurea - Storia di un numero e di un mistero che
dura da tremila anni (The Golden Ratio - The Story of Phi, the World’s
Most Astonishing Number). BUR (Broadway Books), 2007, p. 416.
182
[Mar]
George Markowsky. Misconceptions about the Golden Ratio. URL:
http://www.umcs.maine.edu/~markov/GoldenRatio.
pdf.
[Weib]
Eric W. Weisstein. Golden Ratio. from MathWorld–A Wolfram
Web Resource. URL: http : / / mathworld . wolfram . com /
GoldenRatio.html.
[Wiku]
Wikipedia. Fermat’s spiral. URL: http://en.wikipedia.org/
wiki/Fermat’s_spiral.
[Wikv]
Wikipedia. Fibonacci number. URL: http : / / en . wikipedia .
org/wiki/Fibonacci_number.
[Wikz]
Wikipedia. Golden ratio. URL: http://en.wikipedia.org/
wiki/Golden_ratio.
[Wikbh]
Wikipedia. Sunflower. URL: http : / / en . wikipedia . org /
wiki/Sunflower.
[Zoc]
Alessandro Zocchi. La sezione aurea (Enciclop). URL: http://www.
cicap.org/new/articolo.php?id=101948.
Il numero più grande
[Weia]
Eric W. Weisstein. Arrow Notation. from MathWorld–A Wolfram
Web Resource. URL: http : / / mathworld . wolfram . com /
ArrowNotation.html.
[Weic]
Eric W. Weisstein. Steinhaus-Moser Notation. from MathWorld–A
Wolfram Web Resource. URL: http://mathworld.wolfram.
com/Steinhaus-MoserNotation.html.
[Wikaa]
Wikipedia. Graham’s number. URL: http : / / en . wikipedia .
org/wiki/Graham’s_number.
[Wikai]
Wikipedia. Knuth notation. URL: http://en.wikipedia.org/
wiki/Knuth_notation.
[Wikay]
Wikipedia. Ramsey theory. URL: http://en.wikipedia.org/
wiki/Ramsey_theory.
[Wikbd]
Wikipedia. Steinhaus-Moser notation. URL: http : / / en .
wikipedia.org/wiki/Steinhaus-Moser_notation.
183
Quando è iniziato il nuovo millennio
[Cla]
Lopresti Claudio. La qeustione dell’anno zero. URL: http : / /
digilander.libero.it/elam/bibbia/annozero.htm.
[Wikr]
Wikipedia. Dionigi il Piccolo. URL: http : / / it . wikipedia .
org/wiki/Dionigi_il_Piccolo.
[Wikab]
Wikipedia. Gregorian calendar. URL: http://en.wikipedia.
org/wiki/Gregorian_calendar.
[Wikbb]
Wikipedia. Sistema di numerazione. URL: http : / / it .
wikipedia.org/wiki/Sistema_di_numerazione.
[Wikbl]
Wikipedia. Zero. URL: http : / / it . wikipedia . org / wiki /
Zero.
[Zic02]
Antonio Zichichi. L’irresistibile fascino del Tempo. Il Saggiatore, 2002,
p. 299.
La casualità
[Arg]
Daniele Argento. Registri a scorrimento lineari. URL: http://www.
dia.uniroma3.it/~dispense/rota/LFSR.pdf.
[Cha75]
Gregory J. Chaitin. “Randomness and Mathematical Proof”. In: Scientific American 232.5 (1975), pp. 47–52. URL: http://www.cs.
auckland.ac.nz/~chaitin/sciamer.html.
[Haa]
Mads Haahr. Random.org. URL: http://www.random.org.
[sem]
Maxim/Dallas semiconductor. Pseudo-Random Number Generation
Routine for the MAX765x Microprocessor. URL: http : / / www .
maxim-ic.com/app-notes/index.mvp/id/1743.
[unka]
unknown. Linear Feedback Shift Registers. URL: http : / /
homepage.mac.com/afj/lfsr.html.
[unkb]
unknown. Tap Sequences. URL: http://homepage.mac.com/
afj/taplist.html.
[Wal]
John Walker. HotBits: Genuine random numbers, generated by
radioactive decay. URL: http : / / www . fourmilab . ch /
hotbits/.
[Wikal]
Wikipedia. Linear congruential generator. URL: http : / /
en . wikipedia . org / wiki / Linear _ congruential _
generator.
184
[Wikam]
Wikipedia. Linear feedback shift register. URL: http : / / en .
wikipedia . org / wiki / Linear _ feedback _ shift _
register.
La crittografia
[BB96]
Luigia Berardi e Albrecht Beutelspacher. Crittologia. FrancoAngeli,
1996, p. 194.
[Bia09]
Carl Bialik. Coincidental Obscenity Deemed Extremely Dubious.
5 Nov. 2009. URL: http : / / online . wsj . com / article /
SB125737663000529407.html.
[CS09]
Thomas W. Cusick e Pantelimon Stănică. Cryptographic Boolean
Function and Applications. Academic Press - Elsevier, 2009, p. 245.
[Nee]
Chris Neel. Steganografia. URL: http://www.chrisneel.it/
rubriche/steganografia/index.htm.
[PD04]
Larry L. Peterson e Bruce S. Davie. Reti di calcolatori. Apogeo, 2004,
p. 696.
[Poem1]
Edgar Allan Poe. An Acrostic. ∼1829. URL: http://www.eapoe.
org/works/poems/acrstca.htm.
[Sil09]
Mark Silva. “Steganography”. In: (28 ott. 2009). URL: http://www.
swamppolitics . com / news / politics / blog / 2009 / 10 /
schwarzenegger_veto_you.html.
[Sin99]
Simon Singh. Codici & Segreti. BUR, 1999, p. 420.
[Ten03]
Andrew S. Tenenbaum. Reti di calcolatori. Pearson Education Italia
Srl, 2003, p. 894.
[TW06]
John Talbot e Dominic Welsh. Complexity and Cryptography. An
Introduction. Cambridge University Press, 2006, p. 305.
[Wika]
Wikipedia. Acrostic. URL: http://en.wikipedia.org/wiki/
Acrostic.
[Wikc]
Wikipedia. Alberti cipher. URL: http://en.wikipedia.org/
wiki/Alberti_cipher.
[Wike]
Wikipedia. Block cipher. URL: http : / / en . wikipedia . org /
wiki/Block_cipher.
[Wikg]
Wikipedia. Caesar cipher. URL: http://en.wikipedia.org/
wiki/Caesar_cipher.
185
[Wikq]
Wikipedia. Cryptographic hash function. URL: http : / / en .
wikipedia.org/wiki/Cryptographic_hash_function.
[Wiky]
Wikipedia. Frequency analysis. URL: http://en.wikipedia.
org/wiki/Frequency_analysis.
[Wikad]
Wikipedia. Index of coincidence. URL: http://en.wikipedia.
org/wiki/Index_of_coincidence.
[Wikah]
Wikipedia. Kasiski examination. URL: http://en.wikipedia.
org/wiki/Kasiski_examination.
[Wikao]
Wikipedia. MD4. URL: http://en.wikipedia.org/wiki/
MD4.
[Wikap]
Wikipedia. MD5. URL: http://en.wikipedia.org/wiki/
MD5.
[Wikar]
Wikipedia. One-time pad. URL: http://en.wikipedia.org/
wiki/One-time_pad.
[Wikav]
Wikipedia. Public key certificate. URL: http://en.wikipedia.
org/wiki/Public_key_certificate.
[Wikaw]
Wikipedia. Public-key cryptography. URL: http : / / en .
wikipedia.org/wiki/Public-key_cryptography.
[Wikaz]
Wikipedia. Scytale. URL: http://en.wikipedia.org/wiki/
Scytale.
[Wikba]
Wikipedia. SHA-2. URL: http://en.wikipedia.org/wiki/
SHA-2.
[Wikbc]
Wikipedia. Steganography. URL: http://en.wikipedia.org/
wiki/Steganography.
[Wikbe]
Wikipedia. Stream cipher. URL: http://en.wikipedia.org/
wiki/Stream_cipher.
[Wikbf]
Wikipedia. Substitution cipher. URL: http : / / en . wikipedia .
org/wiki/Substitution_cipher.
[Wikbi]
Wikipedia. Symmetric-key algorithm. URL: http : / / en .
wikipedia.org/wiki/Symmetric-key_algorithm.
[Wikbj]
Wikipedia. Transposition cipher. URL: http://en.wikipedia.
org/wiki/Transposition_cipher.
186
L’evoluzione della definizione probabilistica
[Wikf]
Wikipedia. Bruno de Finetti. URL: http://it.wikipedia.org/
wiki/Bruno_de_Finetti.
[Wikat]
Wikipedia. Probability theory. URL: http : / / en . wikipedia .
org/wiki/Probability_theory.
L’intuizione e il calcolo probabilistico
[Pau]
John Allen Paulos. John Allen Paulos and Sporadic Exponent. URL:
http://www.math.temple.edu/~paulos/.
[Ven]
Let’s Make A Deal (A Joint Venture). Let’s Make a Deal. URL: http:
//www.letsmakeadeal.com/.
[Wikak]
Wikipedia. Let’s Make a Deal. URL: http : / / it . wikipedia .
org/wiki/Let’s_Make_a_Deal.
[Wikaq]
Wikipedia. Monty Hall problem. URL: http://en.wikipedia.
org/wiki/Monty_Hall_problem.
Altre letture
Di seguito sono elencate ulteriori letture che, anche se non espressamente citate nel
testo, forniscono interessanti punti di vista su aspetti trattati o comunque correlati
a quelli esaminati.
[JW05]
Rob Eastaway e Jeremy Wyndham. Coppie, numeri e frattali. Dedalo,
2005, p. 272.
[Pen00]
Roger Penrose. La mente nuova dell’imperatore. BUR, 2000, p. 646.
187
Scarica

La Scienza mi ha detto