La Scienza mi ha detto. . . Alcuni capitoli di scienza Mariano Spadaccini mariano at marianospadaccini.it VERSIONE 1.10.3 – 9 ottobre 2010 Those who know don’t talk. Those who talk don’t know. tratto dal manuale PHP Meglio tacere e dare l’impressione di essere scemo, piuttosto che aprire bocca e togliere ogni dubbio. Antico detto popolare Quest’opera, per volontà dell’autore, è rilasciata sotto la disciplina della seguente licenza. Creative Commons Public License Attribuzione - Non Commerciale - Condividi allo stesso modo 2.5 Italia Tu sei libero: • di riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare, eseguire e recitare quest’opera • di modificare quest’opera Alle seguenti condizioni: Attribuzione. Devi attribuire la paternità dell’opera nei modi indicati dall’autore o da chi ti ha dato l’opera in licenza e in modo tale da non suggerire che essi avallino te o il modo in cui tu usi l’opera. Non Commerciale. Non puoi usare quest’opera per fini commerciali. Condividi allo stesso modo. Se alteri o trasformi quest’opera, o se la usi per crearne un’altra, puoi distribuire l’opera risultante solo con una licenza identica o equivalente a questa. - Ogni volta che usi o distribuisci quest’opera, devi farlo secondo i termini di questa licenza, che va comunicata con chiarezza - In ogni caso, puoi concordare col titolare dei diritti utilizzi di quest’opera non consentiti da questa licenza. - Questa licenza lascia impregiudicati i diritti morali. Le tue utilizzazioni libere e gli altri diritti non sono in nessun modo limitati da quanto sopra. Questo è un riassunto in linguaggio accessibile a tutti del Codice Legale che si trova al seguente url: http://creativecommons.org/licenses/by-nc-sa/2.5/it/legalcode OGNI ESEMPLARE DELL’OPERA (DIGITALE O CARTACEO) PRIVO DI QUESTA PAGINA È DA RITENERSI CONTRAFFATTO. 6 Indice Indice 7 Presentazione 8 La variabilità del mondo 9 Il mondo a colori 29 La coerenza dell’astrologia 43 Il caos 55 La matematica della bellezza 87 Il numero più grande 107 Quando è iniziato il nuovo millennio? 115 La casualità 121 La crittografia 139 L’evoluzione della definizione probabilistica 165 L’intuizione e il calcolo probabilistico 169 Lista delle figure 177 Riferimenti bibliografici 179 7 Presentazione Vorrei da subito precisare che i temi trattati non riguardano il mio campo professionale. Il testo è nato a seguito della voglia di riportare in forma scritta le mie curiosità, le mie riflessioni e i miei dubbi. Più precisamente, originariamente alcuni capitoli costituivano semplicemente articoli a se stanti; e solo successivamente sono stati condensati in una protoversione del testo attuale. Questo metodo (o non metodo) di stesura ha diversi difetti. Il problema principale è la creazione in ordine sparso dei capitoli, con conseguente eterogeneità del testo. Ho comunque cercato di rendere più omogenea la struttura riscrivendo alcune porzioni, ma sono certo di non essere riuscito completamente nel mio intento. Pertanto, mi scuso anticipatamente con i lettori. Invito gli stessi ad inviarmi commenti o segnalazione di errori all’indirizzo e-mail [email protected]. In ogni caso mi riservo il diritto di affermare che ho inserito intenzionalmente tali errori nel testo, come sorpresa per i lettori più attenti, per rendere più dinamica la lettura. 8 La variabilità del mondo Discendiamo da Adamo ed Eva o dalle scimmie? domanda sul web passato, sino al XVIII secolo, si pensava universalmente che l’universo, la Terra, la vita e l’uomo fossero creazioni divine o, nata recentemente come tesi alternativa, di entità extraterrestri. In Europa tale filosofia di pensiero si identifica con l’interpretazione letterale di un passo della Genesi, ma in generale tutte le civiltà hanno un racconto mitologico che spiega l’origine in termini simili. Il naturalista svedese Carlo Linneo (1707-1778), all’inizio della sua vasta opera di classificazione biologica, afferma: I N Numeriamo tante specie quante in principio furono create dall’Ente infinito La dottrina ottocentesca prese il nome di creazionismo, nome derivante dalla nascita del dubbio che le osservazioni geologiche e paleontologiche non fossero compatibili con l’ortodossia: si stava insinuando l’ipotesi eretica di trasformazione degli esseri viventi. I primi ad abbracciare l’ipotesi del dinamismo della natura furono gli scienziati ed i filosofi illuministi che, nonostante fossero molto distanti dal moderno concetto di evoluzione, ripudiavano la corrente maggioritaria, convinta dell’immutabilità delle specie. All’inizio del XIX secolo si fecero più pressanti i dubbi, poiché negli strati rocciosi antichi si trovavano perlopiù fossili di specie sconosciute e, tra i fossili più datati, quelle conosciute erano addirittura inesistenti. Per spiegare questa incongruenza, nel 1809 il naturalista Jean-Baptiste de Lamarck espose la sua teoria evoluzionistica secondo la quale tutti gli esseri viventi mutano a causa dell’azione dell’ambiente, determinando la comparsa di caratteri ereditari tramite il principio dell’uso di un organo: l’uso causerebbe il potenziamento e, quindi, lo sviluppo dell’organo, il non uso lo indebolirebbe e, se il non uso si pro9 Figura 1: La creazione di Adamo, Michelangelo, Cappella Sistina traesse per diverse generazioni, si avrebbe atrofia e, successivamente, scomparsa dell’organo. Quest’ipotesi è spesso illustrata con il seguente esempio: La giraffa vive in un ambiente povero di erba che la obbliga a brucare il fogliame degli alberi, sforzandosi di arrivare in alto. Quest’abitudine, mantenutasi nella sua specie per molto tempo, ha causato la maggiore lunghezza delle zampe anteriori rispetto le posteriori, e notevole allungamento del collo: tutto ciò ha permesso alle giraffe di raggiungere agevolmente i sei metri, senza dover più drizzarsi sulle zampe posteriori. Generalizzando, gli organismi tenderebbero a trasformarsi a causa di un’impulso interno, una forza guidata dall’ambiente che li spingerebbe nella direzione dell’evoluzione. L’errore che può essere isolato in questa ipotesi è legato all’idea dell’ereditarietà dei caratteri acquisiti; ad esempio, un culturista1 non avrà discendenza necessariamente di muscolatura robusta2 . Come è facile immaginare, il modello lamarkiano fu fortemente contestato dai creazionisti poiché, anche se forniva una sufficiente spiegazione alle prove fossili, era in netto contrasto con la statica cultura del tempo. 1 la cui muscolatura accentuata è un tratto fenotipico (morfologico) derivante dall’interazione dello sportivo con l’ambiente (inteso come atto meccanico del sollevamento dei pesi) 2 in quanto il suo sviluppo muscolare non è un carattere derivante dal genotipo (patrimonio genetico), ma derivante dall’esercizio fisico 10 Il pensiero dominante era così radicato che la maggiore teoria dell’epoca fu quella del naturista francese Georges Cuvier che, agli inizi del XIX secolo, formulò la teoria delle catastrofi naturali; essa si proponeva di spiegare l’esistenza dei fossili di specie estinte e, nel contempo, era compatibile con la Bibbia. Secondo questa teoria, la Terra, nel corso della sua storia, fu interessata da eventi catastrofici i quali causarono la scomparsa delle specie attualmente estinte; conformandosi alle Sacre Scritture, i fossili delle specie estinte rappresentavano quelle che non trovarono posto sull’arca di Noè in occasione del diluvio universale. In questo contesto si inserisce la figura di Charles Darwin il quale, inizialmente, non dubitava della verità della Bibbia. Da giovane si interessò alla botanica e all’entomologia, successivamente restò affascinato dalla geologia nella quale si applicò anche dopo gli studi. Terminati alcuni rilievi stratigrafici nel Galles del nord, si imbarcò nella nave Beagle, in partenza per una spedizione cartografica di cinque anni intorno alle coste del Sud America. Questa spedizione gli permise di studiare sia le caratteristiche geologiche, sia un gran numero di fossili ed esseri viventi sconosciuti. Figura 2: Il viaggio del Beagle Di ritorno dal suo viaggio, analizzò i campioni raccolti minuziosamente, e lo colpirono in particolar modo quelli dell’Arcipelago delle Galápagos. L’anno successivo, ornitologi del British Museum informarono Darwin che, i campioni a loro forniti provenienti da tale arcipelago, appartenevano tutti ad un gruppo di specie delle sottofamiglia Geospizinae, della famiglia Fringillidae, a cui appartengono i comuni fringuelli. Sia a seguito della riflessione sugli appunti di viaggio, sia traendo spunto dalla lettura degli scritti di Thomas Malthus (1766-1834), le sue convinzioni teologiche si fecero seriamente vacillanti. L’idea dell’economista di lotta per la sopravvivenza della popolazione umana ebbe una influenza decisiva, inducendolo a riflettere che individui e specie sono immersi in un ambiente in cui c’è una cronica povertà di risorse, per cui variazioni tra individui di una stessa specie risultano 11 Figura 3: Tra i molti indizi raccolti nei suoi viaggi, Darwin fu colpito da come specie affini differissero da un luogo ad un altro; in particolare, notò le piccole differenze tra i fringillidi (famiglia di uccelli passeriformi) delle isole Galápagos: diverse misure e forme di becchi di fringuelli si spiegavano facilmente ipotizzando che tali caratteristiche erano opera della specializzazione in ogni isola, a seconda delle fonti di cibo cui si dispone determinanti per l’evoluzione futura. Era convinto che i naturalisti contemporanei ecclesiastici la ritenessero un’immane eresia, con conseguenze gravi sulla sua carriera di eminente geologo. Pertanto, iniziò a sviluppare segretamente la sua teoria sulla selezione naturale, collezionando prove schiaccianti e affinandola, lavoro che si concretizzò con la pubblicazione nel 1859 dell’opera L’origine della specie. Nel saggio, Darwin ricorda i meriti dello stesso Lamark, ma a Darwin non convincevano le motivazioni lamarkiane: né l’azione dell’ambiente, né la volontà degli organismi gli sembravano motivazioni sufficienti a spiegare la complessità dell’evoluzione. La sua teoria innovatrice ipotizzava che individui e specie cercano di sopravvivere a spese degli altri: gli individui vincitori di questa lotta riescono sia a sopravvivere, sia a trasmettere i propri caratteri alle generazioni successive. I vincitori sono gli individui più adatti alle condizioni ambientali. Questo meccanismo è chiamato selezione naturale ed esclude ogni intervento di impulso interno. 12 Figura 4: Frontespizio dell’edizione del 1859 de L’origine della specie In sintesi, l’ambiente non è la causa primaria dell’evoluzione, ma entra in azione in un secondo momento, guidando l’evoluzione come un filtro che determina i vantaggi e gli svantaggi. Inoltre, il testo è lungamente argomentato e contiene dettagliate prove scientifiche che il naturalista accumulò nel tempo. Nonostante le numerose prove, la teoria fu fortemente osteggiata dagli studiosi convinti della fissità di ogni specie. Molti teologi consideravano la teoria in contrapposizione alla Bibbia, quindi coloro che accettavano la teoria erano considerati scettici nei confronti dell’onnipotenza di Dio. In questa polemica si inserisce l’intervento dello studioso Thomas Henry Huxley, sostenitore di Darwin: Preferisco discendere da una scimmia che da un uomo di cultura che ha prostituito il sapere e l’eloquenza al servizio del pregiudizio e della falsità Passò qualche anno, ma la maggior parte degli studiosi esitava a sostenere l’evoluzione per selezione naturale a causa della lacuna nel meccanismo di trasmissibilità delle caratteristiche ai discendenti. Darwin propose una propria ipotesi riguardo tali meccanismi, ma non fu convincente: questa fu la debolezza della teoria darwiniana, fino alla riscoperta del lavoro di Gregor Mendel. Gregor Mendel era un monaco agostiniano ed un biologo, considerato il precursore della genetica per le osservazioni sui caratteri ereditari. L’innovazione della sua tesi fu la deduzione che l’ereditarietà era un fenomeno legato ad agenti specifici 13 Figura 5: Raffigurazione sarcastica dell’uomo che discende dalla scimmia (in questa raffigurazione l’uomo è Darwin) contenuti nei genitori. Nello specifico, nei suoi esperimenti Mendel utilizzò linee pure3 di piante di pisello, le quali avevano caratteristiche differenti (ad esempio forma del seme o colore del seme) ben visibili. Scelse i piselli per i suoi incroci per le ragioni che egli stesso scrisse: Alcune varietà di piselli possiedono caratteri costanti di facile e sicuro riconoscimento (colore dei fiori, lunghezza del gambo, aspetto liscio o grinzoso dei semi . . . ); né può temersi una facile intrusione di polline estraneo, dato che gli organi della fecondazione sono ben protetti nel fiore. Inoltre è facile coltivare queste piante sia all’aperto, sia nei vasi, e il tempo fra una generazione e l’altra è relativamente breve 3 14 cioè dalle caratteristiche rimaste immutate per numerose generazioni Da notare che le caratteristiche di questa coltivazione gli permisero di disporre di un vastissimo numero di esemplari, per cui ha potuto effettuare le osservazioni statistiche alla base delle sue intuizioni. Iniziò ad incrociare le linee pure per molti esemplari e registrò le caratteristiche delle generazioni successivie. Ad esempio, incrociò una pianta a semi gialli con una a semi verdi; notò che la prima generazione filiale (GF1) manifestava solo una delle caratteristiche antagoniste delle generazioni parentali. Ne dedusse che tale caratteristica era dominante (v. Figura 6). x Generazione parentale I generazione Figura 6: Unendo due piante di pisello con colore dei semi rispettivamente giallo e verde (generazione parentale), il colore dei semi della generazione filiale sarà giallo, quindi il giallo è dominante, il verde è recessivo Di seguito sono elencate le 7 linee pure individuate, e per ogni caratteristica osservata la distinzione avviene per fenotipi associati: colore dei petali: porpora o bianco; colore interno del seme: giallo o verde; superficie del seme: liscia o rugosa; colore del baccello non maturo: verde o giallo; tipo di baccello: semplice o concamerato; altezza del fusto: alto o basso; disposizione dei fiori: lungo il fusto o in cima al fusto. Nell’elenco, il primo fenotipo è quello dominante, il secondo quello recessivo. Successivamente incrociò le piante GF1 ottenendo GF2: Mendel osservò la ricomparsa in alcune generazioni dei caratteri persi. Ne dedusse che i caratteri persi 15 nella GF1 non erano scomparsi, ma erano inespressi poiché celati dal dominante. Osservando le proporzioni nella GF2, Mendel registrò tre esemplari su quattro che mostravano il carattere dominante ed una su quattro il carattere recessivo, pertanto ipotizzò (v. Figura 7): - l’esistenza di particelle ereditarie (successivamente denominate geni); - forme diverse dello stesso gene (successivamente definite alleli) le quali determinano il fenotipo attraverso il dominante; - ogni gene presente nelle piante di pisello, per rispettare le proporzioni mostrate da GF2, ha due alleli (pertanto definito diploide4 ). x x Generazione parentale I generazione II generazione Figura 7: La generazione filiale 2 (GF2), aggiunta rispetto la Figura 6, suggerirono a Mendel il meccanismo di trasmissibilità dei caratteri ereditari Dalle precedenti ipotesi, è possibile spiegare soltanto le frequenze dei fenotipi derivanti da un unico gene; questa limitazione sarà esaminata più approfonditamente nel seguito. Le diverse tipologie di esperimenti effettuati da Mendel sono di seguito riassunte: 1. Il carattere colore dei petali è controllato da un singolo gene che esiste in due forme alleliche: porpora (P) e bianco (b). Incrociando tra loro due piante omozigoti, le quali presentano genotipo rispettivamente PP e bb, si ha un solo genotipo possibile (Pb), eterozigote. In accordo con la legge della 4 se il gene è definito solo da un allele si tratta di aploide, se da due di diploide, se da più alleli si tratta di poliploide 16 dominanza, da incroci tra piante differenti per una singola coppia di caratteri antagonisti, nascono ibridi in cui si manifesta uno solo dei due caratteri, quello dominante. 2. Incrociando tra loro gli ibridi così ottenuti (o per autoimpollinazione), in accordo con la legge della segregazione, si manifesterà in tre casi su quattro il fenotipo dominante (in caso in cui gli alleli siano Pb, bP o PP), uno su quattro si manifesterà quello recessivo (alleli bb). 3. Per generalizzare gli esperimenti precedenti, è possibile prendere piante che si differenziano per due caratteri: il colore del seme (giallo dominante, verde recessivo) e la superficie (liscia dominante, grinzosa recessiva). Incrociando gli esemplari, in accordo con la Tabella 1, su una casistica ridotta a 16 tipologie di incrocio, si ottengono: - 9 semi gialli e lisci; - 3 semi gialli e grinzosi; - 3 semi verdi e lisci;. - 1 seme verde e grinzoso. GL GG VL VG GL GL GL GL GL GG GL GG GL GG VL VG GL GL VL VL GL GG VL VG Tabella 1: Quadrato di Punnet utilizzando semi gialli G, semi verdi V, superficie liscia L, superficie grinzosa G; i caratteri dominanti sono maiuscoli In accordo con la legge dell’indipendenza dei caratteri, questi sono indipendenti tra loro e potranno comparire in associazioni differenti dai genitori. Più in generale, sono state definite le leggi di Mendel: Dominanza (o legge della omogeneità di fenotipo): la dominanza esprime l’identità fenotipica dell’omozigote e dell’eterozigote dominante; in altri termini, incrociando individui parentali di linee pure differenti tra loro, gli individui della progenia presenteranno tutti il genotipo eterozigote, con manifestazione solo dell’allele dominante. 17 Segregazione (o legge della disgiunzione): incrociando due individui della prima generazione, un quarto avrà gli alleli di un progenitore (omozigoti), un quarto dell’altro progenitore (omozigoti), la restante metà sarà eterozigote. Pertanto, per tre quarti sarà mostrato l’allele dominante (omozigote con geni dominanti o eterozigote), per un quarto l’allele recessivo (omozigote con geni entrambi recessivi). Assortimento (o legge di indipendenza dei caratteri): gli alleli dello stesso tipo (omozigoti o eterozigoti) si distribuiscono con uguale probabilità nella generazione filiale. Ciò implica che la probabilità di trasmissione di un allele è indipendente dall’altro (conseguentemente, è possibile applicare il quadrato di Punnet, come in Tabella 1). Esistono alcune eccezioni per le leggi appena esposte, la maggiore riguarda la legge della dominanza, detta anche dominanza semplice o completa, la quale prevede due alternative: Codominanza: entrambi gli alleli si manifestano; in altri termini, non è rispettato più il paradigma dominante-recessivo, ma il fenotipo è determinato dalla combinazione dei geni dell’eterozigote. Ad esempio, per la determinazione del gruppo sanguigno si segue tale schema (v. Scheda di approfondimento). Incompleta: si manifesta quando è ancora valido il paradigma dominante-recessivo, ma l’allele recessivo si esprime, anche se in maniera minore rispetto al dominante. Ad esempio, la pianta floreale Bella di notte (Mirabilis jalapa) tipicamente presenta colorazione ibrida dei fiori (ogni fiore può risultare di due o più colori). Le eccezioni appena riportate sono solo le più semplici, ma è bene evidenziare che molti caratteri si ottengono per interazioni di molti geni diversi, spesso influenzati anche dall’azione dell’ambiente. In generale, le diverse combinazioni alleliche del sottoinsieme genico definisce i caratteri e, tale complessità non è riconducibile alle leggi di Mendel. Si inserisce in questo contesto la biochimica la quale, studiando le reazioni tra i vari geni, cerca di dedurre quale sia il carattere. Importante fu la figura di Thomas Hunt Morgan (1866-1945) il quale, nel campo della genetica, effettuò ricerche fondamentali sul moscerino della frutta (Drosophila melanogaster), confermando le basi degli studi effettuati da Gregor Mendel. Morgan riconobbe la localizzazione e l’ordinamento dei geni individuando i cromosomi, suggerendo le basi della teoria cromosomica dell’ereditariet‘a. Negli esperimenti condotti da lui ed i suoi allievi, si isolò, in una vasta popolazione di moscerini selvatici dagli occhi rossi, uno dagli occhi bianchi. Il fenotipo era stato consapevolmente provocato da una mutazione spontanea del gene che determinava 18 Scheda di approfondimento Tra i 30 sistemi oggi riconosciuti per la determinazione del gruppo sanguigno umano, il più importante è il sistema AB0 in cui esistono 4 gruppi sanguigni i quali si differenziano a seconda degli antigeni (molecole che si lega ad una determinata immunoglobulina) e agglutine (anticorpo che distruggono globuli rossi contenenti antigeni di gruppo diverso): 0: non possiede alcun antigene, quindi il plasma sanguigno possiede sia l’agglutina alfa sia beta; A: possiede l’antigene A, nel plasma si riscontra la presenza dell’agglutina beta (anti-B); B: possiede l’antigene B e, nel plasma si riscontra l’agglutina beta (anti-B); AB: possiede sia l’antigene A sia il B, pertanto non ha agglutine nel plasma. Ogni gruppo sanguigno è diviso ulteriormente in due categorie in dipendenza del fattore Rhesus (presenza dell’antigene Rh nei globuli rossi). Geneticamente, nel sistema AB0 esistono tre alleli che determinano il gruppo, gli alleli A (o iA ) e B (o iB ) sono codominanti, invece l’allele 0 (o i) è recessivo. Per la determinazione del fattore Rh, gli alleli sono D per il dominante, responsabile dell’Rh+, e d recessivo, per l’Rh-. fenotipo A B AB 0 genotipo AA o A0 BB o B0 AB 00 fattore Rh Rh+ Rh+ Rh+ Rh- allele D D d d allele D d D d il colore degli occhi: gli incroci tra individui con alleli diversi hanno permesso di ottenere una nuova forma allelica. Successivamente a questo caso, Morgan isolò 83 ceppi, ognuno dei quali presentava mutazioni su geni diversi. E le mutazioni indotte iniziarono ad avere un ruolo fondamentale negli esperimenti della genetica. Le mutazioni possono appartenere a diverse classi; le maggiori sono: Indotte: prodotte dall’azione di agenti fisici (raggi X, gamma, . . . ) o chimici (sostanze esterne), detti mutageni. Spontanee: provocate da fattori interni o eventualità nel processo di replicazione. 19 Geniche: alterano un solo gene, quindi le più localizzate che possono esserci; esse portano alla formazione di alleli mutanti. Condizionali: non producono solitamente effetti, ma sono attivate solo a seguito di particolari condizioni ambientali; ad esempio, molto diffuso è l’attivazione delle mutazioni in relazione alla temperatura, agendo solo al di sopra o al di sotto di determinate soglie. Da alcuni studi, si è osservato che la frequenza delle mutazioni è molto elevata; pertanto, le specie più evolute hanno creato sistemi di riparazione: essi hanno il compito di individuare e riparare i danni di frammenti genetici. Purtroppo anche tale meccanismo può fallire, creando paradossalmente le mutazioni genetiche da sistemi di riparazione. Da quanto scritto sinora, si comprende che le mutazioni genetiche costituiscono il motore dell’evoluzione, determinando l’eterogeneità genetica; quest’ultima si esprime nelle generazioni filiali tramite il processo di ricombinazione genetica, a sua volta filtrata dalla selezione naturale, che operando su scala temporale lunga, promuove le mutazioni favorevoli, elimina quelle sfavorevoli. La selezione naturale funge da filtro e, attraverso la ricombinazione, tende ad omogeneizzare la specie. Il bilancio delle due contrapposte azioni determina la variabilità genetica. Quest’ultima rappresenta il totale delle caratteristiche della popolazione, quindi sintetizza le differenze dei caratteri genetici degli individui. Con il lavoro di Morgan la teoria dell’evoluzione incontra sempre maggior successo sino a divenire dominante e, successivamente, grazie al lavoro di numerosi biologi, genetisti e paleontologi, la teoria dell’evoluzione fu universalmente accettata, sfociando nel neodarwinismo (anche detta sintesi moderna dell’evoluzione), la quale essenzialmente unisce la selezione naturale di Darwin con la genetica di Mendel. Uno dei maggiori successi della sintesi moderna fu fornire la valida spiegazione per la formazione di nuove specie (speciazione). Per molti anni si è pensato che le mutazioni del patrimonio genetico di specie più antiche, dette specie ancestrali, convergessero verso specie nuove; studiosi di genetica della popolazione hanno osservato che per la nascita di una nuova specie è determinante un periodo di isolamento. Ad esempio, cambiamenti pseudo-catastrofici possono isolare una parte di popolazione, la quale potrebbe evolvere differentemente dal resto attuando la deriva genetica. Questo meccanismo è favorito da due fenomeni: - casualità delle mutazioni genetiche; 20 Scheda di approfondimento Di seguito alcuni esempi di mutazioni favorevoli e sfavorevoli, quest’ultime con altissima frequenza rispetto le prime. Tra le sfavorevoli troviamo: Daltonismo: tra le varie cause possibili, mutazione che determina il non corretto sviluppo dei fotorecettori. Albinismo: mutazione del gene per lo sviluppo della melanina. Tumori: alcune mutazioni possono propagarsi per replicazione e degenerare in cancro. Tra le favorevoli troviamo: Tolleranza al lattosio: secondo molti genetisti, circa 10000 anni fa, una mutazione colpì gli uomini nella zona del Caucaso, mutazione che permise la tolleranza del lattosio e, quindi, la digeribilità del latte e altri alimenti. Resistenza all’AIDS: probabilmente una mutazione sviluppata al gene CCR5 quale forma di resistenza alla peste bubbonica, ha conferito difesa all’AIDS negli omozigoti. Per scopi commerciali, ultimamente sono moltiplicate le mutazioni indotte per ottenere organismi mutanti con caratteristiche peculiari. Le applicazioni sono isolate al mondo vegetale per ottenere, ad esempio, crescita in particolari condizioni ambientali, produzione di frutti più grandi o senza semi, . . . Questi organismi mutati sono spesso confusi con gli organismi geneticamente modificati; gli OGM sono prodotti tramite tecniche dell’ingegneria genetica le quali manipolano sostanzialmente il patrimonio genetico Scheda di approfondimento È importante evidenziare che né mutazione né selezione, prese singolarmente, producono evoluzione; infatti: la mutazione rende la popolazione eterogenea e, per la sua caratteristica di casualità, produrrà difficilmente dei benefici; la selezione non introduce caratteristiche alla specie, tendendo in realtà ad omogeneizzarla. 21 - selezione ambientale differente (una caratteristica genetica favorevole in un ambiente potrebbe non esserla nell’altro). Il meccanismo della deriva genetica non è sufficiente affinché si crei una nuova specie; infatti, non è fondamentale che siano cambiate caratteristiche fisiche, ma lo è l’incompatibilità sessuale: se le due popolazioni dovessero tornare in contatto, è essenziale l’impossibilità di incrocio sessuale, altrimenti attraverso l’accoppiamento tra le due specie le differenze sfumerebbero, Oltre l’impossibilità di accoppiamento, è auspicabile che la nuova specie non sia concorrente (ad esempio, mangi lo stesso cibo) con quella di origine; se così non fosse, una delle due specie (probabilmente la meno numerosa) rischierà di estinguersi. Nonostante i principi generali della teoria evoluzionistica siano propri della comunità scientifica, gli aspetti secondari sono ampiamente dibattuti costituendo un campo di ricerca estremamente dinamico. In tempi recenti è stata proposta la teoria degli equilibri punteggiati, formulata da Eldredge (1943) e Gould (1941-2002) nel 1972. Secondo la sintesi moderna, l’evoluzione è un processo graduale e continuo nel tempo, regolata dal meccanismo della selezione naturale: gli organismi sono soggetti continuamente a piccole mutazioni casuali: le mutazioni vantaggiose sono premiate dalla selezione naturale attraverso la sopravvivenza dell’individuo e dei propri discendenti; a lungo termine i piccoli cambiamenti accumulati formano grandi cambiamenti e, nel complesso, la popolazione evolve. Attraverso questa visione, l’estinzione di una specie è il culmine di un lento declino, probabilmente accompagnata dall’affermazione di una specie rivale più adatta. La teoria degli equilibri punteggiati mette in discussione la gradualità del meccanismo, affermando che la nascita di una nuova specie è un evento repentino, seguito da un lungo periodo di stasi, durante il quale la struttura dell’organismo non subisce sostanziali mutazioni. In altre parole, episodi rapidi e devastanti (come l’impatto di un asteroide sulla Terra) hanno interrotto un flusso lineare della storia per introdurre caratteristiche evolutive imprevedibili. È importante sottolineare che la teoria degli equilibri punteggiati mantiene inalterato il meccanismo della selezione naturale: solitamente gli individui evolvono molto lentamente5 , poi però, giunge improvvisamente una catastrofe e può accadere che una specie perfettamente adattata si estingua, mentre una seconda specie 5 questo è l’adattamento: le strutture anatomiche si sono sviluppate (lentamente) nel tempo attraverso la selezione naturale 22 Scheda di approfondimento Il gradualismo filetico ipotizza che l’evoluzione biologica sia un processo lento e graduale. Secondo questa teoria, tra una generazione e la successiva sorgono differenze genetiche impercettibili, cosicché le macro modifiche sono prodotte dalla somma totale dei piccoli cambiamenti. Il pensiero di Stephen Jay Gould e Niles Eldredge è fortemente critica al gradualismo filetico con la conseguente formulazione della Teoria degli equilibri punteggiati. I ritrovamenti fossili evidenziano lunghi periodi di stasi, inducendo ad ipotizzare lunghi periodi di cambiamenti non percettibili, seguiti da brevi periodi di relativa rapida mutazione, talvolta accompagnata da speciazione. sopravvive in virtù di una caratteristica anatomica che precedentemente non aveva alcuna utilità6 . Ciò significa che l’idea base del neodarwinismo rimane inalterata; la teoria degli equilibri punteggiati vuole accostarsi maggiormente ai ritrovamenti fossili, ipotizzando che la dinamica del processo evolutivo non sia lineare. Gli evoluzionisti neodarwinisti non accettano la teoria degli equilibri punteggiati poiché ritengono che gli autori abbiano forzato il concetto del gradualismo. Nella teoria neodarwiniana il termine sintetizza il lungo periodo necessario alla formazione di nuove specie, utilizzato in contrapposizione al saltazionismo che ipotizza la formazione di nuove specie in poche generazioni. Ciò non implica che la velocità evolutiva sia costante; difatti, lo stesso Darwin nell’Origine della specie scrive: [...] Una volta formate, molte specie non subiscono più un ulteriore cambiamento [...]; e i periodi in cui le specie hanno subito modifiche, sebbene lunghi se misurati in anni, sono stati probabilmente brevi in confronto ai periodi in cui hanno mantenuto la stessa forma. Riassumendo, la sintesi moderna ipotizza una evoluzione graduale a velocità non costante, pertanto la teoria degli equilibri punteggiati non è altro che una riproposizione del medesimo concetto della teoria ortodossa. Critiche all’evoluzionismo L’evoluzionismo ha ricevuto e continua a ricevere tantissime critiche sia per motivi religiosi, sia per contestazioni scientifiche e psudoscientifiche. Non potendo esaminarle in maniera esaustiva, mi limiterò a riportare ed analizzare le maggiori. 6 questo è l’esattamento: strutture che si sono formate per caso o comunque forniscono trascurabili vantaggi, in un secondo tempo producono un vantaggio inaspettato 23 Evoluzione e religione Il pensiero religioso è spesso stato di ostacolo per l’accettazione di teorie scientifiche; infatti il conservatorismo filosofico della teologia è spesso incompatibile con il dinamismo culturale della scienza. Le rivoluzioni scientifiche estremizzano questa contrapposizione, pertanto il concetto di evoluzione rivela la sua portata intellettuale. Scendendo più in dettaglio, le posizioni assunte dalle varie organizzazioni religiose è molto eterogeneo. Le posizioni più rigide sono quelle dell’Ebraismo ortodosso e di alcune chiese evangeliche americane, le quale professano il Creazionismo biblico. Non analizzerò questa posizione poiché è in antitesi con il principio scientifico della falsificabilità. In posizione estremamente differente si colloca la Chiesa anglicana, la quale, in un documento ufficiale firmato dal reverendo Malcolm Brown, si scusa con Darwin per non aver compreso le sue teorie evoluzionistiche. La posizione della Chiesa cattolica, originariamente coincidente con quella dell’Ebraismo ortodosso, è intermedia tra le precedenti. In realtà, non ha una posizione definita sul darwinismo; alcuni teologi la accettano rifacendosi al pensiero di Sant’Agostino d’Ippona: quest’ultimo sostenne che Dio non ha creato il mondo nella condizioni attuali, ma in una condizione più semplice che successivamente si è evoluta. Contestualmente, per rimanere nell’ortodossia, formulano due considerazioni: 1. l’evoluzione è esclusivamente biologica: Dio non ha preso propriamente fango dalla terra, ma il corpo di un animale sufficientemente evoluto, tale da accogliere l’anima; 2. si esclude che l’evoluzione interessi anche l’anima dell’uomo; in altri termini, anche se si accetta l’evoluzione, l’intervento di Dio nella creazione dell’uomo è necessario affinché l’animale antropomorfo potesse accogliere l’anima e trasformarsi nell’uomo. Scheda di approfondimento Il criterio della falsificabilità afferma che una teoria, per essere controllabile, deve essere falsificabile. In termini più formali, dalla premesse si devono dedurre conseguenze tali che possano essere ritenute errate. Se una teoria non è confutabile, è impossibile controllarne la validità, poiché, per definizione, non è possibile contestarla. Questo principio è ritenuto fondamentale affinché una affermazione sia scientifica. 24 La dottrina della Chiesa cattolica è stata chiarita da Giovanni Paolo II nel 1996, e successivamente dall’attuale Papa Benedetto XVI (allora cardinale Ratzinger); essi la definiscono una teoria, quindi una costruzione metascientifica, che soffre, come tutte le teorie scientifiche, dell’incertezza e contingenza. Per supportare tali considerazioni, si osserva che l’evoluzione non è mai stata oggetto di osservazione. Purtroppo, questa affermazione non è corretta. Sappiamo che l’evoluzione delle specie più complesse non è osservabile direttamente, a causa del rapporto tra il tempo a nostra disposizione per l’osservazione e la successione delle generazioni. Una evoluzione osservabile per merito della rapidità di avvicendamento generazionale è quella batterica. Ad esempio, gli antibiotici creano un ambiente ostile per i batteri, e solo le mutazioni che determinano maggiore resistenza alle avversità ambientali permetteranno agli stessi di sopravvivere. Di conseguenza, si osserva una progressiva resistenza all’antibiotico, e solo l’introduzione di uno nuovo potrà combattere il nuovo ceppo batterico; purtroppo, con l’introduzione del secondo antibiotico si riprodurrà lo stesso schema appena esaminato. Un analogo modello per i virus: essi mutano rapidamente attraverso nuovi ceppi, con conseguente difficoltà nel produrre vaccini efficaci in maniera definitiva contro l’influenza. Antievoluzionismo Molto simile alla posizione della Chiesa cattolica è quella del fisico italiano Antonino Zichichi, che deride le prove biologiche7 e ricorda che la scienza, in quanto tale, deve essere supportata da espressioni matematiche, lacuna presente nella teoria evoluzionistica. Nel testo [Zic06], Antonino Zichichi scrive: [...] La cultura dominante ha posto il tema della specie umana sul piedistallo di una grande verità scientifica in contrasto totale con la Fede. [...] Arrivati all’ Homo Sapiens Neaderthalensis (centomila anni fa), con un cervello di volume superiore al nostro, la Teoria dell’Evoluzione Biologica della specie umana ci dice che, quarantamila anni fa circa, l’Homo Sapiens Neanderthalensis si estingue in modo inspiegabile. E compare infine, in modo altrettanto inspiegabile, ventimila anni fa circa, l’Homo Sapiens Sapiens. Cioè noi. Una teoria anelli mancanti, sviluppi miracolosi, inspiegabili estinzioni, improvvise scomparse non è Scienza galileana. [...] Al contrario di quanto affermato dal prof. Zichichi, la comunità scientifica non concorda sulla parentela tra l’Homo sapiens e l’Homo di Neanderthal; in ogni caso 7 questione approfondita nel libro [Odi03] 25 Scheda di approfondimento La comunità scientifica non concorda sulla parentela tra l’Homo sapiens e l’Homo di Neanderthal; la più accurata analisi molecolare confermata stima che l’Homo sapiens e l’Homo di Neanderthal si siano separati circa 800000 anni fa e non ci sono evidenze accettate su un eventuale ricongiungimento. Pertanto, in ambito accademico, è attualmente dibattuto se l’uomo di Neandertal sia da considerare una sottospecie estinta di Homo sapiens (quindi Homo sapiens neanderthalensis) con conseguente incroci tra i due, oppure se sia una specie autonoma (Homo neanderthalensis). In ogni caso, i due gruppi convissero per migliaia di anni su vasti territori europei e asiatici. Per curiosità, di seguito riporto l’espressione utilizzata dal paleontologo William Straus della Johns Hopkins University che, in un articolo riportato dal The Quarterly Review of Biology, afferma: If [Neanderthal Man] could be reincarnated and placed in a New York subway – provided that he were bathed, shaved, and dressed in modern clothing – it is doubtful whether he would attract any more attention che può essere tradotta: Se si potesse reincarnare [un Homo di Neanderthal] e porlo nella metropolitana di New York – opportunamente lavato, sbarbato e vestito – si dubita che possa attrarre attenzioni i due gruppi convissero per un lungo tempo (vedi Scheda di approfondimento). Il prof. Zichichi nega ulteriormente la teoria dell’evoluzione umana; riporto un ulteriore stralcio: [...] Gli oscurantisti sono coloro che pretendono di fare assurgere al rango di verità scientifica una teoria priva di una pur elementare struttura matematica e senza alcuna prova sperimentale di stampo galileiano. [...] Sappiamo con certezza che l’evoluzione biologica della specie umana è ferma da almeno diecimila anni (dall’alba della civiltà), [...] Durante diecimila anni questa forma di materia vivente è rimasta esattamente identica a sé stessa. Evoluzione biologica: zero. [...] Purtroppo, questo discorso trascura le dimensioni temporali della vita sulla Terra, in particolare l’affermazione diecimila anni è inesatta, poiché l’Homo sapiens è 26 presente da circa 200.000 anni: la mancanza di evoluzione in questo lasso di tempo non è affatto in contraddizione con la teoria evoluzionistica, in quanto questa afferma che le trasformazioni possono verificarsi su tempi dell’ordine di centinaia di migliaia di anni. Un ultimo stralcio dallo stesso libro del prof. Zichichi: [...] La scienza non può aprir bocca sulla Creazione, anche se non è sua nemica. Rimane solamente il credere o no a un Dio Creatore. Non abbiamo ancora compreso la materia inerte, figuriamoci il passaggio verso la materia vivente. [...] Purtroppo, in questo passaggio il prof. Zichichi esce fuori tema, inserendo in un contesto evoluzionistico, l’argomento dell’abiogensi8 . Il professore, senza giustificarne l’introduzione, confonde campi non correlati, con l’eventualità di indurre il lettore in equivoco. 8 l’abiogenesi è la questione dell’origine della vita a partire da materia inorganica, sia sulla Terra sia in altri luoghi dell’universo 27 28 Il mondo a colori È riduttivo limitare la sensazione che produce il colore ad una mera entità fisica tratto dal web EFINIZIONE : “Il colore è la rappresentazione psichica generata dal cervello come effetto dell’arrivo di segnali nervosi prodotti dai fotorecettori9 della retina quando questi ultimi sono investiti da radiazioni elettromagnetiche opportune”. D Figura 8: Regione della luce visibile nello spettro elettromagnetico La luce visibile10 è quindi solo una frazione dello spettro della radiazione elettromagnetica; essa è composta da onde di lunghezza compresa indicativamente tra 400 e 750 nm (vedi Figura 8). Ciò significa che se l’occhio umano è investito da una radiazione composta da onde di lunghezza compresa tra i due estremi, produce un impulso elettrico variabile a seconda della composizione della radiazione; la porzione di cervello adibita alla visione, ricevendo il segnale, genera la sensazione del colore. È inutile scriverlo, ma le cose sono un tantino più complesse. Isaac Newton scoprì che se un raggio di luce bianca attraversa un prisma di vetro (v. Figura 9), ne esce scomposto in bande colorate11 ; individuò nel raggio uscente 7 colori: rosso, arancione, giallo, verde, blu, indaco e violetto; inoltre, si accorse che: 9 i fotorecettori sono cellule in grado di trasformare uno stimolo luminoso in un impulso nervoso la luce è la porzione visibile dello spettro elettromagnetico; spesso però, si indica con luce l’intero spettro elettromagnetico distinguendo tra visibile (lunghezza d’onda compresa tra 380-760 nm) e non visibile (tutte le lunghezze d’onda restanti) 11 fenomeno della dispersione ottica 10 29 Scheda di approfondimento In realtà la scomposizione è arbitraria poiché non c’è nessuna discontinuità cromatica (salto cromatico), pertanto è del tutto arbitraria la scelta di suddividere il fascio uscente in bande; in particolare, si ritiene che siano state individuate un numero di bande pari a 7 basandosi sull’ipotesi sofistica della connessione tra numero di colori, note e pianeti (si riteneva fossero 7). Figura 9: Dispersione di un raggio di luce in un prisma: onde con differente lunghezza d’onda si rifraggono con angoli differenti con conseguente trasformazione di un una luce bianca in un arcobaleno - se la scomposizione ottenuta converge in un secondo prisma, si ottiene nuovamente luce bianca; - isolando un raggio colorato e facendolo passare per un secondo prisma, esso rimane invariato. Pertanto, Newton concluse che la luce bianca era composta da tutti gli altri colori. Con questo semplice esperimento Newton scoprì lo spettro ottico: il rosso corrisponde alle onde più lunghe (630-760 nm), il violetto a quelle più corte (380450 nm). Tra questi estremi possiamo distinguere le tinte attraverso una variazione apprezzabile di lunghezza d’onda. Infatti non siamo in grado di percepire questa variazione con continuità poiché siamo in grado di distinguere circa 200 tinte, le quali non sono nemmeno distribui30 Scheda di approfondimento Tra i colori individuati ci sono: violetto: dai 380 ai 450 nm; blu: dai 450 ai 495 nm; verde: dai 495 ai 570 nm; giallo: dai 570 ai 590 nm; arancione: dai 590 ai 620 nm; rosso: dai 620 ai 760 nm. Si nota che lo spettro ottico è stato suddiviso in 6 colori anziché 7: come già scritto precedentemente, la suddivisione è arbitraria e, poiché l’indaco si distingue con difficoltà dai vicini, spesso non lo si include nella suddivisione riportata. te uniformemente nello spettro visibile12 . L’occhio umano è in grado di analizzare le onde luminose attraverso due tipi di fotoricettori, i coni ed i bastoncelli. I bastoncelli, tutti uguali tra loro, non ci permettono di distinguere i colori e, pertanto, di seguito non saranno esaminati; in ogni caso, la loro particolarità è quella di essere attivi anche con scarsa intensità luminosa. I coni, al contrario, hanno necessità di maggiore intensità luminosa per essere attivi, ma permettono di discernere i colori poiché si distinguono in tre tipi: L (long), M (medium) e S (short) a seconda della zona dello spettro di loro competenza; ciò significa che (vedi Figura 10) i coni L assorbono meglio le onde più lunghe (rossogiallo), gli M quelle medie (verde), gli S quelle corte (violetto). Tutto ciò indica che la sensazione di colore non è altro che la somma della percezione dei singoli fotorecettori. Ad esempio, quando guardiamo un oggetto blu, il cono sensibile al violetto sarà particolarmente eccitato, quello sensibile al verde lo sarà meno e ancora meno il cono sensibile al rosso. Se l’occhio è investito da una luce perfettamente bianca, ciascuno dei tre coni risponderà con una reazione massima poiché nel bianco sono contenute tutte le lunghezze d’onda. 12 nella zona del verde-azzurro e in quella dell’arancione la nostra sensibilità è massima e, quindi, in quell’intorno distinguiamo più tinte 31 Figura 10: Sensibilità alla luce per i diversi coni Sintetizzando, per percepire la sensazione dei colori, l’occhio dispone soltanto di tre tipologie di recettori che assorbono selettivamente le radiazioni luminose, ed al variare della potenza assorbita si generano tutte le tinte che vediamo. Nel quotidiano, gli oggetti sono colorati perché riflettono in percentuali diverse le varie radiazioni visibili provenienti da una sorgente luminosa: un oggetto può apparire giallo se riflette radiazioni di lunghezza d’onda intorno ai 580 nm, ma percepiamo dello stesso colore anche gli oggetti che riflettono una miscela di radiazioni con componenti di 550 nm (verde) e 630 nm (rosso) in parti uguali cosicché saremo ancora in un piccolo intorno del giallo. È comune a tutti che combinando colori distinti, detti primari della mescolanza, se ne ottengono di nuovi. Già nell’Ottocento Thomas Young aveva osservato che ad una distanza cromatica maggiore tra i primari, equivale un numero maggiore delle tinte della mescolanza, essendo più numerose le combinazioni possibili. È lecito porsi la seguente domanda: quali sono i colori fondamentali, cioè quei colori che combinati generano tutti gli altri? Prima di rispondere a tale quesito, analizziamo i due modelli fondamentali, definiti da Harald Küppers le più importanti leggi di mescolanza tra le 11 da lui definite: sintesi additiva: combinazione di stimoli di colori che giungono all’occhio invariati; sintesi sottrattiva: combinazione di stimoli di colori che giungono all’occhio modificati. 32 (a) Sintesi additiva (b) Sintesi sottrattiva Figura 11: Esempi di mescolanza L’esempio classico della sintesi additiva è mostrato nella Figura 11(a): due fasci di luce colorata (per esempio rossa e verde) proiettati sulla parete bianca di una stanza scura in modo che si sovrappongano. I due stimoli luminosi (luce rossa e luce verde) sono riflessi dalla parete scura e giungono simultaneamente e immutati all’occhio: il sistema visivo percepisce il colore risultante dalla mescolanza dei due stimoli come giallo. Il giallo è, in questo caso, un colore prodotto dalla mescolanza additiva del rosso e del verde. L’esempio classico della sintesi sottrattiva è mostrato nella Figura 11(b) attraverso la sovrapposizione di un inchiostro giallo ed uno ciano su un foglio bianco; in questo caso i due strati di inchiostro si comportano come filtri per la luce: l’inchiostro giallo assorbe una parte della luce, quello ciano ne assorbe un’altra parte. La parte rimanente viene riflessa dalla carta bianca e costituisce lo stimolo di colore che arriva al nostro occhio. Generalmente la sintesi sottrattiva è utilizzata principalmente nella stampa e nella pittura13 ; i colori utilizzati filtrano la luce bianca riflettendo solo parte della radiazione visibile; per esempio, dalla Figura 12(a) è evidente che per ottenere: blu: si mischiano magenta e ciano, che riflettono ovviemente magenta e ciano: se il rapporto tra i due colori è sufficientemente equilibrato, il nostro cervello lo interpreterà di colore blu; verde: si mischiano ciano e giallo; rosso: si mischiano magenta e giallo; 13 in particolari realizzazioni pittoriche ed in generale nel puntinismo si utilizza la sintesi additiva tramite la media spaziale: ad esempio piccoli punti rossi stampati su tela, visti da sufficiente distanza, causano la percezione del colore rosa 33 (a) Sintesi sottrattiva (b) Sintesi additiva Figura 12: Schematizzazione mescolanza nero: si mischiano magenta, ciano e giallo14 ; arancione: si mischiano giallo e rosso, che a sua volta è stato formato da magenta e giallo. Quando non è possibile utilizzare la luce naturale, si produce direttamente luce colorata (nei monitor e nelle TV) ed i colori sono ottenuti sommando radiazioni monocromatiche; per esempio, dalla Figura 12(b) è evidente che per ottenere: giallo: si mischiano rosso e verde; magenta: si mischiano rosso e blu; ciano: si mischiano blu e verde; bianco: si mischiano rosso, verde e blu. Tornando al quesito precedentemente posto: esistono i colori fondamentali, cioè quei colori dalla cui combinazione si genera tutto lo spazio dei colori? Dalle figure 13 e 14 (due rappresentazioni dello spazio dei colori) è evidente che la risposta è negativa poiché non esiste alcuna combinazione di colori che genera tutte le tinte dello spazio dei colori; in generale, non esiste nessuna terna (né alcun numero finito) di colori che possa produrre in mescolanza tutti i colori, poiché resterà sempre una porzione dello spazio non generabile tramite combinazione. È altresì vero che se ci si limita ad una mescolanza di tre colori e si desidera produrre con tale mescolanza il maggior numero di colori: 14 34 di seguito si evidenzierà che tale tonalità non è nera, ma solo una sua approssimazione Figura 13: Diagramma CIE (Commissione Internazionale per l’Illuminazione): modello a campana dello spazio dei colori Figura 14: Diagramma HSV: rappresentazione cilindrica dello spazio HSV (Hue Saturation Value) - rosso, verde e blu (RGB) sono i tre colori più opportuni da utilizzare quali componenti della sintesi additiva; - ciano, magenta e giallo (CMY) sono i tre colori più opportuni da utilizzare quali componenti della sintesi sottrattiva. In realtà, nella sintesi sottrattiva combinando in maniera equivalente (cioè nelle stesse proporzioni) tutte le componenti CMY non si ottiente il nero, bensì il bistro (marrone molto scuro); pertanto, nei processi di sintesi sottrattiva si adopera solitamente la quadricromia con ciano, magenta, giallo e nero (CMYK15 ), con conseguente notevole risparmio di inchiostro per la generazione del nero nelle stampanti 15 K da black 35 in quadricromia rispetto quelle in tricromia. Ora sappiamo come si formano quasi tutti i colori. Ad esempio, non sappiamo come possiamo vedere il marrone poiché questo colore non esiste nello spettro luminoso. Semplicemente, attribuiamo il colore marrone agli oggetti che riflettono le onde di colore arancione con un’intensità molto inferiore rispetto a quella degli altri colori. Infatti, tramite il confronto con le altre tinte che visualizziamo, il cervello attribuisce il colore marrone a quello che fisicamente è un arancione molto spento. Questo fenomeno accade anche per altri colori come il grigio16 : le tinte che non esistono nello spettro luminoso si creano nel nostro sistema visivo. L’influenza dell’ambiente sulla percezione dei colori non termina qui; entrando in una stanza illuminata con la luce del Sole riusciamo a distinguere numerose tinte; ma se la stanza è illuminata con luce monocromatica gli oggetti mutano il proprio colore. Ad esempio, supponiamo di entrare in una stanza, illuminata con luce solare, con all’interno due oggetti, uno bianco ed uno rosso; se l’illuminazione interna della stanza diviene rossa, di che colore appariranno gli oggetti? Analizziamo la questione: attribuiamo il colore bianco agli oggetti che riflettono l’intero spettro che ci investe; se l’oggetto bianco è illuminato dalla sorgente rossa, rifletterà solo luce di questo colore, ed il nostro cervello interpreterà l’oggetto come bianco poiché, in quell’ambiente, il rosso è la totalità della luce. Tramite questo ragionamento, giungiamo alla corretta conclusione che l’oggetto rosso immerso in un ambiente rosso apparirà bianco in quanto si comporta in maniera identica all’oggetto bianco. Visione scolorita Purtroppo non sempre le cose rientrano nella descrizione ordinaria. In particolare, alcune persone, tra le quali io, non percepiscono i colori in maniera ordinaria17 , hanno cioè una minor sensibilità a taluni colori. Tale disabilità è definita discromatopsia, anche se solitamente si utilizza impropiamente il termine daltonismo. Tale distinzione sarà chiara nel seguito. Nella stragrande maggioranza dei casi, la discromatopsia è un difetto di natura 16 ad es., l’ombra è grigia poiché la zona d’ombra riflette le onde di tutta la gamma dei colori presenti nell’ambiente, ma con un’intensità minore 17 per essere precisi, nessuna persona percepisce in maniera identica ad un’altra i colori, ed inoltre nell’individuo la percezione cambia nel tempo 36 genetica, ma può insorgere a seguito di danni al sistema visivo, talvolta causati dall’esposizione ad alcune sostanze dannose. La discromatopsia è in realtà solo una minor sensibilità, anche definita cecità parziale. Questo passaggio spesso è origine di notevoli fraintendimenti, poiché si ipotizza erroneamente che le persone affette da discomatopsia siano cieche ai colori. Nei rarissimi casi di cecità totale, il corretto termine è acromatopsia, che tecnicamente equivale ad avere una visione convergente ad un unico colore. Classificazione Storicamente, nel 1798 fu il chimico inglese John Dalton il primo a studiare e descrivere scientificamente il problema, pubblicando l’articolo intitolato Extraordinary facts relating to the vision of colours, che studiò il fenomeno dopo essersi accorto del proprio stato di cecità cromatica, oggi definito deuteranopia. Di seguito la classificazione utilizzata, più comprensibile se si ricorda che i fotorecettori sono di tre tipi: monocromati: indica l’incapacità totale di distinguere i colori, ma non la percepezione delle variazioni di luminosità. Le due forme principali sono: acromatopsia: la retina non contiene coni, ma solo bastoncelli, per cui è impossibilitata la percezione dei colori, e la sola abilità è la percezione di variazione di intensità luminosa; monocromia con cono: oltre la percezione della variazione di intensità luminosa, la presenza di un’unica tipologia di cono, permette la visione monocromatica. dicromati: i soggetti posseggono due delle tre tipologie di cono, per cui i colori sono percepiti attraverso una miscela di soli due coni. Indicativamente ne soffre il 2%-3% della popolazione. Si distinguono in: protanopia: insensibilità alle lunghezze d’onda più lunghe. Tali soggetti percepiscono con estrema difficoltà la luminosità attorno al rosso; deuteranopia: insensibilità alle lunghezze d’onda medie. Molto simile ai soggetti che soffrono di protanopia, riescono a percepire luminosità di lunghezza d’onda maggiore, ma hanno difficoltà nella distinzione delle tonalità in questo range; trinatopia: insensibilità alla lunghezza d’onda più breve (non si è in grado di distinguere i colori nella sezione giallo-blu). 37 tricromati anomali: si distinguono in protanomalia, deuteranomalia e tritanomalia. Essi utilizzano le tre tipologie di cono, ma la visione è anomala. In particolare, gli osservatori protanomali hanno necessità di maggiore luce rossa, i deuteranomali hanno necessità di più verde, i tritanomali di più blu per compensare una visione ordinaria. Le percentuali di diffusione sono: protanomalia 1% nei maschi e 0,01% nelle femmine, deuteranomalia (la forma più diffusa) 6% nei maschi e 0,4% nelle femmine, tritanomalia rara sia nei maschi sia nelle femmine (0,01% per entrambi). Origini genetiche e diffusione Le origini genetiche della discromatopsia possono essere diverse, ma è semplice la trattazione della discromatopsia verso i colori rosso/verde, tipico degli affetti da deuteranopia, protanomalia e deuteranomalia. Tale difetto è molto più spesso presente negli uomini rispetto alle donne, e l’origine di tale rapporto deriva dalla localizzazione nel cromosoma X dei geni che determinano i fotorecettori rosso e verde. Infatti, il genere maschile possiede solo un cromosoma X, quello femminile ne possiede due, pertanto nel primo caso non si riesce a sopperire ad un eventuale difetto genetico, nel secondo caso si ha la possibilità di sopperire al difetto del gene attraverso l’eventuale gene omologo sano localizzato sull’altro cromosoma. In altri termini, l’uomo ne è affetto se il suo unico cromosoma è difettato, la donna ne è affetta solitamente solo se entrambi i cromosomi X hanno il difetto. È possibile consultare la Tabella 2, in cui il carattere minuscolo è stato utilizzato per indicare il gene difettoso, il maiuscolo per indicare il gene sano. In dettaglio, il padre è riportato con XY o X Y rispettivamente se sano o malato, con XX, X X o XX rispettivamente se sana, portatrice sana o malata. I prodotti saranno indicati con S per SANO , M per MALATO , PS per PORTATRICE SANA e PM per PORTATRICE MALATA . XY XX figlio figlia XY XX S S S PS XY X X S 50% PS XY XX S PS 50% 50% X Y XX M PM Tabella 2: Quadrato di Punnet per la determinazione della discromatopsia di origine genetica nella successiva generazione. Si evidenzia che la colonna identificata con la combinazione per la madre X X ha molteplicità due poiché è possibile avere il doppio delle disposizioni (sia X X sia X X) Per quanto riguarda la diffusione, spesso si ritiene che questo difetto visivo riguardi un numero molto ridotto di persone. In realtà, alcuni test hanno mostrato che la percentuale di daltonici si attesta attorno all’8% negli uomini, all’1% nelle donne. 38 Tale percentuale evidenzia il numero totale dei daltonici, essendo i casi più gravi di ordini di grandezza inferiore. Nella maggior parte dei casi, essere affetti da discromatopsia non rappresenta un grosso problema e, per tale motivo, alcuni non si rendono nemmeno conto di esserlo. A volte si scopre casualmente, altre volte a causa di esami medici o problemi al lavoro. Altre volte, in aggiunta ad altri difetti visivi, costituisce un vero e proprio handicap. Test Esistono diversi test per individuare i soggetti affetti da discromatopsia. Il più famoso di questi fu ideato dal prof. Shinobu Ishihara dell’Università di Tokyo nel 1917. Il test consiste in cerchi colorati che appaiono casuali nella tinta e nel raggio. In realtà, esse disegnano una pseudo immagine riconoscibile per i soggetti con una visione normale, invisibile per i soggetti con discromatopsia nel range delle tinte dei cerchi. Le tavole sono 38, ma solitamente sono sufficienti solo alcune per individuare il tipo di deficienza, infatti alcune tavole sono specifiche per determinare l’entità del difetto visivo. Un esempio è mostrato nella tavola riportata i Figura 15, in cui per un soggetto con visione normale dovrebbe essere chiaramente visible il numero 74. Soggetti affetti da dicromia o tricromia anomala potrebbero leggere il numero 21. Nella Figura 16 sono rappresentate 4 tavole, rispettivamente mostrano i numeri 12, 6, 2 e 42. Alcuni esempi di vita quotidiana Di seguito riporto alcuni casi tratti dalla mia esperienza. Personalmente il primo ricordo che ho di evidente discromatopsia è all’età di 10 anni, quando durante l’ora di Educazione Artistica, mi fecero notare che la mia tavola presentava dei tulipani di colore marrone; ne fui convinto solo andando a guardare il tubetto del colore, e successivamente confrontando il tubetto rosso (che precedentemente immaginavo di utilizzare) con quello marrone, la cui differenza non appariva per me così evidente. Un altro caso è stato combattere con alcuni medici dell’ASL (al quarto incontro l’ho avuta vinta) per ottenere la patente. Il primo mi faceva vedere delle penne chiedendomi di che colore fossero... purtroppo non erano né blu né rosse. Il tentativo di dire al medico “Ma io non ho problemi con i segnali stradali. Sono superfici 39 Figura 15: Esempio di tavola di Ishihara. Personalmente non leggo nessun numero, ma sapendo la risposta potrei concordare con la cifra 1, per la cifra 2 mi sembra azzardato pronunciarmi. maggiori e i colori sono ben definiti...” non andava a buon fine. Un esempio ludico può essere tratto dal gioco del Monopoli, in cui le banconote hanno per me tinte poco distinguibili (quindi capita di mischiarle), ma hanno peggiorato nell’edizione speciale Monopoli: Star Wars in cui ogni turno, se non sono stato concentrato, ho difficoltà notevoli nel ritrovare i dadi precedentemente lanciati. Nel campo lavorativo, spesso ho davanti led colorati. Sembra una discriminazione voluta: gli apparati hanno i led verdi e rossi per indicare il loro stato (rispettivamente OK e WARNING o simili). La cosa peggiore è stata l’indicazione del mio collega di tirare un cavo rosso nella sala CED. In condizioni di luminosità normali non avrei avuto dubbi su quale fosse il cavo rosso (era un rosso ben definito), ma quella è una stanza poco illuminata. 40 (a) Tavola 1 (b) Tavola 11 (c) Tavola 19 (d) Tavola 23 Figura 16: Alcune tavole per il test di Ishihara. distinguo la prima e, con difficoltà, la seconda Personalmente Pseudo-vantaggi Nonostante sia considerata una disabilità, in alcuni ambienti il daltonismo può rivelarsi vantaggioso, in particolare nella distinzionione di superfici sovrapposte su sfondi caotici. Ad esempio, è tipico il vantaggio del cacciatore daltonico che ha maggiori possibilità di distinguere una preda mimetizzata su uno sfondo caotico18 . Sinceramente, non lo ritengo un grosso vantaggio. Anzi, riscontro maggiori difficoltà nell’individuazione di eventuali oggetti caduti sul pavimento. 18 alcuni ipotizzano che l’elevata diffusione di quest’anomalia potrebbe spiegarsi in un probabile vantaggio nei nostri antenati, per cui la selezione naturale non ha debellato un difetto che nel recente passato non era tale 41 42 La coerenza dell’astrologia Tutti i cervelli del mondo sono impotenti di fronte a ogni fesseria che sia di moda. Jean de la Fontaine che, nel periodo delle elementari, mia madre mi svegliava per andare a scuola; sentivo la radio accesa, sempre sintonizzata su un programma che allora non certo amavo, il radiogiornale. Al suo termine, iniziava un secondo programma che aveva come oggetto la lettura dell’oroscopo; il mio segno zodiacale, acquario, probabilmente favorevole per gli astrologi, ha spesso avuto letture positive. In tutta sincerità, non ho mai attribuito importanza a queste simpatie, ma mi incuriosiva la seguente questione: possono le congiunzioni astrali influire nell’andamento delle nostre giornate? Durante gli anni della scuola, sono passato dalla fase in cui ogni mattina ascoltavo l’oroscopo, alla più matura in cui ne ignoravo la lettura; è comunque stato utile riflettere sul significato intrinseco dell’astrologia, giungendo alle considerazioni attuali. R ICORDO La prima questione è illustrata nella Figura 17. Poiché l’astrologia attribuisce l’appartenenza ad usegno zodiacale in relazione alla data di nascita, suppongo che assegni due destini19 simili a due soggetti nati nello stesso periodo piuttosto che a due soggetti nati in periodi differenti; ciò conduce ad una questione che non riesco a colmare: se il soggetto C è nato poco meno di un mese prima del soggetto D, ed il soggetto E è nato solo qualche giorno dopo il soggetto D, potrebbe accadere la situazione mostrata nella figura in esame. Nei casi in cui ciò accada, mi chiedo: perché i soggetti C e D sono legati a destini simili e invece D ed E non lo sono? Per chiarezza, non giustificherei nemmeno se D fosse legato da un destino più simile 19 in realtà, alcuni cultori sostengono che gli astri influiscano anche la personalità. Per tutto il resto della lettura è possibile aggiungere (o sostituire) al termine destino senza alterare in alcun modo il senso 43 Segno zodiacale A nato C Segno zodiacale B nato D nato E Figura 17: Se l’astrologia assegna destini simili a quelli nati sotto lo stesso segno, perché quello del soggetto C dev’essere più simile al D e non quello del D ad E in quanto temporalmente più vicini? ad E, ma lo giudicherei più comprensibile. Vorrei evidenziare che non nego la compatibilità di destino20 tra i soggetti C e D e l’incompatibilità dello stesso tra i soggetti D ed E, ma vorrei capire per quale motivo ci sia una discontinuità esattamente nel giorno di salto da un segno all’altro. Anche se non ha avuto successo, qualcuno ha cercato di mettere un po’ di ordine nella mia mente confusa, cercando di spiegarmi che non è semplicemente una questione legata alla data di nascita, ma anche all’orario di nascita, in quanto l’ascendente varia con quest’ultimo; purtroppo non riesco a capire una discontinuità al mese, figuriamoci le discontinuità giornaliere legate all’orario di concepimento. Osservo che, in questo caso, l’ascendente potrebbe essere stato deciso dal ginecologo forzando il parto della madre, attraverso l’induzione di travaglio; per coloro che si lamentano del proprio ascendente, consiglio di non accusare il ginecologo, poiché aveva probabilmente altre questioni da affrontare nell’immediato, 20 ammetto la mia totale incomprensibilità del concetto di destino; per non appesantire la lettura, di seguito non sarà esaminato 44 ignorando il destino che stava assegnando. Comunque, l’ascendente complica maggiormente la già difficile comprensione in quanto è definito astronomicamente come l’intersezione dell’orizzonte21 (circonferenza osservabile con l’eclittica22 (circonferenza astratta): sono già confuso quando si asserisce che una stella (o congiunzione astrale23 ) genera influssi capaci di influenzare la mia vita, ma è sbalorditivo pensare (ed improbabile da capire) che il mio destino sia influenzato da un’intersezione (geometrica), quindi da un’entità non esistente. Lasciando perdere le discontinuità e le entità astratte a cui non sono riuscito a fornire una benché minima risposta, passo alla terza incoerenza. La questione è la seguente: il termine congiunzione astrale è spesso usato negli oroscopi, inducendo l’ascoltatore o il lettore a pensare ad una vicinanza tra pianeta e stella o tra stelle; la Figura 18 illustra il concetto di coordinata celeste e congiunzione. Le coordinate celesti identificano un punto tra gli infiniti punti appartenenti ad uno stesso guscio sferico, ma non identificano univocamente il guscio poiché manca la grandezza distanza; quindi, due stelle visibili aventi coordinate celesti simili appaiono vicine nella volta celeste, ma ciò non significa che lo siano effettivamente poiché, come già scritto, le coordinate celesti non specificano la distanza. Il passo successivo è molto semplice, comprendere il significato di congiunzioni astrali: esse non indicano vicinanza tra corpi, ma soltanto coordinate celesti simili. Quindi, sono apparentemente vicini solo per la nostra visuale, non potendo valutare l’enorme distanza che separa noi dai corpi celesti con i poco potenti mezzi visivi di cui disponiamo24 . In altre parole, li definirei banali allineamenti ottici, ma forse tanto banali non sono per poter influire nella nostra vita. Riuscire a comprendere perché le congiunzioni astrali possano influire sul nostro destino è un un’impresa ardua, ma alla luce del significato di coordinata celeste lo stesso concetto di costellazione è poco significativo, poiché i corpi di una costellazione non sono accomunati da vicinanza. Vorrei cambiare completamente prospettiva e considerare per buoni i dubbi sollevati sinora, poiché ci sono tante persone che hanno una fiducia incrollabile in ciò che ritengo incomprensibile. Probabilmente, è semplicemente una questione di tempo e, prima o poi, le cose appariranno più chiare. 21 linea circolare con centro sull’osservatore che separa la terra dal cielo intersezione del piano d’orbita terrestre con la sfera celeste 23 l’ulteriore confusione che mi provoca il termine congiunzione la esaminerò più avanti 24 per valutare queste grandi distanze, si utilizzano osservazioni astronomiche e calcoli matematici 22 45 Polo Nord celeste stella A Terra ❈ declinazione Equatore celeste ascensione retta ❈ ❈ stella C stella B Polo Sud celeste Figura 18: Le coordinate celesti possono essere assimilate alle coordinate terrestri in quanto le prime sono specificate da due grandezze, la declinazione (che possiamo identificare nella latitudine) e l’ascensione retta (che possiamo identificare nella longitudine). È importante notare che la grandezza distanza non è specificata da nessuna coordinata celeste; difatti, le stelle B e C hanno le stesse coordinate celesti, ma sono molto distanti tra loro. Per essere sinceri, la probabilità che associo a questa ipotesi è bassa; a supporto cito Bertrand Russel: Il fatto che un’opinione sia diffusa non esclude che sia totalmente assurda; anzi, data la stupidità della maggior parte degli uomini, è più facile che una credenza diffusa sia sciocca che non sensata. Come ho già scritto, ipotizzo che i miei dubbi siano causati dalla mia poca lucidità. Per ovviare alla mia ignoranza, mi sono procurato qualche semplice lettura sulle 46 sfera celeste fascia zodiacale Figura 19: La fascia zodiacale era di 20o per i babilonesi la quale conteneva 15 costellazioni, ma oggi è di 16o gradi ed il numero di costellazioni è 12 costellazioni; ho iniziato dalla storia per capire il presente, scoprendo che i babilonesi conoscevano 66 costellazioni ripartite in 3 regioni di cielo parallele all’Equatore celeste; nella zona centrale di cielo c’era lo zodiaco che aveva 15 costellazioni e un’apertura angolare di 20o di declinazione: 10 al di sopra dell’Equatore verso il Polo Nord e 10 al di sotto dell’Equatore verso il Polo Sud. Nella Figura 19 è illustrata la fascia zodiacale. L’oroscopo attuale è legato a quello dell’astrologia ellenica, in cui mutarono le dimensioni della fascia zodiacale attribuendole un’apertura angolare di 16o di declinazione, comprendendo 12 costellazioni. Sottolineo che il motivo per cui l’apertura angolare della fascia zodiacale è mutata da 20o a 16o è stata di natura numerologica, poiché gli ellenici preferivano che le costellazioni non fossero 15, ma 12. 47 3 Gemelli 4 Cancro 2 Toro 1 Ariete 5 Leone Sole 12 Pesci 6 Vergine Terra orbita terrestre 11 Acquario 7 Bilancia 8 Scorpione ? Ofiuco 9 Sagittario 10 Capricorno costellazione non considerata Figura 20: Sono illustrate le 13 costellazioni, di cui solo 12 note al grande pubblico Apprese queste informazioni, sono subito affiorate nella mia testa tante domande: 1. perché nello zodiaco si definisce una fascia zodiacale, cioè lo zodiaco non comprende tutta la sfera celeste? 2. perché i babilonesi preferirono un’apertura angolare di 20o ? 3. c’è un motivo per cui cambiare apertura angolare della fascia zodiacale che non sia quello numerologico25 di essere legati al no 12? Ovviamente, non sono riuscito a trovare risposte; ma la voglia di comprendere qualche meccanismo dell’astrologia era forte, ed allora ho continuato ad attingere dati, purtroppo con risultati pessimi: sempre più domande, ma mai nessuna risposta. La questione continuava a peggiorare e, per constatare che non stessi sbagliando metodologia di apprendimento, ho cominciato con una semplice verifica: contare le costellazioni zodiacali, supponendo il riscontro numerico. Purtroppo ne ho contate 1326 (nella Figura 20 sono indicate le costellazioni della fascia zodiacale). Il lettore può immaginare lo stupore, e la sensazione di pura impotenza intellettuale 25 in passato la numerologia era molto diffusa; purtroppo, ancora oggi è pandemica, con coefficiente trasmissivo elevato quasi quanto quello associato all’astrologia 26 segnalo [Zic03] 48 costellazione zodiacale data effettiva dell’attraversamento del Sole durata (giorni) data fittizia Ariete Toro Gemelli Cancro Leone Vergine Bilancia Scorpione Ofiuco Sagittario Capricorno Acquario Pesci 18.04 - 13.05 14.05 - 20.06 21.06 - 19.07 20.07 - 09.08 10.08 - 15.09 16-09 - 30.10 31.10 - 22.11 23.11 - 28.11 29.11 - 17.12 18.12 - 18.01 19.01 - 15.02 16.02 - 11.03 12.03 - 17.04 26 37 29 21 37 45 23 6 19 32 28 24 37 21.03 - 20.04 21.04 - 21.05 22.05 - 21.06 22.06 - 22.07 23.07 - 22.08 23.08 - 22.09 23.09 - 22.10 23.10 - 21.11 — 22.11 -21.12 22.12 - 21.01 22.01 - 19.02 20.02 - 20.03 Tabella 3: In tabella è evidenziata la costellazione di Ofiuco, esistente nelle costellazione zodiacale, ma ignorata per motivi sconosciuti a me e alle fonti a cui ho attinto provata in quel momento. Attraverso qualche breve ricerca, leggo che inizialmente le costellazioni erano 11; la 12a è stata Bilancia, ottenuta spezzando la costellazione dello Scorpione in due parti, per averne un numero pari al numero di mesi di un anno. A complicare il tutto, c’è la 13a costellazione, ignorata senza una vera ragione27 . Nella mia breve ricerca volevo assolutamente capire qualcosa e, continuando nelle letture, apprendo che non solo le costellazioni non sono 12, bensì la durata di attraversamento per ogni costellazione è variabile (v. Tabella 3); ad esempio, il Sole impiega non un mese, ma solo 6 giorni per attraversare la costellazione dello Scorpione; di contro, ne impiega 45 per attraversare quella della Vergine. Sinceramente non riuscivo ad immaginare come potessero collimare i dati astrologici e le osservazioni astronomiche. Comunque, ho preferito lasciar perdere questa questione perché ormai ero sicuro di non avere i mezzi per capire, quindi sono tornato ad osservare la Tabella 3; ho 27 per essere più precisi, evidenzio che, nonostante abbia scritto ignorata senza una vera ragione, non implica che non ci sia; semplicemente non posso motivarne le ragioni e, soprattutto, non saprei quale fonte sarebbe autorevole in questo campo 49 consultato il mio segno (acquario) ed ho notato che la data astrologica anticipava di quasi un mese quella di attraversamento effettivo. La stranezza non termina qui, poiché questo slittamento tra osservazioni astronomiche e dati astrologici si ripete, con piccole/medie variazioni, per ogni segno. La motivazione è la seguente: la Terra non ha solo i due noti movimenti, rotazione28 e rivoluzione29 , ma c’è un terzo movimento che causa la rotazione dell’asse terrestre, chiamato precessione30 (v. Figura 21). Scheda di approfondimento Affermare che la rotazione terrestre causi l’avvicendarsi di giorno e notte è una pessima approssimazione, anche se è accettata per dar credito al senso comune, storicamente geocentrico. Infatti, il cielo è scuro anche di giorno quando è osservato dall’esterno dell’atmosfera terrestre. Quest’ultima diffonde in tutte le direzioni la luce (del Sole e delle altre stelle) da cui è colpito, con conseguente luminosità del cielo dell’interno del guscio. È facile intuire che di giorno non si individuano le stelle, non a causa dell’abbagliante luce solare, ma della diffusione. Si giunge al paradosso di Olbers del 1826: “Perché il cielo è scuro?”. I presupposti della formulazione originale sono sintetizzati dalle seguenti proprietà dell’universo: estensione infinita, esistenza da tempo infinito, omogeneità ed isotropia. In questa situazione, poiché la diffusione della luce ha andamento sferico, l’irraggiamento (energia ricevuta per unità di superficie) è inversamente proporzionale al quadrato della distanza, ma il numero di sorgenti luminose è proporzionale al cubo della distanza, pertanto il paradosso conduce ad un’intensità luminosa infinita. La cosmologia moderna osserva che le prime due ipotesi non sono corrette, pertanto il paradosso non è più tale. Per completezza, si calcola che il cielo sarebbe luminoso in maniera persistente se il raggio dell’universo osservabile fosse pari a 6,6 milioni di miliardi di anni luce, mentre le osservazioni indicano un raggio di 13,7 miliardi di anni luce, ordini di grandezza inferiore a quanto stimato. Il movimento chiamato precessione produce la cosiddetta precessione degli equinozi: la posizione apparente che assume il Sole in un qualsiasi giorno è precedente alla posizione apparente che assumerebbe se non ci fosse il moto di precessione. In 28 causa l’avvicendarsi di giorno e notte (v. Scheda di approfondimento) causa l’avvicendarsi delle stagioni poiché l’asse terrestre è inclinato circa di 23o 330 rispetto la perpendicolare all’eclittica 30 c’è anche un quarto moto, chiamato nutazione, ma il suo effetto non incide in questo contesto 29 50 perpendicolare al piano dell’orbita asse terrestre 23,5° piano dell’orbita terrestre equatore terrestre Figura 21: La precessione consiste in una rotazione dell’asse terrestre attorno alla perpendicolare dell’orbita terrestre in 25.620 anni; essendo il moto orario, esso è opposto al moto orbitale della Terra, anticipando così l’inizio di un qualsiasi giorno (e, in particolare, degli equinozi) rispetto a quello che si otterrebbe se non ci fosse la precessione effetti, è più facile immaginare un’altra conseguenza, la variazione della posizione apparente della Stella Polare nel cielo: questa variazione è causata dal mutamento direzionale dell’asse terrestre. Anche se è più semplice capire questo effetto rispetto la precessione degli equinozi, dal fenomeno in esame non è facile comprendere il disaccoppiamento dei giorni del calendario dai segni zodiacali. 51 La prima osservazione (posizione apparente anticipata) implica che la precessione distrugge il legame tra la data indicata dal calendario e la costellazione zodiacale. Poiché l’astrologia è stata scardinata nelle basi dall’astronomia, ho per un attimo creduto che non avesse risposta per la precessione degli equinozi, ed infatti, imbattendomi in alcune riviste, si trovata scritto segno - gg.mm/gg.mm, in cui si comprende che l’oroscopo in esame, non tenendo conto del fenomeno di precessione degli equinozi, è sbagliato31 . Sorridendo, ho letto32 che gli astrologi hanno aggirato il problema della corrispondenza tra calendario e costellazione zodiacale nel seguente modo: poiché a causa della precessione cambiano (anche se lentamente) con continuità le coordinate celesti, si può reinventare il significato di segno zodiacale, non facendolo più corrispondere alla costellazione dello zodiaco33 (qualcosa di fisico), ma a qualcosa di non esistente, in maniera da conservare sempre le stesse coordinate celesti e, quindi, rispettare le date stabilite dagli stessi astrologi. La riflessione che ne segue è elementare: non credo sia difficile immaginare entità che rispettino vincoli banali che noi stessi artificiosamente inventiamo; la creazione del termine segno zodiacale calza perfettamente. Solitamente non commento le ritrattazioni di un concetto poiché, o le reputo legittime o, come in questo caso, le ritrattazioni si commentano da sole; in ogni caso, voglio fare un’eccezione in quanto questa ritrattazione mi suggerisce una semplice analogia. Spesso i genitori raccontano ai bambini storielle fantasiose (ad esempio la storia di Babbo Natale); successivamente un bambino, o perché istruito da altri, o perché intuisce che qualche elemento non si accordi con il suo bagaglio culturale, chiede o ricerca ulteriori spiegazioni. Conseguentemente, i genitori sono obbligati a ritrattare la propria storia; tutto ciò si reitera fino a quando il bambino attribuisce il rango di sciocchezza a simili storielle, ammettendo la propria superiorità intellettuale. Sperando che la mia analisi sia condivisa, vorrei concludere riassumendo le questioni affrontate: 1. Supponendo che l’astrologia assegni destini simili a soggetti nati sotto lo stesso segno, per quale motivo persone nate temporalmente vicine avranno destini diversi, mentre una persona nata con un mese di differenza rispetto ad un’altra, purché nata sotto lo stesso segno, avrà un destino simile? 31 dal già citato [Zic03], vorrei riportare il seguente passaggio: “Coloro che volessero credere nei segni zodiacali dovrebbero almeno preoccuparsi di essere nel segno giusto”. 32 si veda [Cav96] 33 in cui, ripeto, il periodo di attraversamento slitta di anno in anno di una piccola quantità, tale che oggi tutti i segni sono slittati di quasi un mese 52 2. Supponendo che l’astrologia definisca per ogni soggetto anche l’ascendente34 : - perché dovrei credere che qualcosa di non esistente influisca nel mio futuro? - perché due soggetti nati nello stesso momento, ma in luoghi appartenenti a fusi orari diversi, hanno assegnato destini diversi (diverso ascendente), ma se nati nello stesso istante in luoghi appartenenti allo stesso fuso orario il destino è simile? 3. Supponendo che una congiunzione astrale implichi che due corpi posti lontani da noi siano vicini tra loro (caso improbabile ed estremamente favorevole), perché dovrebbero influenzare il nostro destino? 4. Supponendo che una costellazione zodiacale sia costituita da corpi vicini tra loro (ipotesi falsa), perché dovrebbe incidere nel nostro destino? 5. Supponendo che in una costellazione sia scritto (in qualche modo ma non saprei quale) il mio futuro, perché solo le costellazioni della fascia zodiacale dovrebbero celare il mio destino? 6. Supponendo che nella fascia zodiacale sia celato il destino dell’umanità, perché è stata esclusa dall’indagine astrologica la costellazione di Ofiuco? In altre parole, perché Ofiuco è nello zodiaco, ma non dello zodiaco? 7. Supponendo che le costellazioni zodiacali siano le 12 costellazioni imposte dall’astrologia e in esse sia celato il destino dell’umanità, per quale motivo gli astrologi gli assegnano una durata temporale pressoché costante, ma le osservazioni astronomiche riportano tempi con forte variazione? 8. Supponendo che: - la durata di attraversamento delle costellazioni zodiacali coincida con quella definita dall’astrologia (ipotesi falsa), per quale motivo la precessione (anche se in tempi lunghi, incide sull’umanità) non è presa in considerazione come parametro che influenza il destino? - la durata di attraversamento delle costellazioni zodiacali sia da sostituire con il modello dei segni zodiacali, perché un segno zodiacale (che, secondo la stessa definizione dell’astrologia, non è nulla di esistente) dovrebbe inviarmi degli influssi che incidano nella mia vita? 34 ricordo che l’ascendente è definito come l’intersezione di una circonferenza osservabile (l’orizzonte) con una circonferenza astratta (l’eclittica) 53 Sperando che tali perplessità suscitino interesse o, perché no, disappunto, sarei grato se qualcuno mi inviasse delucidazioni sull’astrologia, e se queste avranno un minimo di coerenza, prometto di correggere questa sezione. Nel frattempo, io continuo a sperare che l’umanità, in un futuro non troppo lontano, si comporti come quel bambino citato a pagina 52, ammettendo la propria superiorità a simili storielle. In ultimo, andando contro le mia politica sociale, vorrei fornire un alibi alla società, accennando l’effetto Forer, chiamato anche effetto di convalida soggettiva. Tale effetto fornisce una spiegazione parziale della grande diffusione di pseudoscienze, quali l’astrologia e la divinazione, così come molti test di personalità. L’effetto Forer è nato dall’osservazione della tendenza secondo la quale gli individui ritengono accurati profili psicologici che credono siano riferiti a se stessi, non accorgendosi che in realtà il profilo medesimo sia generico, tale da adattarsi ad un numero vasto di persone. In particolare, nel 1948 lo psicologo Bertram Forer consegnò un test di personalità ai suoi allievi; al termine fornì a ciascuno un’analisi di personalità quale valutazione del test appena concluso. Successivamente, ogni studente era invitato ad esprimere un giudizio da 0 (scarso) a 5 (eccellente) al profilo fornito sulla base di quanto questo si adattasse a loro stessi: la media fu 4, 26. Al termine Forer rivelò che era stato consegnato a ciascun studente lo stesso profilo psicologico, profilo tratto da una rivista di oroscopi. 54 Il caos La relatività eliminò l’illusione newtoniana dello spazio e del tempo assoluti; la teoria quantistica eliminò il sogno newtoniano di un processo di misurazione controllabile; e il caos elimina la fantasia laplaciana della prevedibilità deterministica. Joseph Ford, tratto da [Gle00] Q frequentavo la terza media, nell’introduzione al mondo informatico, un professore affermò quanto segue: UANDO [...] Se conoscessimo con precisione sia le condizioni atletiche dei giocatori sia quelle ambientali, un computer molto potente potrebbe predire con esattezza l’esito di una partita di calcio. Questa considerazione produsse nella mia mente un susseguirsi di domande poiché consideravo l’evento esito di una partita di calcio estremamente imprevedibile. Ad esempio, mi domandavo se durante una partita ci fosse: - un rimbalzo falso della palla? - un problema muscolare per un giocatore? - una decisione errata dell’arbitro? A seguito di questi o altri eventi non prevedibili, la predizione del computer sarebbe in ogni caso esatta? Per essere precisi, la considerazione iniziale ipotizza testualmente se conoscessimo con precisione, pertanto si è indotti a supporre che anche gli eventi del rimbalzo strano, del problema muscolare o dell’arbitro che sbaglia possano essere conosciuti. Questa considerazione è errata per due motivi: - rimbalzi falsi, problemi muscolari e decisioni errate non costituiscono una conoscenza esatta delle condizioni iniziali, ma avvengono durante l’evoluzione della partita; 55 - la conoscenza infinitamente precisa è un’illusione. Non mi dilungherò sulla seconda considerazione, limitandomi ad evidenziare per la prima che, se ci fosse una conoscenza esatta per ogni stato della partita, non sarebbe necessario l’uso del computer, quindi non avrebbe senso l’affermazione iniziale. Quanto appena riportato è solo un esempio di approccio errato ad una classe di problemi molto ampia, affrontati dalla teoria del caos (o più precisamente caos deterministico). Di seguito analizzerò con maggiore dettaglio le dinamiche caotiche, alle quali sarà sempre molto complesso rispondere. Nella cultura popolare, da sempre il caos ha una connotazione prevalentemente negativa, essendo contrapposto al concetto di ordine. Anche nel mondo scientifico il caos ha goduto di attenzione marginale per vari motivi quali: Apparente casualità, quindi, difficoltà nella sperimentazione non essendoci le condizioni di replicabilità. Difficoltà di trattazione a causa dell’impossibilità di affrontare analiticamente i modelli matematici. Ampiezza quasi nulla degli effetti generati, pertanto questi ultimi sono spesso trascurabili nella sperimentazione, ed ignorati nella trattazione teorica. Molti ritengono che l’ultima rivoluzione scientifica del XX secolo sia il mutato atteggiamento rivolto ai sistemi caotici. La modellazione di tali sistemi non solo non è più ignorata, ma talvolta è l’unico oggetto di interesse. È utile evidenziare che, poiché i modelli che descrivono i sistemi caotici non sono trattabili analiticamente, si è ampliata la strumentazione matematica adottando il computer. L’introduzione di questo strumento, attraverso i rapidi calcoli necessari per le simulazioni numeriche, ha permesso l’efficace studio dell’evoluzione di sistemi complessi. Per essere più precisi, l’importanza del computer non è limitata nella potenza di elaborazione. Sarebbe riduttivo pensare che esclusivamente i rapidi calcoli abbiano permesso lo sviluppo di questo campo di studio. Nelle prossime pagine diverrà evidente che la grafica ha ricoperto un ruolo dominante. 56 Alla scoperta del caos Il pensiero classico è riportato nel seguente scritto di Laplace del 1814: Dobbiamo dunque considerare lo stato presente dell’universo come effetto del suo stato anteriore e come causa del suo stato futuro. Un’intelligenza che, per un dato istante, conoscesse tutte le forze di cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell’universo e dell’atomo più leggero: nulla sarebbe incerto per essa e l’avvenire, come il passato, sarebbe presente ai suoi occhi. (tratto da [Vul05]) In altre parole, l’aspetto deterministico della scienza newtoniana può essere sintetizzato da questa affermazione: Data una conoscenza approssimativa delle condizioni iniziali di un sistema e una comprensione della legge naturale, è possibile calcolare il comportamento approssimativo del sistema. Solitamente, l’approssimazione è giustificata poiché l’errore genera effetti trascurabili. Ad esempio, nella determinazione della posizione della Terra, un piccolo errore iniziale determinerà degli scarti minimi nelle predizioni delle posizioni per milioni di anni. Evidenzio che ho appena utilizzato l’espressione solitamente, in quanto, nella famiglia dei sistemi complessi, un piccolo (arbitrariamente piccolo) errore nella determinazione delle condizioni iniziali, si ripercuoterà drasticamente nella predizione degli stati successivi. Già Poincaré nel 1908 scrisse: Una causa piccolissima che sfugga alla nostra attenzione determina un effetto considerevole che non possiamo mancare di vedere, e allora diciamo che l’effetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell’universo all’istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un istante successivo. Ma se pure accadesse che le leggi naturali non avessero più alcun segreto per noi, anche in questo caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa approssimazione, non ci occorrerebbe di più e dovremmo dire che il fenomeno è stato previsto, che è governato da leggi. Ma non è così, può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diventa impossibile e si ha un fenomeno fortuito. (tratto da [Poi08]) 57 15 10 5 0 -5 -10 -15 0 5 10 15 20 25 30 35 40 Figura 22: Due grafici generati dal sistema di equazioni di Lorenz, tracciati per valori di x differenti per 10−3 . Si nota che inizialmente i tracciati sono coincidenti, successivamente, per x ∼ = 11, si separano Nelle sezioni successive saranno illustrate le tappe fondamentali del mondo scientifico per la comprensione delle evoluzioni caotiche. La scoperta di Lorenz Edward Lorenz era un metereologo che nel 1960 modellò un semplificato sistema per simulare le condizioni mutevoli dell’atmosfera. Questo modello era composto da dodici equazioni processate dal suo computer (un Royal McBee). È evidente che questa modellazione non è realistica, ma le primitive potenzialità di calcolo di cui disponeva non permettevano l’elaborazione di sistemi più fedeli. Il suo modello metereologico descriveva il trascorrere del giorno stampando una serie di numeri su una pagina: essi costituivano una serie di parametri che descrivevano l’evoluzione delle condizioni metereologiche del globo. L’aspetto interessante è che, nonostante il modello fosse semplificato, globalmente nulla si ripeteva. Era simpatico scommettere sull’evoluzione, poiché la dinamica non si rivelò prevedibile. 58 Un giorno del 1961, Lorenz volle esaminare una fase di elaborazione lunga e, invece di percorrere l’intero passaggio dall’inizio, cominciò ad esaminarlo dalla metà di quello precedente. Fornendo al computer le condizioni iniziali (prese da uno stampato), lasciò evolvere il sistema. Questa nuova elaborazione si supponeva fosse un duplicato della precedente, ma Lorenz osservò una rapida divergenza tra le due. Considerando il periodo (1961), non stupisce il suo primo tentativo: cercò di assicurarsi che non vi fosse alcun inconveniente tecnico. Purtroppo i problemi hardware rientravano nell’ordinario; in ogni caso, li potè escludere. Finalmente intuì il problema: i numeri introdotti erano differenti da quelli memorizzati nel computer al momento della stampa. Ciò accadde in quanto nel computer erano rappresentati numeri a sei decimali, sullo stampato ne apparivano solo i primi tre. Quindi, Lorenz aveva introdotto delle condizioni leggermente differenti, avendo inconsapevolmente immesso numeri troncati. La piccola differenza tra i numeri, un decimillesimo, si era erroneamente supposto non avesse alcuna importanza (si veda la Figura 22). Ad esempio, immaginiamo che un satellite misuri la temperatura del suolo, ipotizzando un piccolo margine di errore. In un sistema deterministico, assegnata una condizione iniziale leggermente diversa da quella vera, si immaginava che il sistema (metereologico) evolvesse in maniera leggermente differente da quello reale. Una piccola differenza può, ad esempio, essere un soffio di vento: i piccoli soffi di vento si supponeva svanissero su larga scala. Eppure, nel particolare sistema di equazioni di Lorenz, piccole differenze (errori) producevano conseguenze non prevedibili. Si è individuata la prima proprietà dei sistemi caratterizzati da caos: un sistema dinamico deterministico si dice caotico se (durante l’evoluzione) la distanza tra due traiettorie, inizialmente vicine, cresce esponenzialmente. Questa proprietà è detta forte dipendenza dalle condizioni iniziali. La metereologia informatizzata Negli anni Ottanta i primi addetti alle previsioni del tempo negli Stati Uniti, il National Metereological Center, operavano raccogliendo dati attraverso antenne radar, e il loro supercomputer, un Control Data Cyber 205, calcolava modelli di sistema di 500.000 equazioni, producendo in assoluto le seconde migliori previsioni. Le migliori provenivano da Reading, in Inghilterra. L’European Centre for Medium Range Weather Forecasts era stato costruito nello spirito del Mercato comune europeo, utilizzando il supercomputer Cray, più evoluto rispetto a quello americano. Le predizioni dell’European Centre, nonostante fossero le migliori, indicavano che, oltre i tre giorni, esse potevano considerarsi speculazioni, oltre i sette giorni erano completamente inutili. 59 La motivazione di questa discrepanza tra previsione e realtà a distanza di pochi giorni era sintetizzata dalla scoperta di Lorenz, nota al grande pubblico con il nome di effetto farfalla. In breve, per qualunque fenomeno metereologico, qualsiasi Scheda di approfondimento Nella cultura popolare, l’effetto farfalla è sintetizzato da aforismi o racconti più o meno famosi, alcuni di seguito elencati. Per colpa di un chiodo si perse lo zoccolo per colpa di uno zoccolo si perse il cavallo per colpa di un cavallo si perse il cavaliere per colpa di un cavaliere si perse la battaglia per colpa di una battaglia si perse il regno Lo spostamento di un singolo elettrone per un miliardesimo di centimetro, a un momento dato, potrebbe significare la differenza tra due avvenimenti molto diversi, come l’uccisione di un uomo un anno dopo, a causa di una valanga, o la sua salvezza (tratto da Macchine calcolatrici e intelligenza, di Alan Turing, saggio del 1950) [...] E quello, – disse – è il Sentiero che la Time Safari ha preparato per voi. È di metallo antigravità, e sta sospeso a venti centimetri da terra, senza toccare né un fiore né un albero né un solo filo d’erba. Il suo scopo è di impedirvi di toccare in qualsiasi modo questo mondo del passato. [...] Gestire una macchina del tempo è una faccenda complicata. Uccidendo un animale, un uccellino, uno scarafaggio o anche un fiore, potremmo senza saperlo distruggere una fase importante di una specie in via di evoluzione. [...] Supponiamo di uccidere un topolino qui. Ciò significa che tutte le future famiglie di questo particolare topolino non potrebbero più esistere [...]. Per ogni dieci topolini che non ci sono, muore una volpe. Se mancano dieci volpi, un leone muore di fame. Se manca un leone, innumerevoli insetti, avvoltoi, quantità infinite di forme di vita piombano nel caos e nella distruzione. [...] (tratto da A Sound of Thunder, traduzione di Stefano Negrini - Editori Riuniti, 1985) previsione si deteriora rapidamente: gli errori e le incertezze si propagano determinando un’evoluzione del sistema difforme da quella prevista. È utile evidenziare che i modelli metereologici si basano su misurazioni effettuate su griglie (non regolari) di punti posti ad una certa distanza, che (tra i primi vicini) diminuisce in correlazione al miglioramento delle capacità di calcolo degli elaboratori. Se volessimo ignorare i grandi problemi tecnici, supponendo che la distanza tra i vicini si riducesse infinitamente, avremmo sempre un errore legato alla singola misura. È bene sottolineare che, in linea di principio, rendere infinitamente più fitto il reticolo delle stazioni metereologiche, non sarebbe una strategia corretta. Difatti, ciò si tradurrebbe nell’aggiungere sensori sino ad annullare la distanza tra i vicini. 60 Ponendoli a distanza arbitrariamente piccola, l’influenza reciproca non sarebbe più trascurabile. In definitiva, la corretta strategia è nel compromesso tra l’influenza fra i sensori e la distanza tra i vicini. In ogni caso, gli errori, anche se ridotti, continuano a propagarsi. Ciò si tradurrebbe in procedimenti di calcolo che produrrebbero previsioni più precise, ma comunque affette da errore. Disponendo di dati maggiormente precisi si produrrebbero previsioni più affidabili, cioè si deteriorebbero meno rapidamente, ma in ogni caso a lungo termine sarebbero semplici speculazioni. Sempre Poincaré: Perché i meteorologi hanno tanta difficoltà a prevedere il tempo con un certo grado di esattezza? Perché i rovesci di pioggia, e le tempeste stesse, ci sembrano arrivare a caso, tanto che molte persone trovano del tutto naturale pregare per avere la pioggia o il bel tempo, mentre riterrebbero ridicolo un’eclisse con la preghiera? Noi vediamo che le grandi perturbazioni si producono generalmente nelle regioni in cui l’atmosfera è in equilibrio instabile. I meteorologi sono ben consapevoli che questo equilibrio è instabile, che un ciclone nascerà da qualche parte, ma dove? Non sono in grado di dirlo; un decimo di grado in più o in meno in un punto qualunque e il ciclone scoppia qui e non là, porta la sua deviazione in contrade che sarebbero state risparmiate. Se si fosse conosciuto questo decimo di grado, si sarebbe potuto prevedere in anticipo, ma le osservazioni non erano né abbastanza ravvicinate né abbastanza precise, ed è per questo che tutto sembra dovuto all’intervento del caso. (tratto da [Poi08], opera citata) Investigazioni sull’effetto farfalla Il citato effetto farfalla entrò a far parte della nomenclatura scientifica con la definizione dipendenza sensibile dalle condizioni iniziali. Con quest’ultima non si intende semplicemente che, in alcune situazioni, piccoli mutamenti possono essere ingranditi e talvolta ingigantiti, bensì si evidenzia che tali situazioni sono la regola. Ma come poteva il semplice sistema deterministico di Lorenz avere un’evoluzione così complessa? In altre parole, quali caratteristiche deve possedere un sistema affinché produca questo comportamento? Lorenz riuscì a sintetizzare un sistema di equazioni più semplice che producesse questa complessità, trovando un modello costituito da solo tre equazioni non lineari. E si può isolare nella caratteristica di non linearità l’origine della complessità. Dal punto di vista analitico, generalmente i sistemi non lineari non possono essere risolti; per tale motivo, per comprendere il modello, i termini non lineari sono ignorati o sostituiti da quantità note, conducendo ad una comprensione solo approssimata. 61 Scheda di approfondimento Come già accennato, in sistemi deterministici, ad esempio modellati come nel sistema di Lorenz, la previsione è sostanzialmente impossibile a causa della forte dipendenza della traiettoria dalla condizione iniziale. In linea di principio, se si conoscesse con esattezza la condizione iniziale x(0), sarebbe determinabile x(t) per ogni t > 0. In realtà, la conoscenza arbitrariamente precisa è un’astrazione, e poiché due traiettorie, anche se estremamente vicine, si allontaneranno con velocità esponenziale, rende tecnicamente impossibile qualunque tentativo di predizione dopo un tempo t, con t che dipende poco dalla previsione nella conoscenza esatta di x(0). Formalmente, indicando con x(t) e x0 (t) le traiettorie generate rispettivamente da x(0) e x0 (0), in un sistema caotico si ha: |x(t) − x0 (t)| ∼ eλt in cui è uguale a |x(0) − x0 (0)| e λ dipende dalle caratteristiche del sistema, parametro chiamato esponente di Lyapunov. Ovviamente, sono definiti tanti λ caratteristici del sistema quanti sono i gradi di libertà del modello. Ad esempio: - per un sistema che termina in un punto fisso stabile, tutti i λ sono negativi; - per un ciclo limite, λ1 = 0, λi < 0 per i > 1; - in un sistema caotico almeno un esponente λi > 0. La considerazione appena riportata ha implicazioni negative per le previsioni delle dinamiche complesse e, in particolare, per le previsioni meteorologiche. Questo sistema è modellato da un sistema di equazioni note dal punto di vista teorico, ma approssimate per l’elaborazione. Anche sotto l’ipotesi di elaborazione esatta di un sistema (modellazione perfetta e calcoli senza approssimazioni) è immutata la questione della forte dipendenza dalle condizioni iniziali. Il computer e la dipendenza sensibile È stato più volte evidenziato che, a causa della forte dipendenza dalle condizioni iniziali, due traiettorie inizialmente vicine si allontanano esponenzialmente, quindi 62 rapidamente divengono scorrelate. A questa limitazione i dispositivi elettronici aggiungono un ulteriore elemento a sfavore, introducendo ad ogni elaborazione l’errore del troncamento. Infatti, ad ogni passaggio aritmetico, l’elaboratore arrotonda il risultato per difetto, calcolando pertanto una traiettoria con approssimazione (in senso assoluto) sempre peggiore. Più approfonditamente, gli errori introdotti ad ogni elaborazione sono equivalenti a piccole variazioni della legge di evoluzione. Dopo quest’osservazione, ci si può domandare che senso abbia lo studio numerico dei sistemi dinamici caotici, in quanto inevitabilmente differenti da quelli veri. Nonostante l’ineluttabile ignoranza della legge di evoluzione del sistema, ignoranza crescente con il tempo, lo studio statistico permette interessanti valutazioni. Per particolari sistemi, alcune caratteristiche qualitative sono simili. Quanto riportato solo intuitivamente, formalmente è definito stabilità strutturale. Un sistema è strutturalmente stabile se, per una piccola variazione della legge di evoluzione, esso è perturbato in maniera qualitativamente trascurabile. Nella Scheda di approfondimento sono elencate alcune di queste proprietà. Scheda di approfondimento Le proprietà qualitative di un sistema caotico sono numerose. Le principali sono: Esponenti di Lyapunov: come già definito precedentemente, essi quantificano il livello di caos di un sistema dinamico. Lyapunov intuì che l’impossibilità di stabilire l’evoluzione è determinata dalla divergenza esponenziale con il tempo, per cui introdusse gli esponenti di Lyapunov. Gli esponenti descrivono la divergenza di due sistemi con la medesima legge di evoluzione, ma punto di partenza simile. Entropia di Kolmogorov: gli esponenti di Lyapunov λ1 , λ2 , . . . , λn caratterizzano il sistema. In particolare i λi positivi sono associati alle dinamiche caotiche, e la loro somma è definita entropia di Kolmogorov. Formalmente X λi i:λi >0 e misura la caoticità globale del sistema. Dimensione frattale: nelle prossime pagine saranno introdotte alcune costruzioni frattali e sarà calcolata per ognuna la dimensione. 63 Lo spazio delle fasi e gli attrattori35 I modelli deterministici sono descritti da una legge di evoluzione, quindi, stabilito uno stato iniziale, è determinato lo stato del sistema ad ogni istante di tempo. Tradizionalmente, si è abituati a rappresentare l’evoluzione graficandola su un diagramma cartesiano, esplicitando su di un asse la variabile temporale. Nei sistemi di equazioni differenziali, si preferisce graficare l’evoluzione dello stato tramite un’orbita disegnata nello spazio delle fasi. Quest’ultima individua l’evoluzione dello stato, ma a differenza del diagramma precedente, non è più esplicita la variabile temporale. Formalmente il sistema è descritto da n variabili, x1 , x2 , . . . , xn , chiamati gradi di libertà del sistema. Ad esempio, lo stato del sistema può essere messo in corrispondenza per: n = 1, con un punto di una retta; n = 2, con un punto di un piano; n = 3, con un punto dello spazio tridimensionale; n = 4, con un punto dello spazio quadrimensionale. In generale, per n = d (con d intero), gli stati del sistema disegnano una traiettoria (denominata appunto orbita) in uno spazio d-dimensionale. Esempi di traiettorie nello spazio delle fasi Di seguito saranno mostrati alcuni grafici che riportano l’evoluzione nel tempo di alcuni semplici modelli, a sinistra la rappresentazione nel diagramma cartesiano, a destra quello nello spazio delle fasi. Pendolo forzato Il pendolo forzato è l’idealizzazione del pendolo in assenza di attrito. Si utilizza l’espressione forzato per evidenziare che l’energia persa per attrito è reintrodotta nel sistema tramite, ad esempio, un peso o una molla. Per piccole oscillazioni, l’energia potenziale è direttamente proporzionale al quadrato della posizione. Nel diagramma a sinistra (Figura 23(a)), l’asse delle ascisse individua il tempo, quello delle ordinate la posizione. Nel diagramma a destra (Figura 23(b)), l’asse delle ascisse individua la posizione, quello delle ordinate la velocità. 35 questa sezione non è necessaria per avere una visione essenziale, ma la trattazione matematica permetterà una migliore concettualizzazione 64 2 4 1.5 1 2 0.5 0 0 -0.5 -2 -1 -1.5 -4 0 5 10 15 20 -1.5 (a) Diagramma cartesiano -1 -0.5 0 0.5 1 1.5 2 (b) Diagramma nello spazio delle fasi Figura 23: Traiettoria del pendolo forzato Pendolo A differenza del pendolo forzato, in questo sistema non si trascura l’attrito o, alternativamente, non c’è un dispositivo deputato alla reintroduzione dell’energia persa. Nel diagramma a sinistra (Figura 24(a)), l’asse delle ascisse individua il tempo, quello delle ordinate la posizione. Nel diagramma a destra (Figura 24(b)), l’asse delle ascisse individua la posizione, quello delle ordinate la velocità. 2 2 1.5 1.5 1 1 0.5 0.5 0 0 -0.5 -0.5 -1 -1 -1.5 -1.5 0 5 10 15 20 25 30 (a) Diagramma cartesiano 35 40 -4 -3 -2 -1 0 1 2 3 4 (b) Diagramma nello spazio delle fasi Figura 24: Traiettoria del pendolo Attrattori L’evoluzione temporale di un sistema dinamico rappresentato nello spazio delle fasi è graficamente molto differente tra i sistemi regolari e quelli caotici. In particolare, per un sistema caotico con attrattore, l’orbita tende ad avvolgersi in un 65 40 10 20 -15 15 -20 Figura 25: Modello di Lorenz nelle tre dimensioni spaziali nastro. Intuitivamente, l’attrattore di un sistema dinamico è la regione dello spazio delle fasi a cui le orbite sono attratte. In altre parole, dopo un certo tempo, il moto del sistema si svolge nello spazio dell’attrattore. Ciò implica che, se uno stato è nella regione dell’attrattore, non uscirà da esso. Ad esempio, nel pendolo libero, l’ampiezza di oscillazione si smorza progressivamente (Figura 24(a)) e le traiettorie, indipendentemente dalle condizioni iniziali, si avvicinano ad un punto fisso stabile (Figura 24(b)) che è l’attrattore. Nel pendolo forzato (orologio a pendolo), si impedisce lo smorzamento dell’ampiezza, reintegrata da un dispositivo esterno, cosicché si instaurerà un regime di oscillazioni regolari (Figura 23(a)), rappresentato nello spazio delle fasi da una curva chiusa (Figura 23(b)). Nei due casi appena citati, gli attrattori sono oggetti regolari, rispettivamente un punto e una curva chiusa (definita ciclo limite). Nel caso dei sistemi caotici, in cui si ha forte dipendenza dalle condizioni iniziali, l’attrattore non è un oggetto regolare. Ad esempio, nella Figura 25 si nota un attrattore caotico o, come è definito più comunemente, attrattore strano. Modello di Lorenz Il modello di Lorenz descrive il moto delle correnti convettive, ed è formalmente rappresentato dal seguente sistema di equazioni differenziali: dx =σ(y − x) dt dy =(r − z)x − y dt dz =xy − bz dt 66 con σ (dipendente dal tipo di fluido), r e b parametri, x legato al campo di velocità, y e z dipendenti dalla temperatura. Nel diagramma a sinistra (Figura 26(a)), l’asse delle ascisse individua il tempo, quello delle ordinate la velocità. Nel diagramma a destra (Figura 26(b)), l’asse delle ascisse individua la velocità, quello delle ordinate la temperatura. 15 20 15 10 10 5 5 0 0 -5 -5 -10 -10 -15 -15 -20 0 5 10 15 20 25 30 35 40 (a) Diagramma cartesiano -15 -10 -5 0 5 10 15 (b) Diagramma nello spazio delle fasi Figura 26: Modello di Lorenz La mappa di Henon Finora sono stati riportati modelli rappresentati da sistemi dinamici la cui evoluzione è generata da equazioni differenziali. È possibile studiare un’ulteriore tipologia di sistemi dinamici, quelli che variano non in maniera continua, ma in maniera discreta rispetto al tempo. Questi modelli sono generalmente chiamati mappe. Una delle più famose è la mappa di Henon, il cui sistema è riportato di seguito ed è rappresentato nella Figura 27. ( xn+1 =yn + 1 − 1ax2n yn+1 =bxn Ingrandimenti di questa mappa mostrano autosomiglianza, cioè alcuni particolari emergono identici (o quasi identici) ad ogni scala. È evidente che quest’attrattore (e in generale gli attrattori caotici) non sono lisci, bensì più complessi. Questo aspetto sarà approfondito nel seguito. 67 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -1 -0.5 0 0.5 1 Figura 27: Mappa di Henon La svolta Dopo Lorenz, diversi scienziati ripresero le sue teorie: già alcune ricerche minori si svilupparono in parallelo a quelle di Lorenz, ma la svolta la segnò Benoît Mandelbrot. Egli incontrò per la prima volta il caos nella scienza economica, studiando la distribuzione di redditi grandi e piccoli in un modello economico. Casualmente si imbatté in un diagramma disegnato su una lavagna che graficava i suoi studi. Questo diagramma rappresentava otto anni di prezzi del cotone; e non sembrava avere niente in comune con la distribuzione dei redditi. Quel particolare diagramma era strano poiché il professore che lo stava studiando non riusciva ad adattare le variazioni dei prezzi del cotone al modello della curva normale (v. Scheda di approfondimento). Mandelbrot, investigando i dati con un computer, trovò che i numeri che producevano aberrazioni per quanto concerne la distribuzione normale, al contempo producevano simmetria di scala. In altre parole, quelle particolari variazioni di prezzo apparivano casuali, ma la sequenza dei mutamenti era indipendente dalla scala. Tra il disordine dei dati, sorgeva una ordine (di scala) inatteso. Il secondo incontro con il caos avvenne quando si imbattè, nel centro ricerche dell’IBM, in un problema pratico molto interessante. Gli ingegneri si stavano confrontando con il problema del rumore che affliggeva le linee telefoniche utilizzate 68 Scheda di approfondimento La curva normale, più comunemente detta funzione gaussiana, rappresenta la norma, cioè la distribuzione normale, ed è un fondamentale strumento nella matematica, fisica e genericamente negli studi di natura statistica. Una curva gaussiana è formalmente definita dalla seguente funzione: f (x) = ae− (x−b)2 c2 Di seguito è mostrato un grafico che riproduce alcune gaussiane per differenti parametri. Si può notare la tipica forma a campana. per trasmettere informazione su cavo. I segnali elettrici trasportano le informazioni, e gli ingegneri sapevano che quanto più intensa fosse stata l’ampiezza del segnale, tanto più facile sarebbe stato combattere i disturbi. Più precisamente, aumentare l’ampiezza del segnale equivale ad aumentare il rapporto segnale rumore , quindi aumentare l’ampiezza del segnale equivale a ridurre il rumore relativo. Purtroppo il rumore, anche se ridotto, persiste; non si può pensare di aumentare il segnale infinitamente. Tecnicamente, aumentare l’ampiezza del segnale oltre una certa soglia comporta diversi svantaggi, ma in ogni caso, sopra un certo valore non 69 si riduce in maniera significativa il rapporto segnale rumore , è quindi necessario percorrere una strategia differente affinché le trasmissioni siano maggiormente efficienti. In particolare, Mandelbrot scoprì l’esistenza di un rapporto geometrico costante su scala differente. In altri termini, su scale di periodo temporale differente, il rapporto tra periodo del segnale privo di errore e periodo con errore era costante. La descrizione astratta di Mandelbrot fu importante per gli stessi ingegneri: essa suggerisce che, anziché tentare di aumentare l’ampiezza del segnale per ridurre il rapporto segnale rumore , si dovrebbe optare per un segnale la cui ampiezza sia modesta, ed accettare l’inevitabile presenza del rumore, introducendo i codici rilevatori (o correttori) di errore. L’introduzione di questi ultimi si traduce in ridondanza di informazione nella trasmissione, ma questa strategia permette di rilevare (o correggere) eventuali errori di trasmissione. Usualmente, si utilizzano i codici rilevatori per individuare errori nella trasmissione e richiedere l’eventuale rinvio. Una nuova geometria In un articolo Mandelbrot si chiese: How Long is the Coast of Britain? tradotto: Quanto è lunga la costa della Gran Bretagna? Mandelbrot sostenne che la risposta dipendeva dalla lunghezza del proprio righello. È facile immaginare che maggiore sarà l’ingrandimento della mappa utilizzata, più accurata sarà la lunghezza. Ma molte insenature e sporgenze diverranno visibili solo procedendo ad una misurazione direttamente sul campo. Si immagini di ricorrere ad un topografo dotato di un compasso di lunghezza fissa di un metro, il quale determinerà una certa lunghezza, più fedele delle precedenti poiché ignorerà solo le irregolarità più piccole di un metro. Successivamente, si ricorrerà allo stesso topografo, al quale, questa volta, si assegna un compasso che misura dieci centimetri. Questa volta, il topografo non salterà tutte le irregolarità inferiori al metro, ma solo quelle inferiori ai dieci centrimetri. Il buon senso suggerisce che la stima crescerà e presenterà la tendenza ad approssimarsi al valore vero della lunghezza della costa. Purtroppo, questa supposizione è vera solo se la linea di costa è una figura euclidea. Mandelbrot stimò che più l’unità della misurazione diminuisce, più la lunghezza cresce senza limite, cioè senza convergere ad un valore vero. Il problema si può evidenziare ad un livello più profondo: le misure euclidee non riescono a cogliere l’essenza di forme irregolari. 70 [...] Le forme delle geometria classica sono linee e piani, cerchi e sfere, triangoli e coni. [...] Euclide costruì con esse una geometria durata due millenni, l’unica geometria che impara ancor’oggi la maggior parte delle persone. [...] Ma per la comprensione della complessità, esse risultano essere il tipo di astrazione sbagliato. [...] Le nuvole non sono sfere [...] Le montagne non sono coni. Il fulmine non si propaga in linea retta. La nuova geometria riflette un universo che è irregolare, non arrotondato; scabro, non liscio. È una geometria del bucherellato, butterato e rotto, del contorto, aggrovigliato e intrecciato tratto da [Gle00] L’idea fondamentale di Mandelbrot fu ispezionare il concetto di dimensione. Ad esempio, qual è la dimensione di un gomitolo di spago? Dipende dal punto di vista. Da grande distanza, il gomitole è un punto, privo di dimensioni. Da più vicino, il gomitolo appare una sfera, quindi tre dimensioni. Da ancor più vicino, si nota lo spago, quindi appare unidimensionale, ma avvolto su se stesso in uno spazio tridimensionale. La transizione dimensionale qui riportata condusse lo stesso Mandelbrot al concetto di dimensione reale, la quali esprime l’irregolarità di un oggetto. Alle costruzioni astratte che introdusse diede il nome di frattali che, sorprendentemente, talvolta replicano le strutture irregolari della natura. Caratteristiche dei frattali La caratteristiche distintive dei frattali sono le seguenti: Autosomiglianza: (o omotetia interna) è la caratteristica di mantenere la simmetria da una scala all’altra, cioè le figure appaiono simili a se stesse qualsiasi sia l’ingrandimento (invarianza di scala). Dimensione non intera: l’irregolarità di una figura geometrica è descritta proprio dalla parte decimale della dimensione: per oggetti regolari essa è nulla, per oggetti frattali essa è (solitamente) maggiore di zero. L’autosomiglianza è una caratteristica dettata dalla metodologia di costruzione. In particolare, l’algoritmo di costruzione dei frattali prevede l’applicazione di una medesima regola infinite volte. Il passo iterativo determina proprietà non ortodosse quali, ad esempio, superficie finita delimitata da un perimetro infinito. La dimensione non intera è conseguenza dell’associazione di una dimensione reale all’entità frattale. Nella prossima sezione sarà approfondito questo concetto. 71 La dimensione frattale36 In senso ortodosso, il concetto di dimensione si identifica con la definizione topologica, per cui sono ovvie le seguenti affermazioni: punto: 0 dimensioni; curva: 1 dimensione; superficie: 2 dimensioni; spazio: 3 dimensioni; iperspazio n-dimensionale: n dimensioni. Più formalmente, la dimensione di un insieme è il numero di parametri indipendenti necessari all’individuazione di un punto nell’insieme stesso. Ad esempio, un punto nello spazio è individuato univocamente da tre parametri indipendenti (in questo caso le coordinate cartesiane sono formate da una tripletta ordinata di numeri reali). Per i frattali, la dimensione topologica è poco caratterizzante, non permettendo immediatamente di percepire l’irregolarità dell’oggetto. Pertanto Mandelbrot associò a questi oggetti una nuova dimensione, la dimensione di Hausdorff, anche chiamata dimensione frattale oppure dimensione di Hausdorff-Besicovich. Intuitivamente, la dimensione frattale è un valore che quantifica il riempimento dello spazio in cui l’oggetto è contenuto. Oggetti regolari, quindi senza soluzioni di continuità, sfruttano tutto lo spazio che occupano. Differentemente, un oggetto frattale non lo occupa interamente, poiché la struttura presenta interstizi. In dettaglio, a differenza della topologica, espressa tramite numeri interi, la dimensione di Hausdorff si esprime attraverso numeri reali non negativi. Per oggetti regolari la dimensione topologica coincide con quella di Hausdorff, ma per oggetti complessi la dimensione topologica non esprime nulla, a differenza di quella di Hausdorff che si esprime tramite i decimali. Per comprendere in dettaglio il concetto di dimensione frattale, possiamo utilizzare la box-counting dimension (letteralmente contare le scatole). Ad esempio, se ingrandiamo di due volte: un segmento: esso risulterà il doppio della dimensione originale; quindi, 2 = 21 → dimensione = 1 36 questa sezione non è necessaria per avere una visione essenziale, ma la trattazione matematica permetterà una migliore concettualizzazione 72 un lato di un quadrato: quest’ultimo risulterà il quadruplo della dimensione originale; quindi 4 = 22 → dimensione = 2 un lato di un cubo: quest’ultimo risulterà otto volte maggiore rispetto l’originale; quindi 8 = 23 → dimensione = 3 Gli stessi esponenti e (quindi la stessa dimensione) li avremmo ottenuti scegliendo un fattore di scala differente. Formalmente, la dimensioni di Hausdorff è definita dalla formula seguente (v. Scheda di approfondimento): dH = − log(s) log(s) = log(z) log( z1 ) in cui s indica l’ingrandimento dell’oggetto, z la variazione lineare di misura. Quindi, le dimensioni di Hausdorff sono per il: segmento: dH = log 2 =1 log 2 quadrato: dH = log 22 log 4 = =2 log 2 log 2 cubo: dH = log 8 log 23 = =3 log 2 log 2 Come si nota, i risultati mostrano una dimensione di Hausdorff equivalente alla dimensione topologica, in accordo con quanto riportato precedentemente per le figure geometriche lisce. La formula diviene interessante se applicata ai frattali, in particolare solitamente otterremo che la dimensione dei frattali sarà strettamente maggiore della dimensione topologica. Da qui deriva la definizione di Mandelbrot: un frattale è un insieme per il quale la dimensione di Hausdorff-Besicovich è strettamente maggiore della dimensione topologica. In realtà, questa definizione non abbraccia tutta la famiglia dei frattali perché, ad esempio, ne esistono con dimensione intera. In generale, non esiste una definizione di frattale universalmente accettata ma ne sono accettate diverse, il cui utilizzo è specifico in relazione al campo di lavoro. 73 Scheda di approfondimento Mandelbrot introdusse la dimensione frattale per distinguere oggetti dalla medesima dimensione topologica, ma differenti caratteristiche geometriche. Si può ragionare come segue. Una linea regolare può essere approssimata con una spezzata di segmenti di lunghezza l; la lunghezza totale della spezzata L è: L = N (l)l in cui N (l) è il numero di elementi della spezzata. Se la lunghezza l è piccola, L tende ad approssimarsi alla lunghezza della curva. Si osserva che N (l) è inversamente proporzionale ad l: N (l) ∼ 1 l Tentando di ricoprire una superficie regolare con quadratini di lato l, essi saranno inversamente proporzionale a l2 : N (l) ∼ 1 l2 e per un solido regolare il numero di cubetti di lato l sarà inversamente proporzionale al cubo di l. Si può notare che una curva, una superficie e un solido regolari sono caratterizzati rispettivamente dagli esponenti 1, 2 e 3. Un oggetto ha dimensione frattale D se il numero di entità (segmenti, . . . ) è proporzionale a: 1 N (l) ∼ D l Per un oggetto regolare, D coincide con la dimensione topologica; negli oggetti frattali D è (solitamente) maggiore. Generazione di frattali I principali metodi per la generazione dei frattali sono di seguito elencati: Sostituzione: da una figura di base, la si sostituisce con un’altra figura, e si ripete il procedimento infinite volte. L-system: si costruisce il frattale ripetendo infinite volte una lista ordinata di operazioni su una figura di base. 74 IFS: si trasforma la figura di partenza attraverso trasformazioni geometriche. Tempo di fuga: partendo da un valore, si calcolano le coordinate attraverso una formula matematica. Nella prossima sezione saranno mostrati frattali generati attraverso il metodo sostitutivo e il tempo di fuga. Per ulteriori esempi e, in particolare, per frattali generati con i metodi L-system e IFS si invita a consultare la webografia. Esempi di frattali Di seguito saranno mostrate immagini di famosi frattali, l’algoritmo per la loro costruzione e la loro dimensione. Evidenzio che i passi iterativi non possono essere ripetuti indefinitamente, con l’implicazione che i frattali non possono essere calcolati correttamente, anche se l’approssimazione grafica è ottima in moltissimi casi. La polvere di Cantor L’algoritmo per la sua costruzione è di tipo sostitutivo: 0. Si disegna una linea 1. La si suddivide in tre parti e si procede all’eliminazione della parte centrale 2. Si itera il passo precedente L’insieme di Cantor è la polvere di punti che rimane: il numero dei punti è infinito, ma la loro lunghezza totale è nulla. Ad ogni passo il numero di segmenti si raddoppia e la lunghezza di ciascuno diventa 13 della precedente. Ad un generico passo n di interazione, un segmento misura 31n ed il numero di segmenti è 2n . Per n tendente all’infinito, i segmenti tendono ad essere di lunghezza nulla (quindi punti) ed i segmenti tendono ad essere infiniti. Per quanto riguarda la dimensione, è sufficiente considerare un generico passo: si hanno il doppio dei segmenti simili al precedente, e di lunghezza uguale ad 13 del log 2 ∼ precedente. La dimensione dell’insieme di Cantor è = 0.630929, più di un log 3 punto, meno di una linea. 75 Figura 28: La polvere di Cantor Il triangolo di Sierpinski L’algoritmo per la sua costruzione è di tipo sostitutivo: 0. Si disegna un triangolo equilatero (lato unitario) (v. Figura 29(a)) 1. Si elimina dalla superficie il triangolo costruito unendo i punti medi dei lati del triangolo precedente, ottenendo così 3 triangoli di lato ciascuno 21 rispetto il precedente (v. Figura 29(b)) 2. Si itera il passo precedente (v. Figura 29(c), Figura 29(d) e Figura 30) Ad ogni passo, si osserva che il numero dei triangoli si triplica ed il lato di ciascuno di essi diviene la metà. Quindi, ad un generico passo n, la misura di un lato è 21n , il numero di triangoli è 2n . Per n tendente all’infinito, i lati tendono ad essere di lunghezza nulla ed i triangoli tendono ad essere infiniti. Per quanto riguarda la dimensione, è sufficiente considerare un generico passo: si hanno il triplo dei triangoli simili al precedente, e il lato di ognuno misurerà la metà log 3 ∼ del precedente. La dimensione del triangolo di Sierpinski è = 1.584962, più log 2 di una linea, meno di una superficie. Il tappeto di Sierpinski L’algoritmo per la sua costruzione è di tipo sostitutivo: 0. Si disegna una quadrato (lato unitario) (v. Figura 31(a)) 1. Si elimina dalla superficie il quadrato posto al centro del quadrato di base (v. Figura 31(b)) 2. Si elimina dalla superficie i quadrati posti al centro dei quadrati rimasti (v. Figura 31(c)) 76 (a) Base (b) Sostituzione 1 (c) Sostituzione 2 (d) Sostituzione 3 Figura 29: Iterazioni per la generazione del triangolo di Sierpinski Figura 30: Il triangolo di Sierpinski 3. Si itera il passo precedente (v. Figura 31(d) e Figura 32) 77 (a) Base (b) Iterazione 1 (c) Iterazione 2 (d) Iterazione 3 Figura 31: Iterazioni per la generazione del tappeto di Sierpinski Si osserva ad ogni passo che la superficie della figura rimasta è 19 più piccola della precedente. Quindi, ad un generico passo n, la misura della superficie è ( 98 )n . Per n tendente all’infinito, la superficie della figura tende ad essere nulla. Per quanto riguarda la dimensione, è sufficiente considerare un generico passo: si hanno 8 quadrati simili al precedente, e il lato di ognuno misurerà 13 rispetto il log 8 ∼ precedente. La dimensione del tappeto di Sierpinski è = 1.892789, più di log 3 una linea, meno di una superficie. Fiocchi di neve di Kock L’algoritmo per la sua costruzione è di tipo iterativo: 0. Si disegna una triangolo equilatero (lato unitario) (v. Figura 33(a)), medesima base del triangolo di Sierpinski (v. Figura 29(a)) 1. Dividiamo ogni lato della figura in tre parti uguali, e sulla parte centrale costruiamo un nuovo triangolo equilatero (v. Figura 33(b)) 78 Figura 32: Il tappeto di Sierpinski 2. Si itera il passo precedente (v. Figura 33(c), Figura 33(d) e Figura 34) (a) Base (b) Iterazione 1 (c) Iterazione 2 (d) Iterazione 3 Figura 33: Iterazioni per la generazione del fiocco di neve di Kock 79 Si osserva, ad ogni passo, che il perimetro della figura diviene i 43 rispetto la costruzione precedente. Quindi, ad un generico passo n, la misura del perimetro è ( 43 )n . Per n tendente all’infinito, il perimetro tende ad essere di lunghezza infinita. Ecco la caratteristica paradossale: perimetro infinito racchiuso in una superficie finita. Per quanto riguarda la dimensione del contorno, è sufficiente considerare un generico passo: ad un segmento se ne sostituiscono 4 di lunghezza 31 del segmento solog 4 ∼ stituito. La dimensione del contorno del fiocco di neve è quindi = 1.261859, log 3 più di una linea, meno di una superficie. Figura 34: Il fiocco di neve Insieme di Mandelbrot Questo è uno dei più famosi frattali in assoluto, il più famoso tra quelli generati attraverso il metodo del tempo di fuga. Il metodo consiste nel considerare il piano complesso, ad ogni punto è associato un valore determinato utilizzando una funzione iterativa f (z, c), in cui z è il valore determinato nella precedente iterazione, c la posizione del punto. Scendendo in dettaglio, l’insieme di Mandelbrot è generato utilizzando la funzione iterativa zn+1 = zn2 + c con condizioni iniziali z0 = 0. Ad esempio, se volessimo esaminare il punto di coordinate P (0, 0.7), ricordando 80 che il secondo valore è immaginario, otterremmo z1 = 0 + 0.7i z2 = (0.7i)2 + 0.7i = −0.49 + 0.7i z3 = (−0.49 + 0.7i)2 + 0.7i = −0.7399 + 0.42i z4 = (−0.7399 + 0.42i)2 + 0.7i = −0.11894799 − 0.3598i z5 = (−0.11894799 − 0.3598i)2 + 0.7i = = −0.60530741567496 + 0.10230402i e così di seguito. Se la successione |zn | tenderà all’infinito, il punto non apparterrà all’insieme di Mandelbrot. Nell’esempio appena effettuato, tramite iterazioni successive, si nota che il punto non appartiene all’insieme. Già dal 16o valore dalla successione si ha: z16 = (5.60678861624714 + 5.41078917496095i)2 + 0.7i = = 1.66943909140394 + 17.3243664074552i z17 = (1.66943909140394 + 17.3243664074552i)2 + 0.7i = = −297.836644539856 + 21.3632445902631i con |z16 | = 7.79183663093325 e |z17 | = 298.601833634999. Figura 35: Insieme di Mandelbrot Ovviamente, questa suddivisione tra punti divergenti e non divergenti è formalmente corretta, ma non è applicabile. Attraverso un numero finito di iterazioni, non è possibile escludere punti che mostrerebbero la proprietà di divergenza solo in iterazioni successive (e non effettuate). Quindi, attraverso un numero finito 81 di passi iterativi, non si escluderanno punti dall’insieme di Mandelbrot che solo successivamente mostrerebbero la non appartenenza. In sintesi, vale la regola generale: i frattali non possono essere calcolati correttamente. Fortunatamente, lo studio algoritmico è semplificato poiché si può dimostrare (test di Bailout) che se il modulo di zn è maggiore di 2 (distanza dell’orbita dal punto 0 risulta maggiore di 2), la successione è divergente. Sostanzialmente, per un valore di c arbitrario, si itera l’equazione, e se l’orbita supera la soglia di 2, c si ritiene divergente (esterno all’insieme di Mandelbrot), altrimenti lo si riterrà convergente (appartenente all’insieme). Utilizzando questo test, l’algoritmo permetterà più agevolmente di escludere alcuni punti dall’insieme, ma l’orbita di punti interni potrebbe essere ritenuta non divergente (l’orbita non supera la soglia), e potenzialmente essi sarebbero esclusi solo attraverso iterazioni successive. In definitiva, il numero finito di iterazioni implica una rappresentazione grafica associata all’ineluttabile condizione di approssimazione. Lo studio sinora proposto suggerisce la produzione di un’immagine binaria, in cui la divisione è tra punti appartenenti e non appartenenti all’insieme di Mandelbrot. Si può utilizzare un accorgimento per rendere il grafico esteticamente apprezzabile: il minimo valore di n, per cui zn > 2, si tratta come un indice della lontananza dal bordo. Associando ad ogni valore n un colore, si ottiene un’immagine non monocromatica. Dalla sequenza di immagini di Figura 36, si nota che un numero maggiore di iterazioni algoritmiche rendono l’immagine più simile al frattale di Figura 35. Dalle immagini Figura 37(a), 37(b), 37(c), 37(d), 37(e), 37(f) e 37(g) si nota che è possibile effettuare degli zoom nel frattale e visualizzare repliche dello stesso. Dalla Figura 37(h) e 37(i) si nota che sono state effettuate ulteriori iterazioni affinché l’immagine si potesse zoomare senza perdere particolari. . . . in natura Le immagini dei frattali proposti sono esteticamente molto interessanti, ma probabilmente esclusivamente astratte. È interessante la seguente citazione di Benoît Mandelbrot: [. . . ] Perché la geometria viene spesso definita fredda e arida? Uno dei motivi è la sua incapacità di descrivere la forma di una nuvola, di una montagna, di una linea costiera, di un albero. Osservando la natura vediamo che le montagne non sono dei coni, le nuvole 82 (a) Iterazione 1 (b) Iterazione 2 (c) Iterazione 3 (d) Iterazione 4 (e) Iterazione 5 (f) Iterazione 6 (g) Iterazione 7 (h) Iterazione 10 (i) Iterazione 20 Figura 36: Iterazioni per la generazione dell’insieme di Mandelbrot non sono delle sfere, le coste non sono cerchi, ma sono degli oggetti geometricamente molto complessi [. . . ] Ad esempio, nel regno vegetale si trovano molti oggetti la cui codifica geometrica sarebbe molto complessa se avvenisse in senso ordinario. Al contrario, essa è molto semplice in senso frattale, poiché riprodotti con poche istruzioni. In Figura 38 un esempio. In generale, la natura utilizza massiciamente i frattali per questioni di opportunità. Si pensi al corpo umano. Le ramificazioni dei vasi sanguigni, fibre nervose, . . . , e misurazioni della superficie polmonare mostrano una struttura frattale. Ad esempio, la capacità respiratoria di un animale è proporzionale all’estensione della superficie dei polmoni, in quanto è fondamentale il contatto della superficie con l’ossigeno immesso tramite la respirazione. Il metabolismo animale necessita di una grande estensione (in un uomo ∼ 200m2 ) la quale non sarebbe permessa 83 (a) Zoom 1 - Iterazione 1000 (b) Zoom 2 - Iterazione 1000 (c) Zoom 3 - Iterazione 1000 (d) Zoom 4 - Iterazione 1000 (e) Zoom 5 - Iterazione 1000 (f) Zoom 6 - Iterazione 1000 (g) Zoom 7 - Iterazione 1000 (h) Zoom 8 - Iterazione 10000 (i) Zoom 9 - Iterazione 10000 Figura 37: Zoom dell’insieme di Mandelbrot da una struttura regolare. In un volume ridotto come la cavità toracica, solo la ripetizione frattale delle strutture interne permette tale estensione. 84 Figura 38: Esempio di felce 85 86 La matematica della bellezza Al di là del profumo e del volto la bellezza è chiara in ogni particolare distante anni luce dalla mediocrità del bello conosciuto come tale la ricerca della perfezione rende ciechi i nostri occhi proprio dinanzi ad essa Ilaria Valenti ONCORDO 37 con l’autrice di questi versi nel ritenere che la bellezza sia un concetto soggettivo. Questa sezione mostrerà un parametro che nel Rinascimento fu definito essenza della bellezza. Ad esempio, tra questi tre rettangoli, qual è il più bello? C Figura 39: Qual è il rettangolo più bello? 37 segnalo il mio conflitto d’interessi 87 Probabilmente si è individuato nel rettangolo no 2 il più proporzionato, cioè quello che si identifica maggiormente con l’idea soggettiva di rettangolo: il rapporto tra base ed altezza è, per la figura no 2, quello che più si avvicina alla sezione aurea o, secondo la definizione di Leonardo da Pisa, rapporto aureo. Il concetto di sezione aurea fu introdotto dai pitagorici attorno al VI sec. a.C.; essi notarono che (v. Figura 40) tracciando le diagonali di un pentagono regolare, a b Figura 40: Tracciando le diagonali di un pentagono regolare si disegna un altro pentagono regolare, il cui lato è la sezione aurea del primo (cioè ab è un rapporto aureo); si può procedere ricorsivamente si individua un altro pentagono regolare il cui lato è la sezione aurea del lato del primo; in altri termini, il rapporto tra un lato del pentagono esterno ed un lato del pentagono interno coincide con un numero che ha il privilegio di avere un nome: numero d’oro. Dai pitagorici passiamo ad Euclide che, nel XIII libro della sua vasta opera Elementi, definisce la divisione di un segmento in media e ultima ragione. Possiamo ripercorrere il suo ragionamento traducendo la trattazione esclusivamente geometrica nella più semplice trattazione algebrica, effettuata nel 1202 da Leonardo da Pisa detto Fibonacci nel suo Liber Abaci, testo che ha il merito di aver propiziato la diffusione in Europa delle cifre indo-arabe. A B C Figura 41: Schematizzazione per il ragionamento di Euclide Nella Figura 41 è evidenziato un segmento diviso in due parti, AB quella maggiore e BC quella minore (quindi l’intero segmento é AC). Il segmento è diviso 88 in media e ultima ragione se il rapporto tra misura dell’intero segmento e parte maggiore è uguale al rapporto tra parte maggiore e minore, formalmente AC AB = AB BC Supponiamo che: AB misuri a; BC misuri b; AC misuri (implicato dalle precedenti) a + b. Possiamo riassumere la proporzione precedente nella seguente: a+b a = a b Poniamo a = bϕ, con ϕ costante che determineremo; sostituendo si ottiene: bϕ + b bϕ = bϕ b da cui, semplificando ed isolando la costante ϕ otteniamo: 6 bϕ 6 b(ϕ + 1) = 6 bϕ 6b 2 ϕ −ϕ−1=0 la cui soluzione positiva è √ ϕ= 5+1 ∼ = 1.618033988749 2 numero irrazionale definito numero d’oro. Nel medesimo libro Fibonacci introdusse la seguente successione38 1 1 2 3 5 55 89 144 8 233 13 21 377 34 610 ... 38 in realtà introdusse solo 12 termini della sequenza che iniziava con 0; in un secondo tempo essa è stata espansa ricorsivamente con il nome successione di Fibonacci 89 in cui descrisse matematicamente una questione di ordine riproduttivo del mondo animale. Per tale successione, stabiliti i valori iniziali, è facilmente intuibile la legge che ne determina i successivi, poiché ogni numero è somma dei due immediatamente precedenti. Come nel precedente esempio, assegnati i primi due, a1 = 1 e a2 = 1, si possono definire i successivi con la regola ricorsiva an+2 = an + an+1 , quindi si ha: a3 = a1 + a2 = 1 + 1 = 2 a4 = a2 + a3 = 1 + 2 = 3 a5 = a3 + a4 = 2 + 3 = 5 a6 = a4 + a5 = 3 + 5 = 8 e così di seguito. → → → → 1 1 1 1 1 1 1 1 2 2 2 2 3 3 3 5 5 8 Anche se l’autore l’ignorava, tale successione è fortemente legata alla sezione aurea; nel 1611 Keplero scoprì che il rapporto tra due numeri consecutivi della successione di Fibonacci approssimano il numero aureo, sempre con maggiore 90 precisione a mano a mano che si avanza nella successione: 1 =1 1 2 =2 1 3 = 1, 5 2 5 = 1, 6 3 8 = 1, 6 5 13 = 1, 625 8 21 ∼ = 1, 6153846 13 34 ∼ = 1, 6190476 21 55 ∼ = 1, 6176470 34 89 = 1, 618 55 144 ∼ = 1, 6179775 89 233 = 1, 61805 144 377 ∼ = 1, 6180257 233 610 ∼ = 1, 6180371 377 987 ∼ = 1, 6180327 610 1597 ∼ = 1.6180344 987 2584 ∼ = 1, 6180338 1597 ... Sintetizzando, in maniera rigorosa possiamo scrivere: xn+1 =ϕ n→∞ xn lim con xn termine ennesimo della successione. È facile intuire che per molto tempo la conoscenza della sezione aurea fu confinata al campo matematico, ma il Rinascimento diede un grosso impulso alla produzione in vari ambiti, in particolar modo acquistò notevole importanza sia nello studio dei fenomeni naturali, sia in quello artistico. Di seguito saranno illustrati alcuni studi celebri in vari ambiti culturali. 91 Matematica Come già mostrato precedentemente, il numero d’oro corrisponde ad una delle due soluzioni dell’equazione quadratica x2 − x − 1 = 0 le cui radici sono: ( √ 1± 5 x1 x= = 2 x2 ∼ = 1, 618 ∼ = −0, 618 Sia x1 sia x2 sono entrambi numeri irrazionali: si assegna alla sezione aurea il valore x1 anche se non esiste una preferenza mostrata in alcun campo ad esclusione della geometria, in quanto solo la radice positiva mostra la natura di rapporto; pertanto il valore numerico della sezione è circa pari a 1,618. Nella letteratura si può incorrere in un altro numero definito numero d’oro, talvolta, ma non diffusamente, definito sezione argentea, il cui valore è √ 5−1∼ x= = 0, 618 2 cioè il precedente valore x2 cambiato di segno. Questo valore è determinato dalla soluzione del problema generale a+b a = a b in cui non si considera come incognita la a, bensì la b. Ponendo b = aφ, con φ costante, sostituendo si ottiene: a + aφ a = a aφ da cui, semplificando ed isolando la costante φ otteniamo: 6a 6 a(1 + φ) = 6a 6 aφ 2 φ +φ−1=0 le cui radici sono −1± φ= 2 92 √ 5 ( ∼ 0, 618 φ1 = = φ2 ∼ = −1, 618 Sia φ1 sia φ2 sono entrambi numeri irrazionali, con segno opposto alle soluzioni dell’equazione ϕ2 − ϕ − 1 = 0. Pertanto si intuisce l’imbarazzo nel definire ϕ o φ come numero d’oro, in cui l’imbarazzo è maggiore se si ricorda la proprietà φ= 1 ϕ 1 che equivale ovviamente a ϕ = . φ Quindi il numero d’oro e φ o ϕ? Nella trattazione mi uniformo alla letteratura e nel seguito si considera ϕ il numero d’oro. Mostriamo una simpatica proprietà che possiamo verificare con l’ausilio di una √ 5 + 1 calcolatrice39 scientifica. Calcoliamo ϕ = : la mia visualizza il numero 2 ϕt = 1, 618033989 (troncamento di ϕ): per i nostri scopi ϕt è una sufficiente approssimazione di ϕ. Calcoliamo il reciproco, cioè 1/1, 61803398940 : il display mostra 0, 618033988: le stesse cifre decimali dopo la virgola (ad esclusione dell’ultima che, come appena scritto è da ignorare a causa dei troncamenti). Calcoliamo il quadrato di ϕt , quindi 1, 618033989 per se stesso41 : sarà visualizzato 2, 618033989, nuovamente le stesse cifre decimali. Se sommiamo ϕt a ϕ2t (ottenendo ϕt (1+ϕt )) avremo 4, 236067977, ottenendo ϕ3t ; valori uguali anche per ϕ2t + ϕ3t e ϕ4t = 6, 854101966; in generale si ha l’identità matematica ϕn + ϕn+1 = ϕn+2 con n qualsiasi. Un’ulteriore proprietà si ha utilizzando esponenti interi elevati per ϕn , che si approssimano ad un numero naturale a mano a mano che aumenta il valore di n, per 39 non è necessario che sia scientifica, ma faciliterà la digitazione; in ogni caso, utilizzando strumenti elettronici, il numero irrazionale sarà troncato e, quindi, l’ultima cifra sarà da ignorare 40 tramite il tasto 1/x 41 tasto x2 93 difetto se l’esponente è pari, per eccesso se è dispari; alcuni esempi: ϕ10 ∼ = 122.991869381244 11 ∼ ϕ = 199.005024998741 ϕ20 ∼ = 15126.999933893 21 ∼ ϕ = 24476.0000408564 ϕ30 ∼ = 1860497.99999946 ϕ31 ∼ = 3010349.00000034 Le curiosità matematiche non terminano qui; ad esempio, il numero aureo può essere rappresentato attraverso due rappresentazioni inconsuete di seguito mostrate. Si voglia determinare il valore dell’espressione composta da radici quadrate che si succedono indefinitamente: s r q √ x = 1 + 1 + 1 + 1 + ... Elevando al quadrato si ottiene s 2 x =1+ r q √ 1 + 1 + 1 + ... 1+ Il secondo addendo del membro di destra è uguale ad x (si veda l’equazione iniziale), quindi possiamo scrivere x2 = 1 + x la cui radice positiva è ancora ϕ. La seconda espressione inconsueta è una frazione continua illimitata, composta da denominatori tutti identici, in cui l’unico numero che appare è 1; il calcolo avviene attraverso un analogo procedimento: 1 x=1+ 1 1+ 1 1 + ... Dato che la frazione continua è illimitata, il denominatore del membro di destra è 1 uguale ad x, quindi x = 1 + ; moltiplicando per x entrambi i membri si ha x 1+ x2 = 1 + x la cui radice positiva è nuovamente ϕ. 94 Geometria Già precedentemente sono stati presentati esempi di applicazione geometrica della sezione aurea (v. Figura 40 e Figura 41). Esistono molti poligoni definiti aurei; i casi più famosi, ad esclusione del pentagono regolare che è un poligono aureo per costruzione, sono quelli del rettangolo e triangolo aurei. Nel rettangolo aureo (v. Figura 42(a)) il rapporto tra lato lungo e lato corto è ϕ, mentre nel triangolo aureo lo stesso rapporto è tra lati e base. La simpatica proprietà è che per entrambi i poligoni si può ricavare una successione dello stesso poligono con un fattore ϕ tra il lato del poligono esterno e quello interno immediatamente successivo. Per entrambe le successioni è possibile ricavare una sorta di spirale (talvolta confusa con la spirale aurea). Quest’ultima è una spirale logaritmica la cui funzione è r = aebθ con a qualsiasi ad esclusione di zero e b uguale a ϕ. (a) Rettangolo aureo (b) Triangolo Figura 42: I poligoni aurei più famosi ad esclusione del pentagono Storia Tra la letteratura storica contemporanea è possibile incorrere in testi che riportino l’uso della sezione aurea in opere preelleniche; si ritiene che molti scritti siano la proiezione delle fantasiose ipotesi Ottocentesche; in ogni caso, di seguito saranno trattati i popoli e le opere a cui più spesso si fa riferimento. 95 Babilonia Alcune tavolette riportano calcoli i quali inducono a ritenere i babilonesi possessori di una cultura matematica tale da conoscere con buona approssimazione π, tuttavia non esistono prove che conoscessero la sezione aurea. Nonostante tale evidenza, alcuni studiosi continuano a ritenere che il popolo babilonese conoscesse il rapporto aureo, supportando tale tesi attraverso l’esistenza di alcuni steli e bassorilievi del IX sec. a.C. nei quali la misurazione di alcune raffigurazioni si avvicinano al rapporto aureo. Ovviamente tale tesi è assolutamente ingenua: preferisco non analizzare ulteriormente questa considerazione poiché sarà più chiara tra breve. Egitto Le ipotesi sulla conoscenza del rapporto aureo in epoca preellenica probabilmente derivano dalla misticheggiante quanto acritica letteratura Ottocentesca, i cui oggetti privilegiati sono i monumenti degli antichi Egizi, ed in particolare la famosa Piramide di Cheope situata nella piana di Giza. ip cateto ot en us a cateto Figura 43: Schematizzazione della Piramide di Cheope Dalla Figura 43 si nota che la base è approssimativamente quadrata, con un piccolo42 scarto, in cui i lati della base misurano circa 230,38 m; l’altezza misura oggi 136,86 m (inizialmente misurava 147,61 m); attraverso il teorema di Pitagora, dai valori originali è possibile calcolare l’ipotenusa: v !2 u u t147, 612 + 230, 38 ∼ 187, 26 m = 2 42 96 i quattro lati di base presentano uno scostamento medio di 1,52 cm Figura 44: Fotografia della Piramide di Cheope ed il rapporto tra altezza e semilato della base è: 187, 26 altezza = = 1, 625 semilato 115, 19 molto vicino ϕ, con uno scarto inferiore allo 0,5%. Fortunatamente, la maggior parte degli storici non ritiene che la sezione aurea sia celata nei rapporti dimensionali della piramide poiché, per ipotizzare verosimilmente che gli architetti egizi conoscessero ϕ, è necessaria l’esistenza di testimonianze storiche che avvalorino l’uso consapevole, quindi intenzionale, del rapporto aureo. In questa fase è utile introdurre un passo dell’astronomo John Herschel che, citando Erodoto, afferma: Piramide caratterizzata dalla proprietà di avere ciascuna delle facce uguale al quadrato costruito dell’altezza Questo passo, nonostante la perplessità sull’interpretazione, sarebbe più corretto considerarlo come prova indiziaria e non una vera testimonianza; in ogni caso è sufficiente una semplice verifica per trovare l’originale passo43 di Erodoto: Per la costruzione della Piramide occorsero vent’anni. Essa è quadrata.. Presenta da tutti i lati una faccia di otto plettri, un’altezza uguale. 43 tratto da Erodoto, Storie - Libro II 124:5 97 Figura 45: Ricostruzione del Partenone È di pietre levigate e perfettamente connesse, di cui nessuna misura meno di trenta piedi. Quindi, nello scritto originale non esiste alcun riferimento al quadrato dell’altezza, anzi la pseudo-citazione di Erodoto non assomiglia affatto all’originale. È facile concludere che il testo di Erodoto non può essere considerato una testimonianza della presenza di ϕ nel monumento; difatti il buon senso ci suggerisce che la peculiarità è da considerare una coincidenza del tutto fortuita che ha subito una manipolazione numerica derivante dal fascino del misticismo da cui taluni sono fatalmente attratti. Partenone Alcuni studiosi ritengono che la facciata del Partenone possa essere inquadrata in base un rettangolo aureo (cioè proporzionato secondo il rapporto aureo = ϕ) altezza supportando tale tesi attraverso le proporzioni di vari fregi. Anche qui vi è una forte critica poiché si osserva una metodologia inesistente, attraverso imprecisioni e arbitrarietà nella scelta dei punti di riferimento: sono contestate sia la sistematica differenza nei valori delle misurazioni (per loro natura oggettive) tra le fonti, sia scelte per far quadrare i rapporti dimensionali con le ipotesi. Per quest’ultimo aspetto è utile evidenziare che spesso non si considerano elementi ritenuti marginali, ed è evidente che non lo sono nell’ottica architettonica, ma esclusivamente per evidenziare rapporti che altrimenti non sarebbero nemmeno vicini a ϕ; ad esempio, la più estrema esclusione avviene per il basamento. 98 Nonostante non sia possibile escludere che alcuni matematici conoscessero il rapporto aureo prima degli Elementi di Euclide (circa 300 a.C.), né che taluni artisti già utilizzassero ϕ nelle proprie opere, si evidenzia che la costruzione del Partenone risale al V secolo (termina nel 438 a.C.), e quindi la realizzazione architettonica è precedente più di un secolo rispetto alla prima formalizzazione matematica del rapporto aureo44 . Palazzo di Vetro La sede dell’Organizzazione delle Nazioni Unite (v. Figura 46) è ultimamente portata come esempio nell’architettura contemporanea di applicazione del rapporto Figura 46: Palazzo di Vetro aureo. Il palazzo misura 154 m di altezza ed è largo 87,5 m; quindi 154 = 1.76 87, 3 valore che si avvicina a ϕ con un’approssimazione di circa l’8%, producendo un sorriso per la tesi inizialmente riportata ed una conclusione rapida dell’analisi. Psicologia Nell’Ottocento iniziarono i primi studi psicologici per confermare la presunta preferenza estetica per la sezione aurea; famoso è lo studio di Gustav Theodor Fechner riportato nel Manuale d’estetica, edito nel 1879, che lo proietta a fondatore della 44 solitamente la formalizzazione matematica, appartenente all’ambito teorico, precede di molto tempo le applicazioni; sottolineo che questa considerazione spesso si dimentica nell’evidenziare la non utilità applicativa intrinseca della matematica pura 99 psicologia sperimentale. Fechner condusse esperimenti per testare la preferenza estetica delle persone e al contempo misurò tantissimi oggetti di uso quotidiano; nonostante solo la prima delle tre modalità di ricerca da lui utilizzate supportasse la sua ipotesi, confermò la tesi della preferenza dell’uomo per il rapporto aureo. Da subito il testo attirò forti critiche per la metodologia, certamente all’avanguardia, ma non compatibile con il metodo sperimentale, che prevede accuratezza45 affinché la ricerca sia ripetibile alle stesse condizioni. Negli anni successivi la tesi di Fechner è stata oggetto di ripetute verifiche, ma solo alcuni studi l’hanno convalidata. In ogni caso i lavori favorevoli alla tesi fechneriana sono diminuiti, anzi sono aumentati quelli che ridicolizzano tale tesi; il più noto è il lavoro di Holger Höge intitolato The golden section hypothesis - ist last funeral che probabilmente pone termine a tutte le speculazioni. Arte Nell’arte spesso si citano opere in cui sono presenti le proporzioni auree, ma se consideriamo le onnipresenti imprecisioni di misurazione e le consuete scelte arbitrarie dei punti di riferimento, ripeteremmo le considerazioni di pag. 98, per cui la tesi è verosimile solo in alcuni casi. Pittura Diffusamente si ritiene che molti pittori abbiano utilizzato la sezione aurea, rintracciabile in particolari più o meno estesi, iscritti in un rettangolo aureo. Tra i precedenti pittori, molti sono prerinascimentali, pertanto si può escludere che conoscessero le proporzioni auree. È altresì essenziale che per ipotizzare verosimile l’uso consapevole del rapporto aureo, manca l’ammissione e quindi, nonostante il dibattito accademico sia ancora aperto, possiamo escludere che sia utilizzo nelle pitture prerinascimentali. Tra le pitture a cui si associa l’utilizzo della sezione aurea spiccano quelle di Leonardo Da Vinci (v. Figura 47(a) e Figura 47(b)), illustratore d’eccezione del Liber Abaci, pertanto conoscitore delle proporzioni auree, ma non necessariamente utilizzatore delle stesse nei suoi dipinti. Altri studiosi ipotizzano che nelle pitture di Leonardo Da Vinci, la presenza del rettangolo aureo non sia consapevole, ma sia conseguente alla riproduzione fedele del corpo umano nel quale è ripetutamente presente il rapporto aureo (quest’aspetto sarà esaminato 45 non esistendo la psicologia sperimentale, non esisteva neanche un metodologia ortodossa, pertanto non eseguì esperimenti seguendo modelli standard (in effetti, non è stato possibile ripetere i suoi esperimenti perché, non essendo documentata la sua metodologia nei minimi particolari, non si è potuto ricostruirla nei dettagli) 100 (a) San Gerolamo (b) La Gioconda Figura 47: Dipinti di Leonardo Da vinci in cui sono evidenziati particolari che alcuni studiosi ritengono si possano iscrivere in un rettangolo aureo di seguito). Più verosimile fu il caso del pittore francese Georges Seurat che, con un largo uso di tratti rettangolari (v. Figura 48) ha indotto una forte diffusione della sezione aurea. L’uso della sezione aurea muta in epoca più recente ed uno dei primi ad utilizzarla fu Paul Sèrusier (1864-1927) per sua ammissione. La storia vuole che a seguito di una visita del 1896 ad un amico pittore, l’olandese Jan Werkade, presso un monastero di Benedettini nella Germania, apprese da un gruppo di monaci le misure sacre, tra le quali vi era la sezione aurea. Sèrusier ha avuto il merito di diffondere la conoscenza della proporzione aurea e, probabilmente a causa dell’aura mistica legata all’originale utilizzo nella pittura, le opere pittoriche si sono moltiplicate; in quel periodo, la densità critica di diffusione della conoscenza del rapporto aureo fu superata, con il conseguente sdoganamento in campi diversi (ad esempio scultura) e in aree geografiche diverse (oltreoceano). Nonostante oramai esistano tanti esempi del suo utilizzo, continuano le false associazioni della pittura contemporanea; la più celebre è quella dell’utilizzo della sezione aurea da parte dell’olandese Piet Mondrian, il quale si limitò ad utilizzare 101 Figura 48: La parata del circo varie forme rettangolari e linee orizzontali e verticali. Scultura La scultura è ricca di falsi riferimenti di applicazione della sezione aurea, probabilmente per le difficoltà intrinseche delle operazioni di misurazione; in ogni caso, si dovranno attendere le applicazioni di ϕ nella pittura e, solo successivamente, artisti poliedrici la impiegheranno anche nella scultura, favorendone la diffusione in quest’ultimo campo. Musica Da molti è ritenuto che la musica abbia molti legami con la sezione aurea; è possibile suddividere due aspetti, struttura degli strumenti musicali e struttura della musica. Per quanto riguarda la struttura degli strumenti, solitamente si fa riferimento al violino ed al piano. Nel caso del violino, elemento strutturale in oggetto è la cassa armonica: l’arco che ne costituisce la base si può spesso identificare con il centro di curvatura, situato in posizione aurea rispetto alla lunghezza complessiva dello strumento. Nel pianoforte la struttura della tastiera è suddivisa in ottave costituite da 13 tasti, di cui 8 bianchi e 5 neri, a loro volta suddivisi in gruppi da 2 e 3 tasti ciascuno: 102 facile il parallelismo con la successione di Fibonacci con la sequenza 2, 3, 5, 8, 13. In entrambi i casi precedenti, sia per il violino sia per il pianoforte non ci sono conferme che tali accorgimenti geometrici conferiscano un suono più piacevole allo strumento, trattandosi di evoluzioni strutturali in alcuni casi non dettate da motivazioni acustiche, con parallelismi forzati per la sezione aurea. Per quanto riguarda il piano compositivo, i rapporti aurei (attraverso la serie di Fibonacci) possono essere confrontati con tantissimi elementi quali, ad esempio, la durata temporale di un brano, numero di note e battute. Avendo a disposizione tantissimi riferimenti, è semplice trovare qualche esempio e, pertanto, è facile congetturare l’uso della sezione aurea; se applichiamo la regola secondo la quale l’intenzionalità ne produce l’utilizzo, in tempi recenti, attraverso i sintetizzatori elettronici tantissimi autori hanno utilizzato sequenze della successione di Fibonacci: ad esempio, l’album Octavarium della band statunitense Dream Theater è interamente ispirato al rapporto tra i numeri 8 e 5, ed in particolare la melodia dell’ultimo brano dura 24 minuti esatti (8 · 3), diviso in 5 movimenti. Letteratura Probabilmente non sapendo come impiegare il tempo, qualcuno ha cercato il rapporto aureo nella letteratura e, in particolare, nella poesia. Oggetto dello studio è stata la metrica dell’Eneide di Virgilio: l’analisi effettuata da George Duckworth dell’università di Princeton è stata ripetuta ed è stata confutata, rilevando assoluta casualità nei rapporti. Nonostante le analisi non abbiano condotto ai risultati sperati, la letteratura si è arricchita di una simpatica opera poetica ispirata alla sezione aurea, opera a sfondo umoristico, scritta dal matematico Paul Bruckman intitolata Costantly Mean, pubblicata nel 1977 nella rivista matematica The Fibonacci quarterly, in cui in versi sono decantate alcune proprietà algebriche del numero (vedi [Liv07]). Biologia In biologia esistono molti sistemi in cui è possibile riscontrare l’utilizzo di alcuni numeri della sequenza di Fibonacci. Noto è l’esempio della morfogenesi del girasole, il quale ha una notevole infiorescenza del capolino. I fiori del girasole si differenziano in: esterni: fiori dei petali ed hanno esclusivamente funzione estetica poiché sterili; interni: fiori del disco che maturano in frutti della pianta contenenti semi. 103 (a) Tipico girasole di campo (b) Illustrazione del modello di Vogel derivante dal modello a spirale di Fermat Figura 49: Illustrazione di un tipico girasole di campo e di una illustrazione del modello di Vogel I fiori all’interno del disco si dispongono secondo uno schema a spirale, in cui le spirali disposte in senso orario e quelle disposte in senso antiorario costituiscono due numeri successivi della successione di Fibonacci (solitamente sono 34 spirali in un senso e 55 nell’altro, ma in girasoli grandi possono essere anche 89 spirali in un senso e 144 nell’altro). Si può immaginare che la spiegazione del fenomeno sia da ricercare nell’evoluzione che probabilmente ha imposto il mantenimento di un maggior numero di semi affinché ci siano maggiori probabilità di riproduzione. È necessario evidenziare che le regole della fillotassi appena descritte non sono generali, pertanto si ritiene siano solo delle affascinanti tendenze. Corpo umano Per completezza, analizzo anche l’associazione del numero d’oro con il corpo umano, in quanto è possibile trovarla in alcuni documenti; come sarà palesemente evidente di seguito, le relazioni con ϕ sono improponibili forzature. Di seguito riporto due esempi che non ho mai verificato per intuibile discutibilità: - la distanza dal gomito sino alla mano con le dita tese moltiplicato ϕ è uguale alla lunghezza del braccio; - la larghezza della bocca moltiplicato ϕ è uguale alla distanza esterna tra gli occhi. 104 Conclusioni Sino al Rinascimento non c’è alcun riferimento esplicito alla sezione aurea che, più semplicemente, era definita sezione o, come scrisse Euclide “. . . divisione in media ed estrema ragione”. Dalle sezioni precedenti, nonostante siano emerse notevoli forzature, sono altresì emerse alcune coincidenze, in cui è verosimile l’utilizzo di ϕ solo in pochi casi, ed è stato diffusamente utilizzato solo in opere recenti. Ci può aiutare la seguente domanda: “Se abbiamo un disegno costruito anche con poche linee, quanto è probabile individuare il numero ϕ?”. Anche se in molti casi il calcolo delle probabilità e l’intuito umano non concordano, è correttamente intuibile che, avendo a disposizione un piccolo numero di linee, è semplice individuare il numero ϕ46 , anche con una tolleranza minima. La questione si traduce nella seguente domanda: “Cosa c’è di vero in ϕ?”. È stato oggi accertato definitivamente che non esiste una preferenza per ϕ. ϕ è un numero come ogni altro. I ϕedeli47 non concordano affatto: in passato sono stati eseguiti tanti studi e, in effetti, diversi provano statisticamente una qualche propensione estetica dell’uomo per il numero d’oro. È innegabile, però, che con il tempo la metodologia si è affinata: è ovvio che i precedenti studi siano stati affetti da errori metodologici (in più di qualche occasione gli errori sembrano volontari): oggi possiamo affermare con certezza che non c’è nessuna propensione affinché un uomo scelga o disegni un rettangolo aureo. L’unica consolazione che rimane ai ϕedeli è la grande proprietà aritmetica di ϕ, null’altro. È utile riportare, come è scritto in un articolo48 pubblicato nel 1968 dal The Fibonacci Quarterly, che il colonnello R. S. Beard di Berkley consiglia “Dunque tirate i dadi e sceglietevi la vostra teoria”. 46 47 o un qualunque altro numero si nell’intorno dell’unità da recenti critiche, sono stati così definiti coloro che sono rimasti fedeli alla validità estetica di ϕ 48 tratto dal già citato [Liv07] 105 106 Il numero più grande L’immaginazione ci permette di immaginare entità maggiori di quanto possiamo immaginare. Anonimo “Qual è il numero più grande?”. La prima risposta che potrebbe venire in mente è “Il numero più grande è infinito49 ”. In effetti con ∞ si intende una quantità infinita, e poiché non è propriamente identificabile con un numero, la risposta precedente non è corretta. Pertanto si potrebbe rispondere: “Non considerando la quantità ∞, ogni numero ha almeno un numero più grande50 , quindi non esiste il numero più grande in senso assoluto”. È senz’altro vero, pertanto la questione affrontata in questa sezione rimane aperta; si potrebbe però riproporla in altri termini: “Qual è il numero più grande che riesco a pensare il cui nome scritto letteralmente non è composto da numeri più piccoli”. Ad esempio dieci, cento, mille, un milione sono numeri che scritti letteralmente possono considerarsi atomici, ma diecimila è composto da dieci e mille, duemilioni è composto da due e milione, centoventicinquetrilioninovantanovebilionitrecentomiladue è composto da cento, venti, cinque, trilione, novanta, nove, bilione, tre, cento, mille e due. Non saprei cosa risponderebbe il generico lettore, che potrebbe pensare bilione, oppure trilione51 , ma esistono numeri poco comuni che sono assolutamente non comparabili con le quantità che riusciamo ad immaginare; questo aspetto sarà più chiaro tra breve. Esaminerò brevemente i numeri più grandi presenti nella letteratura: S EMBREREBBE una domanda banale: googol: È pari a 10100 , cioè 1 seguito da cento zeri. 49 di seguito utilizzerò il corrispondente simbolo ∞ scrivere almeno un numero equivale, non formalmente, ma sostanzialmente, a infiniti numeri: nella letteratura matematica è preferita la forma almeno un 51 per essere precisi, anch’essi possono essere considerati etimologicamente numeri composti; si veda la Tabella 4, in cui più si scende di livello e meno utilizzati (e lessicalmente meno accettabili/accettati) saranno tali numeri 50 107 valore scala breve 100 103 106 109 1012 1015 1018 1021 1024 1027 1030 1033 1036 1039 uno mille milione bilione trilione quadrilione pentilione esilione eptilione ottilione ennilione decilione endecilione dodecilione logica della scala breve 1.0001−1 1.0001+0 1.0001+1 1.0001+2 1.0001+3 1.0001+4 1.0001+5 1.0001+6 1.0001+7 1.0001+8 1.0001+9 1.0001+10 1.0001+11 1.0001+12 scala lunga uno mille milione miliardo bilione biliardo trilione triliardo quadrilione quadriliardo pentilione pentiliardo esilione esiliardo logica della scala lunga 1.000.0000 1.000.0000,5 1.000.0001 1.000.0001,5 1.000.0002 1.000.0002,5 1.000.0003 1.000.0003,5 1.000.0004 1.000.0004,5 1.000.0005 1.000.0005,5 1.000.0006 1.000.0006,5 Tabella 4: Nomi di numeri grandi: la scala breve è utilizzata, ad esempio, negli USA e recentemente in Gran Bretagna, la scala lunga è utilizzata, ad esempio, nell’Europa continentale, compreso l’Italia. Nella scala breve, i termini pentilione, esilione, eptilione, . . . , sono talvolta sostituiti rispettivamente con gli equivalenti quintilione, seilione, settilione, . . . ; nella scala lunga talvolta il termine miliardo può essere sostituito da migliaia di milioni, biliardo con migliaia di bilioni, triliardo con migliaia di trilioni, . . . gooplex: È pari a 10googol , cioè 10 alla googol-esima, cioè 10 moltiplicato per se stesso un googol di volte, risultando 1 seguito da un googol di zeri. numero di Graham: È così chiamato in onore di Ronal Graham ed è il numero più grande che sia stato utilizzato in una dimostrazione matematica. Per esprimere tale quantità, non è sufficiente ricorrere alla notazione classica, ma è necessario utilizzarne una nuova (notazione di Knuth). Megistron: È il più grande a cui sia stato dato un nome. Come il numero di Graham, per esprimerlo si dovrà ricorrere ad un’ulteriore notazione (notazione di Steinhaus-Moser). 108 Notazione di Knuth Nel 1976 Donald Knuth52 introdusse una notazione per esprimere numeri molto grandi; l’idea base della notazione di Knuth è la scrittura sintetica di iterati elevamenti a potenza, analogamente alla notazione dell’elevamento a potenza per esprimere ripetuti prodotti e, quest’ultimi, rappresentano iterate somme. La maniera più immediata per comprendere questa nuova notazione è presentare alcuni esempi. Esempio - Moltiplicazione Iterate addizioni possono essere definite attraverso l’operazione di moltiplicazione: a·b=a | +a+ {z. . . + a} b volte Esempio - Potenza Ripetuti prodotti possono essere rappresentati attraverso l’operazione di elevamento a potenza: ab = a ↑ b = a | · a ·{z. . . · a} b volte Gli esempi precedenti suggeriscono l’operatore doppia freccia (chiamato anche tetrazione) per esprimere iterati elevamenti a potenza: a ·· a a ↑↑ b = b a = a ↑ a ↑ ... ↑ a |{z} = a | {z } b volte b volte Di seguito alcuni esempi numerici. 3 ↑↑ 2 = 2 3 = 33 = 27 3 3 ↑↑ 3 = 3 3 = 33 = 327 = 7.625.597.484.987 33 3 ↑↑ 4 = 4 3 = 33 = 37.625.597.484.987 = un numero grande 33 3 ↑↑ 5 = 5 3 = 33 3 = 3un numero grande = . . . Nonostante la notazione tramite operatore doppia freccia permetta di esprimere numeri molto grandi, Knuth ha esteso ulteriormente la sua notazione introducendo l’operatore tripla freccia (anche chiamato pentazione) il quale esprime l’iterati operatori doppia freccia: a ↑↑↑ b = a ↑↑ a ↑↑ . . . ↑↑ a {z } | b volte a 52 a cui sono particolarmente grato per aver inventato il sistema di composizione tipografia digitale TEX, il quale è alla base del LATEX, linguaggio di markup utilizzato per la creazione di questo documento 109 Di seguito alcuni esempi. 3 3 ↑↑↑ 2 = 3 ↑↑ 3 = 3 ↑ 3 ↑ 3 = 33 = 7.625.597.484.987 | {z } | {z } 2 volte 3 3 volte 3 3 ↑↑↑ 3 = 3 ↑↑ 3 ↑↑ 3 = 3 ↑↑ (3 ↑ 3 ↑ 3) = | {z } | {z } 3 volte 3 3 volte 3 = 3 ↑↑ 7.625.597.484.987 = 3 ↑ 3 ↑ . . . ↑ 3 | {z } 3↑↑3 volte 3 Dalla tripla freccia passiamo alla quadrupla freccia: a ↑↑↑↑ b = a ↑↑↑ a ↑↑↑ . . . ↑↑↑ a {z } | b volte a e dalla quadrupla freccia passiamo alla quintupla freccia: a ↑↑↑↑↑ b = a ↑↑↑↑ a ↑↑↑↑ . . . ↑↑↑↑ a | {z } b volte a e così di seguito. Generalizzando: a ↑↑ . . . ↑ b = a ↑↑ . . . ↑ a ↑↑ . . . ↑ a . . . a ↑↑ . . . ↑ a | {z } | {z } | {z } | {z } n−1 n−1 n−1 n volte | {z } b volte a Può accadere che il numero di frecce che compongono l’operatore freccia è elevato, pertanto solitamente si sintetizza attraverso la seguente notazione alternativa: a ↑↑ . . . ↑ b = a ↑n b | {z } n Numero di Graham Il numero di Graham deriva dallo studio della teoria di Ramsey, in particolare per il problema seguente: Consider an n-dimensional hypercube, and connect each pair of vertices to obtain a complete graph on 2n vertices. Then colour each of the edges of this graph using only the colours red and black. What is the smallest value of n for which every possible such colouring must necessarily contain a single-coloured complete sub-graph with 4 vertices which lie in a plane? che può essere tradotto: 110 Considerando un ipercubo di n dimensioni, unendone i vertici, si ottiene un grafo completo con 2n vertici. Si colora ogni lato utilizzando solo i colori rosso e nero; qual è il valore più basso di n per cui ogni possibile lato colorato necessariamente conterrà un subgrafo completo monocolore con 4 vertici giacenti in un piano? Il risultato di tale problema non è noto, ma nel 1971 Graham e Rothschild hanno dimostrato che tale problema ha soluzione n0 stimando che 6 ≤ n0 ≤ n, con n molto grande. In un successivo lavoro non pubblicato, Graham valutò tale limite superiore e, nel 1977, Martin Gardner in Scientific America pubblicò tali risultati battezzando questo limite superiore come numero di Graham. Formalmente è di seguito definito: 3 ↑↑↑↑ 3 | {z } 3 ↑↑ . . . ↑ 3 | {z } .. G= 64 livelli . | {z } 3 ↑↑ . . . . . . ↑ 3 in cui il valore espresso da ogni livello indica il numero di frecce dell’operatore al successivo livello, sino a raggiungere l’ultimo livello (il 64o ). In maniera equivalente, possiamo definire ricorsivamente: G = g64 in cui g1 = 3 ↑↑↑↑ 3, gn = 3 ↑gn−1 3 Notazione di Steinhaus-Moser La notazione di Steinhaus-Moser può essere utilizzata per esprimere numeri grandissimi attraverso una notazione poligonale. Ad esempio: (il numero n inserito in un triangolo) equivale a nn ; (il numero n inserito in un quadrato) equivale al numero n inserito in n triangoli; (il numero n inserito in un pentagono) equivale al numero n inserito in n quadrati. 111 Nel caso generale, n inserito in un poligono di m + 1 lati equivale al numero n inserito in n poligoni di m lati, tutti consecutivi. Per esempio, il numero 3 in due triangoli è equivalente a 33 in un triangolo, il quale è equivalente ad elevare 33 alla potenza di 33 ; formalmente: triang(triang(3)) = triang(33 )) = triang(27))) = 2727 = = 443.426.488.243.037.769.948.249.630.619.149.892.803 L’originale notazione di Steinhaus definisce solo il triangolo, il quadrato ed il cerchio, equivalente al pentagono precedente. Steinhaus ha introdotto i seguenti numeri: Mega, equivalente ad un due in un cerchio: 2 ; Megistron, equivalente ad un dieci in un cerchio: 10 . Per estensione, nella notazione di Steinhaus-Moser si generalizza il numero di lati del poligono, introducendo il numero di Moser tramite un due in un megagono, cioè un poligono costituito da Mega-lati; Mega 2 è un numero elevatissimo poiché: 2 = quad(quad(2)) = quad(triang(triang(2))) = = quad(triang(22 )) = quad(triang(4)) = = quad(44 ) = quad(256) = = triang(triang(. . . triang(256). . . )) = | {z } 256 triangoli = triang(triang(. . . triang(256256 ). . . )) ∼ = {z } | 255 triangoli ∼ = triang(triang(. . . triang(3, 2 · 10216 ). . . )) ∼ = | {z } 255 triangoli ∼ = ... È possibile dimostrare che il Mega si approssima al valore 256 ↑↑ 257, in particolare è vera la seguente disuguaglianza: 10 ↑↑ 257 < Mega < 10 ↑↑ 258 pertanto, nonostante il Mega sia un numero grandissimo, è notevolmente inferiore al numero di Graham. 112 Megistron Il numero 10 è stato introdotto nel 1983 ed è il numero più grande a cui sia stato dato un nome. Considerando l’estrema grandezza, è possibile effettare solo alcune espansioni: 10 = quad(quad(. . . quad(10). . . )) = | {z } 10 quadrati = quad(quad(. . . quad(triang(. . . triang(10)) . . .)) = | {z }| {z } 9 quadrati 10 triangoli = quad(quad(. . . quad(triang(. . . triang(1010 )) . . .)) = | {z }| {z } 9 quadrati 9 triangoli 10 = quad(quad(. . . quad(triang(. . . triang((1010 )10 )) . . .)) = | {z }| {z } 9 quadrati 8 triangoli = ... Complementi Tale sottosezione approfondirà la magnitudo di alcune grandezze e la relazione seguente: Mega numero di Moser numero di Graham Prima di esaminare ulteriormente tale relazioni, riscriviamo la notazione di SteinhausMoser utilizzando tale accorgimento: M (n, m, p) equivale al numero n dentro m poligoni ognuno di p lati. Di seguito alcuni esempi. Esempio - Potenza M (n, 1, 3) = triang(n) = nn Esempio - Riduzione di lato M (n, 1, p + 1) = M (n, n, p) Ad esempio, quad(n) = triang(. . . triang(n) . . .) | {z } n triangoli 113 Esempio - Scomposizione M (n, m + 1, p) = M (M (n, 1, p), m, p) Ad esempio, quad(quadrato(n)) = quad(quad(n)) | {z } | {z } M (n,2,4) M (n,1,4) | {z } M (·,1,4) Dagli esempi precedenti, possiamo esprimere: Mega = M(2,1,5) Moser = M(2,1,M(2,1,5)) Precedentemente, nell’espansione di Mega abbiamo trovato questa relazione: Mega = M (2, 1, 5) = M (256, 256, 3) Se definiamo la funzione f (x) = xx , Mega è definito f 256 (256) = f 258 (2), in cui l’esponente definisce l’applicazione della medesima funzione esponente-volte. Per intuire l’ordine di grandezza del Mega = M (256, 256, 3), si riportano di seguito alcune valutazioni. 256 1 ·256256 M (256, 2, 3) = (256256 )256 = 256256 2561+256 256257 = 256 257 M (256, 3, 3) = (256256 = 256 256257 )256 257 256257+256 = 256 256 M (256, 4, 3) ∼ = 256256 256 M (256, 5, 3) ∼ = 256256 ... = 257 ·256256257 = 256256 ∼ = 256 = 257 256256 256257 256256 257 Utilizzando la notazione di Knuth, possiamo scrivere: Mega = M (256, 256, 3) ∼ = 256 ↑↑ 257 Per quanto riguarda il numero di Moser, utilizzando la notazione di Knuth è stata dimostrata la seguente disuguaglianza: Moser < f (f (f (4))), con f (n) = 3 ↑n 3 Quindi, nonostante il numero di Moser sia elevatissimo, la sua magnitudo è non comparabile al quella del numero di Graham: Moser f 64 (4) = numero di Graham 114 Quando è iniziato il nuovo millennio? Ab Urbe condita 2754 cinese 4697 – 4698 ebraico 5760 – 5761 induista Vikram Samvat 2056 – 2057 Shaka Samvat 1923 – 1924 Kali Yuga 5102 – 5103 persiano 1379 – 1380 islamico 1421 – 1422 bizantino 7509 – 7510 berbero 2951 runico 2251 Corrispondenza dell’anno 2001 del gregoriano negli altri calendari domanda sintetizza un dubbio impresso nella mente di molte persone, derivante dalla convinzione storica che l’anno zero non sia esistito, in contrapposizione alla deduzione matematica che, passando dall’anno 1999 al 2000, si superi la linea di demarcazione delle migliaia. Analizziamo più a fondo questa antitesi, partendo dalla considerazione storica. Q UESTA Molti conoscono la storia di Dionigi il Piccolo, dotto monaco che visse a Roma tra il V ed il VI secolo. La sua notorietà è conseguente al tentativo di calcolare la data di nascita di Gesù, collocandola nell’anno 753 della fondazione di Roma. Oggi il calendario più diffuso è quello gregoriano, sviluppato secondo tale schema. Da notare la scelta del riferimento per la numerazione, la data dell’Incarnazione del nostro Signore Gesù Cristo (ab Incarnatione Domini nostri Iesu Christi), deducendo la stessa dai Vangeli e da documenti storici. Il riferimento è stato scelto 115 in modo insolito, poiché in quell’epoca si fissava come origine la data della fondazione di Roma o l’inizio del regno di Diocleziano, oppure, meno usualmente, il principio dei tempi (calcolato secondo convenzioni bibliche). Ad oggi, la maggioranza degli studiosi ritiene che la data di nascita di Gesù sia collocata tra il 7 a.C. ed il 4 a.C., quindi alcuni anni prima della data calcolata. In ogni caso, secondo la dottrina cristiana, il momento dell’Incarnazione di Gesù è avvenuto all’atto del concepimento e non alla nascita; ma poiché, secondo la stessa tradizione, la nascita è datata 25 dicembre, quest’ultima ed il concepimento (25 marzo, festa dell’Annunciazione) sono avvenuti lo stesso anno. Sintetizzando, Dionigi il Piccolo stabilì la data di concepimento di Cristo, gli anni successivi li numerò d.C. (dopo Cristo53 ) e quelli precedenti a.C. (avanti Cristo54 ). Passiamo alla considerazione matematica. Riporto di seguito un passaggio tratto dal testo [Zic02]55 : Qualcuno potrebbe obiettare che nella storia non si ritrovano avvenimenti datati nell’anno Zero. Fermi direbbe: “Tanto peggio per gli storici”. Dovremmo forse decidere di adottare una nuova aritmetica senza lo Zero? In modo da contare gli anni nostri stabilendo di averne uno in più in quanto gli storici non trovano alcun evento datato nell’anno Zero? Dovremmo dire che un bambino celebra il suo primo compleanno quando vede la luce, non un anno dopo? Per comprendere tale citazione è necessario distinguere tra numeri ordinali e cardinali (v. Scheda di approfondimento). Ad esempio, nel caso temporale, il primo cardinale è 0 ed indica l’origine, il primo ordinale è 1o ed indica l’intervallo (temporale) tra i cardinali 0 e 1. Si consideri la Figura 50 che rappresenta l’andamento dell’età di un bambino, sia tramite i numeri ordinali, sia tramite i cardinali. È possibile osservare, ad esempio, la nascita (coincidente con l’evento nascita), il 1o anno di nascita (coincidente con 1o anno), il compimento del 1o anno (coincidente con 1 anno), il 2o anno (coincidente con 2o anno), il compimento del 2o anno (coincidente con 2 anni). Supponiamo che tale bambino sia Gesù, pertanto il 1o anno sia il 1 d.C., il 2o anno sia il 2 d.C., . . . . Questo ci permette di ripetere il lavoro di Dionigi il Piccolo il 53 A.D., anno domini B.C., before Christ 55 purtroppo tale testo riporta una conclusione errata per il festeggiamento del nuovo millennio, affermando che dovrebbe avvenire nel passaggio tra 1999 d.C. e 2000 d.C. 54 116 Scheda di approfondimento Gli ordinali sono comunemente utilizzati per indicare una posizione in una sequenza di elementi; alcuni esempi di ordinali sono: 1o 2o 3o 4o 5o 6o = = = = = = primo secondo terzo quarto quinto sesto I numeri cardinali sono gli ordinari numeri; ad esempio: 0= 1= 2= 3= 4= 5= 6= zero uno due tre quattro cinque sei Generalmente i cardinali indicano una misura puntuale, mentre gli ordinali rappresentano un intervallo. 1° anno 0 nascita 2° anno 1 6° mese fine del 1° anno 1 anno 2 inizio del 2° anno fine del 2° anno inizio del 3° anno 2 anni Figura 50: Nella figura è rappresentata la nascita e l’evoluzione nei primi anni di un bambino quale ha utilizzato gli ordinali per la numerazione degli anni (v. Figura 51). Come evidente, utilizzando gli ordinali, Dionigi il Piccolo non ha utilizzato il numero 0: non è importante che lui non conoscesse tale numero (introdotto in Europa da Leonardo Fibonacci nel 1202), poiché solo utilizzando i cardinali ne avrebbe avuto necessità. Tale questione ha una semplice conseguenza che può essere visualizzata nella Fi117 Figura 51: Nella figura sono rappresentati i primi anni a.C. e d.C. gura 52: se la data odierna è, ad esempio, 8 agosto 2008, significa che siamo nel Figura 52: Nella figura sono rappresentati i primi millenni a.C. e d.C. 2008o anno d.C., quindi il 2008 è l’anno corrente (non ancora concluso); ciò implica che il calendario mostra una notazione non corretta, in quanto si confondono gli ordinali con i cardinali: sarebbe più corretto scrivere 8 agosto 2008o . Se volessimo utilizzare i cardinali, molto più comodi, possiamo scrivere alcune osservazioni: anno 0: inizia il 1 gennaio del 1 d.C. e termina il 31 dicembre del 1 d.C.56 ; anno 1: inizia dal 2 d.C. e termina alla fine del 2 d.C.; anno 1000: inizia dal 1001 d.C. e termina alla fine del 1001 d.C.; anno 2000: inizia dal 2001 d.C. e termina alla fine del 2001 d.C.. Se utilizzassimo i cardinali ci saremmo accorti senza problemi che il III millennio inizia con l’anno 2000, che, utilizzando gli ordinali, coincide con l’anno 2001 d.C. Sintetizzando, non è vero che: l’anno 0 non è esistito: se si utilizzano i numeri cardinali invece dei soliti ordinali, appare evidente la falsità di tale affermazione; 56 sarebbe più corretto scrivere inizia contestualmente con l’inizio del 1 gennaio del 1 d.C. e termina contestualmente con il termine del 31 dicembre dello stesso anno; si è preferito non appesantire il testo 118 l’anno 2000 d.C. è l’inizio del III millennio: per essere corretti, si dovrebbe scrivere anno 2000o , che termina il 31 dicembre 2000, in coincidenza dell’inizio dell’anno 2000 se utilizziamo i cardinali. Quindi, l’inizio del III millennio coincide con il passaggio dal 31 dicembre 2000 al 1 gennaio 2001, cioè tra il 2000o e il 2001o se utilizziamo gli ordinali, 1999 e 2000 se utilizziamo i cardinali. 119 120 La casualità Come possiamo parlare di leggi del caso? Non è forse il caso l’antitesi di ogni legge? Bertrand Russell casualità è uno dei concetti più utilizzati e, al contempo, meno compresi che la mente umana abbia mai prodotto. È di dominio popolare che la casualità sia associata al concetto di incapacità di conoscere un sistema, o più semplicemente, ignoranza del sistema. L A Storicamente, il dibattito sulla casualità è nato in seguito alle discussioni sul tema della causalità. Nella visione della fisica classica, la meccanica newtoniana associava ad ogni causa certa un effetto certo. In questo quadro laplaciano, l’idea di evento casuale si identifica come ignoranza soggettiva. La fisica moderna ha ribaltato il concetto di casualità, affermando che essa non dipende dal non conoscere totalmente il sistema, ma dall’impossibilità intrinseca della conoscenza esatta. In maniera più rigorosa, l’interpretazione classica ritiene che qualunque processo (in quanto deterministico) conduca ad inferenze certe; l’interpretazione moderna, invece, ingloba il concetto di casualità quale principio di natura. Questo principio non è stato sintetizzato dalla comunità scientifica senza un salto culturale notevole, tanto che Einstein coniò la famosa frase “Dio non gioca a dadi”, ammettendo successivamente il suo grossolano errore. Nel mondo macroscopico (cioè il quotidiano per tutti noi) abbiamo estrema confidenza con eventi casuali quali, per eccellenza, sono il lancio di una monetina o di un dado57 . L’impredicibilità nel mondo macroscopico è giustificata dalla teoria del caos. Alternativamente, nel mondo microscopico non è possibile prescindere dalla mecca57 i più precisi potrebbero obiettare che, per questi oggetti, solo nel caso ideale il centro di massa coincide con quello geometrico, per cui la probabilità associata (frequenza ideale) non coincide con la frequenza osservata; in ogni caso sarebbe accettabile lo scarto 121 nica quantistica, e dalla sua ineluttabile intrinseca impredicibilità. In questo contesto è poco interessante (e sarebbe inutilmente complesso) analizzare più a fondo questo aspetto. Vorrei invece osservare che, realizzare un efficiente meccanismo il quale produca rapidamente casualità, è estremamente complesso. Ad esempio, è difficile creare un meccanismo che produca numeri casuali da 1 a 7 per 1000 volte. L’idea che potrebbe balenarci in testa è l’analogia con un dado, ma questo ha solo sei facce e, comunque, non sarà né banale né rapido ripetere 1000 lanci. Fortunatamente questo problema è stato risolto elegantemente dall’informatica, attraverso l’implementazione del corpus di conoscenze matematiche e fisiche. La matematica impredicibile (pseudocasualità) Sono stati sviluppati diversi metodi matematici per generare sequenze di numeri randomici. Quanto appena scritto potrebbe sembrare molto strano, e in effetti è necessario essere più precisi. La randomicità trattata in ambito matematico è meglio definita come pseudocasualità, proprio per evidenziare la caratteristica (talvolta solo apparente) di imprevedibilità, ma non sostanziale casualità. Gli algoritmi per generare numeri pseudocasuali, definiti PRNG (pseudorandom number generator) utilizzano formule matematiche, o semplicemente tabelle precalcolate, per produrre sequenze numeriche che sembrano casuali. È evidente che l’utilizzo di formule matematiche sia in apparente antitesi con il concetto di casualità, ma in seguito sarà altrettanto evidente che la pseudocasualità è la forma randomica più utilizzata. Di seguito saranno mostrati gli algoritmi più importanti. Generatori lineari congruenziali Un generatore lineare congruenziale (LCG, linear congruential generator) è un algoritmo della forma: Xn+1 = (aXi + c) mod m in cui Xn rappresenta il valore ennesimo della sequenza pseudorandomica, mod rappresenta l’operatore modulo, a, c, m e X0 sono valori arbitrari, determinanti per il livello di imprevedibilità della sequenza. I numeri generati saranno compresi tra 0 e m − 1 e presenteranno una periodicità inferiore o uguale ad m. Nel caso l’algoritmo generi una sequenza con tutti i numeri interi tra 0 e m − 1 (compresi questi ultimi), la sequenza sarebbe definita di periodo pieno. Si presenta un 122 semplice esempio con a = 3, c = 6, m = 5, X0 = 1. che corrisponde al modello Xi+1 = (3Xi + 6) mod 5 La sequenza generata è: X1 = (3X0 + 6) mod 5 = 4 X2 = (3X1 + 6) mod 5 = 3 X3 = (3X2 + 6) mod 5 = 0 X4 = (3X3 + 6) mod 5 = 1 X5 = (3X4 + 6) mod 5 = 4 Si nota che il periodo è uguale a 4 (sequenza di base 4, 3, 0, 1). Si dimostra che l’algoritmo LCG genera una sequenza di periodo pieno se e solo se: - c e m sono primi tra loro; - a − 1 è divisibile per tutti i fattori primi di m; - a − 1 è multiplo di 4 se m è multiplo di 4. La tabella seguente mostra i valori utilizzati da alcuni compilatori. Compilatore ANSI C glibc Borland C/C++ m 232 232 232 a 1103515245 1103515245 22695477 c 12345 12345 1 Tabella 5: Valori di a, c ed m per alcuni compilatori Pro e contro: È l’algoritmo che produce sequenze pseudocasuali con maggior rapidità e minor consumo di memoria. Purtroppo, i numeri della sequenza presentano una correlazione elevata. Nonostante questo ed altri difetti minori, gli LCG sono molto utilizzati. 123 Registri a scorrimento a retroazione lineare I registri a scorrimento a retroazione lineare (LFSR, linear feedback shift register) sono costituiti da registri di traslazione i cui dati in ingresso sono prodotti da una funzione lineare dello stato. Le uniche funzioni lineari di singoli bit sono l’XOR (or esclusivo) e l’XNOR (la negazione dell’XOR). Nella tabella seguente sono sintetizzate i 4 casi possibili. A 0 0 1 1 B 0 1 0 1 A XOR B 0 1 1 0 A XNOR B 1 0 0 1 Tabella 6: Sintesi delle funzioni XOR e XNOR. I registri che influenzano lo stato successivo sono chiamati tap, la lista di posizioni che influenza lo stato successivo è chiamata sequenza di tap. Nelle Figure 53 e 54 la sequenza di tap è [8, 6, 5, 3]. Un LFSR è definito massimale se passa attraverso tutti i possibili stati di traslazione, ad esclusione di quello che produce tutti i registri pari a 0. La sequenza di tap può essere rappresentata tramite un polinomio modulo 2, chiamato polinomio caratteristico (anche polinomio di retroazione). Nel caso in esame, i tap si identificano con l’8o , il 6o , il 5o ed il 3o registro, pertanto il polinomio associato è x8 + x6 + x5 + x3 + 1 in cui il termine noto del polinomio non corrisponde ad un tap, ma corrisponde all’input del primo bit, quindi ad x0 (che equivale appunto ad 1). Il primo e l’ultimo registro sono sempre connessi, rispettivamente, all’input e ad un tap. Pro e contro: L’algoritmo produce sequenze pseudocasuali con elevatissima rapidità, essendo i registri realizzati in hardware. Purtroppo l’uso di uno schema LFSR presenta una forte correlazione (sequenze periodiche). Generatori crittograficamente sicuri58 Gli algoritmi LFSR sono utilizzati massicciamente come generatori in quanto sono economicamente implementati in hardware. Purtroppo, essi non sono immuni da 58 questa sezione non è necessaria per avere una visione essenziale 124 feedback 1 1 1 1 0 0 1 1 0 1 1 0 0 1 0 0 1 output (a) Stato iniziale feedback 1 1 1 1 1 0 0 0 1 1 0 output 1 (b) 1a traslazione feedback 0 1 1 1 1 output (c) 2o stato feedback 0 1 1 1 1 1 1 1 0 output 0 1 1 (d) 2a traslazione Figura 53: Evoluzione (fino alla 2a traslazione) di un arbitrario schema LFSR con seme 11001111, con equazione associata x8 +x6 +x5 + x3 + 1 correlazione, pertanto sono stati implementati diversi schemi per incrementare la sicurezza. La tecnica più immediata per rimuovere la linearità consiste nell’applicare a più 125 feedback 1 0 1 1 1 1 0 0 1 0 0 1 1 0 1 1 0 output (a) 3o stato feedback 1 0 1 1 1 1 1 1 1 0 1 output 0 (b) 3a traslazione feedback 1 1 1 0 1 output (c) 4o stato feedback 1 1 0 1 0 0 1 1 0 output 1 1 0 (d) 4a traslazione Figura 54: Evoluzione (fino dal 3o stato) di un arbitrario schema LFSR con seme 11001111, con equazione associata x8 +x6 +x5 +x3 +1 LFSR che lavorano in parallelo, una funzione booleana non lineare per formare un generatore non lineare. Un secondo accorgimento consiste nell’usare l’uscita di un LFSR che, in AND con il clock, pilota il generatore. 126 La fisica impredicibile (casualità vera) Gli schemi per generare sequenze realmente casuali sono definiti TRNG (true random number generator), la cui realizzazione avviene tramite un dispositivo che effettui misurazioni di fenomeni fisici. Si potrebbe idealmente pensare al lancio di dadi il cui risultato, in qualche modo, sia connesso al computer. In realtà sono utilizzati fenomeni fisici la cui misurazione è più facile e, contemporaneamente, la variazione più rapida, cosicché i valori prodotti dal generatore saranno rapidamente disponibili. Si potrebbe immaginare, ad esempio, che una tipica misurazione randomica possa essere la rilevazione della temperatura, o della rumorosità di una stanza, oppure della posizione del mouse sulla superficie, o altro ancora. Ad una più attenta analisi, la distribuzione dei valori prodotti tramite le misurazioni precedenti, può essere correlata all’attività umana, quindi teoricamente prevedibile. In altri termini, si potrebbero focalizzare fenomeni il cui controllo (inteso come attività di modifica dello stato e dell’evoluzione) da parte dell’uomo sia impossibile, una sorta di imperturbabilità. La scelta migliore ricadrà sui fenomeni naturali. Tra i fenomeni ai quali si rivolge l’attenzione, i maggiori sono quelli regolati da dinamiche caotiche oppure da effetti quantistici. Meccanica quantistica Un metodo per ottenere valori casuali, è la misurazione del decadimento da una sorgente radioattiva. Il fenomeno del decadimento è assolutamente impredicibile e, al contempo, può essere facilmente rilevato e reso disponibile per un computer. Un esempio concreto è offerto da HotBits service, servizio del Fermilab in Svizzera, il quale rende disponibile i valori di piccole variazioni nel ritardo tra due rilevazioni successive. Dinamica caotica Un secondo metodo per ottenere valori casuali può avvenire attraverso la misurazione di fenomeni atmosferici, ad esempio il rumore elettromagnetico. Esso è facilmente rilevabile tramite la trasduzione di una comune radio. Quest’approccio è seguito da RANDOM.ORG, il quale rende disponibile i valori di piccole variazioni dell’ampiezza del rumore atmosferico. 127 Analisi delle sequenze59 È senz’altro difficile determinare in maniera intuitiva se una sequenza sia casuale; fortunatamente, la stessa difficoltà non la riscontriamo in campo matematico, in quanto una serie di parametri permettono di stabilire oggettivamente la randomicità di una sequenza. Di seguito elenco i principali: Entropia: misura la quantità di incertezza (o informazione) presente in una sequenza. Intuitivamente, maggiore è l’entropia, maggiore è la randomicità della sequenza. Test del χ2 (chi-quadro): è il più comune test per stabilire la randomicità di una sequenza. È espresso tramite un numero assoluto ed una percentuale, quest’ultima può essere interpretata come indicatore di quanto la sequenza testata sia sospetta di non essere randomica: - se essa è maggiore del 99% o inferiore all’1% la sequenza è quasi certamente non casuale; - se è compresa tra il 95% e il 99% oppure tra l’1% ed il 5%, il sospetto è fondato; - se è compresa tra il 90% ed il 95% oppure tra il 5% ed il 10% la sequenza è tendenzialmente sospetta. Media aritmetica: è definita come rapporto tra la somma dei valori della sequenza e la lunghezza della stessa. π secondo Monte Carlo: il metodo è utilizzato per approssimare il valore di π. Immaginiamo che i numeri della sequenza possano essere identificati con la coppia (x,y), da collocare in un quadrato in cui è inscritta una circonferenza di raggio unitario (v. Figura 55). Se per la coppia è verificata la disequazione x2 +y 2 ≤ 1, allora il numero è interno alla circonferenza, altrimenti è esterna (quindi si trova nel quadrato e non nel cerchio). Considerando che il rapporto delle superfici è π4 (l’area del cerchio misura π, quella del quadrato 4), essa è approssimativamente uguale al rapporto dei punti che cadono nel cerchio con il numero totale, approssimazione che migliora aumentando il numero dei punti presi in considerazione60 . 59 questa sezione non è necessaria per avere una visione essenziale, ma la trattazione presentata permetterà una migliore concettualizzazione 60 la convergenza al valore vero è molto lenta, in particolare l’ordine di convergenza è √1n , con n numero dei punti 128 (-1,1) (1,1) (-1,-1) (1,-1) Figura 55: Nella figura sono stati scelti alcuni punti con |x| < 1 e |y| < 1. Se x2 + y 2 < 1, il punto appartiene al cerchio, altrimenti è esterno Nel dominio informatico, questi parametri sono stati contestualizzati. In particolare, per determinare la randomicità di un file (che potrebbe contenere, ad esempio, l’archivio di una sequenza) si analizzano i caratteri contenuti nello stesso. Considerando che un carattere è codificato61 da 00000000 a 11111111 si possono definire più in dettaglio i parametri precedenti: Entropia: esprime la densità di informazione contenuta in un file, espressa come numero di bit per carattere. Poiché un carattere è codificato tramite 8 bit, la massima densità informativa è 8 bit per byte. Un file estremamente denso di informazioni è essenzialmente randomico e sarà difficile la sua compressione. Ad esempio, una entropia di 4,7 bit per byte indica che un’ottima compressione del file (mantenendo lo stesso conte61 l’ASCII esteso prevede la codifica tramite 8 bit, in decimale da 0 a 255. È utile ricordare che 8 bit costituiscono un byte, quest’ultimo (equivalente nella codifica appena citata) ad un carattere 129 nuto informativo) potrebbe ridurre l’occupazione dello stesso pari al 41,3% (compressione ottimale = 1 − 4,7 8 = 0, 413). Media aritmetica: sommando tutti i byte nel file e dividendo questo numero per la lunghezza del file, si ha il valore cercato. Ricordando che i byte sono rappresentati da 0 a 255, un file il cui contenuto è randomico avrà media aritmetica vicino a 127,5. π secondo Monte Carlo: ogni sequenza di 6 byte identifica una coppia ordinata (x,y), in particolare i primi 24 bit sono utilizzati per l’elemento x da collocare nell’asse delle ascisse, gli altri 24 per l’elemento y da collocare nell’asse delle ordinate (v. Figura 56). I punti sono così inseriti in una griglia quadrata il cui lato ha risoluzione 16.777.216, in cui è inscritta una pseudocirconferenza con raggio la cui risoluzione è 8.388.608. Come nel caso generale, il rapporto tra i punti che cadono all’interno della circonferenza62 e quelli all’esterno, moltiplicato per il numero 4 determineranno il valore di π. Coefficiente di correlazione seriale: misura quanto ogni byte dipenda dal precedente. Per una sequenza randomica, questo valore (che può essere sia positivo sia negativo) dovrebbe essere vicino a zero. Ad arricchimento di questa sezione, presento il software ent (pseudorandom number sequence test). Questo software è stato creato con lo scopo di eseguire diversi test statistici al file in oggetto, trattandolo come una sequenza di byte. Di seguito presento alcune statistiche su arbitrari file suddivisi per tipologia. un file C++: testo ASCII Entropy = 5.058022 bits per byte. Optimum compression would reduce the size of this 13261 byte file by 36 percent. Chi square distribution for 13261 samples is 203711.15, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 76.8941 (127.5 = random). 62 la disequazione è 130 !2 x − 8.388.608 + 8.388.608 !2 y − 8.388.608 ≤1 8.388.608 (0,2 2 4 ) (2 2 4,2 2 4) (0,0) (2 2 4,0) 24 Figura 56: Nella p figura sono stati scelti alcuni punti con x < 2 e y < 24 23 2 . Se x2 + y 2 ≤ 2 , il punto appartiene al cerchio, altrimenti è esterno. Si noti che i punti individuati con (0, 224 ), (224 , 0) e (224 , 224 ) non sono corretti. In realtà dovrebbero essere sostituiti rispettivamente con (0, 224 − 1), (224 − 1, 0) e (224 − 1, 224 − 1), ma ho preferito non appesantire la figura. Inoltre, avendo sia l’asse delle ascisse sia quello delle ordinate una risoluzione pari, esse non hanno un centro, pertanto ci sarà un errore di approssimazione. Monte Carlo value for Pi is 4.000000000 (error 27.32 percent). Serial correlation coefficient is 0.503540 (totally uncorrelated = 0.0). un file Perl: testo ASCII Entropy = 4.790045 bits per byte. Optimum compression would reduce the size 131 of this 3414 byte file by 40 percent. Chi square distribution for 3414 samples is 69237.81, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 72.5428 (127.5 = random). Monte Carlo value for Pi is 4.000000000 (error 27.32 percent). Serial correlation coefficient is 0.565876 (totally uncorrelated = 0.0). un file bmp: formato immagine bitmap Entropy = 1.461604 bits per byte. Optimum compression would reduce the size of this 824 byte file by 81 percent. Chi square distribution for 824 samples is 103099.57, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 70.0364 (127.5 = random). Monte Carlo value for Pi is 2.656934307 (error 15.43 percent). Serial correlation coefficient is 0.274033 (totally uncorrelated = 0.0). un file png: formato immagine Portable Network Graphics Entropy = 7.876972 bits per byte. Optimum compression would reduce the size of this 24956 byte file by 1 percent. Chi square distribution for 24956 samples is 10334.37, and randomly would exceed this 132 value 0.01 percent of the times. Arithmetic mean value of data bytes is 127.1687 (127.5 = random). Monte Carlo value for Pi is 3.082471748 (error 1.88 percent). Serial correlation coefficient is 0.246999 (totally uncorrelated = 0.0). un file jpeg: formato immagine Joint Photographic Experts Group Entropy = 7.793545 bits per byte. Optimum compression would reduce the size of this 29241 byte file by 2 percent. Chi square distribution for 29241 samples is 12322.85, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 142.7461 (127.5 = random). Monte Carlo value for Pi is 2.643956495 (error 15.84 percent). Serial correlation coefficient is -0.047236 (totally uncorrelated = 0.0). un file pdf: formato Portable Document Format Entropy = 7.982358 bits per byte. Optimum compression would reduce the size of this 6741525 byte file by 0 percent. Chi square distribution for 6741525 samples is 206193.96, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 125.5211 (127.5 = random). 133 Monte Carlo value for Pi is 3.138266997 (error 0.11 percent). Serial correlation coefficient is 0.058508 (totally uncorrelated = 0.0). un file mp3: formato MPEG-1 Audio Layer 3 Entropy = 7.909700 bits per byte. Optimum compression would reduce the size of this 2747990 byte file by 1 percent. Chi square distribution for 2747990 samples is 717103.24, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 126.3179 (127.5 = random). Monte Carlo value for Pi is 3.093480758 (error 1.53 percent). Serial correlation coefficient is 0.156270 (totally uncorrelated = 0.0). un file flv: formato Flash Video Entropy = 7.402919 bits per byte. Optimum compression would reduce the size of this 37381391 byte file by 7 percent. Chi square distribution for 37381391 samples is 54106764.92, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 113.6762 (127.5 = random). Monte Carlo value for Pi is 3.300657712 (error 5.06 percent). Serial correlation coefficient is 0.094482 (totally uncorrelated = 0.0). 134 un file mp4: formato MPEG-4 Entropy = 7.899581 bits per byte. Optimum compression would reduce the size of this 24285482 byte file by 1 percent. Chi square distribution for 24285482 samples is 4006678.79, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 135.7472 (127.5 = random). Monte Carlo value for Pi is 2.835105421 (error 9.76 percent). Serial correlation coefficient is 0.113812 (totally uncorrelated = 0.0). una sequenza pseudocasuale con $i = 255000: vedi Scheda di approfondimento Entropy = 7.999337 bits per byte. Optimum compression would reduce the size of this 255000 byte file by 0 percent. Chi square distribution for 255000 samples is 234.03, and randomly would exceed this value 75.00 percent of the times. Arithmetic mean value of data bytes is 127.5891 (127.5 = random). Monte Carlo value for Pi is 3.137600000 (error 0.13 percent). Serial correlation coefficient is -0.000665 (totally uncorrelated = 0.0). una sequenza pseudocasuale con $i = 25500000: vedi Scheda di approfondimento 135 Scheda di approfondimento Per generare un file contenente una sequenza di byte pseudocasuale, è stato utilizzato questo semplice script in linguaggio Perl: $i = shift || 255*10**5; open (RH,">random.txt"); print RH chr(int(rand(256))) foreach (1..$i); close RH; il quale, preso come argomento $i (parametrizza il numero di iterazioni), scrive su file il carattere corrispondente al codice ASCII generato in maniera pseudocasuale dalla funzione rand. Per completezza, segnalo che: - l’argomento $i, se non immesso, ha valore 255 ∗ 105 ; - la funzione rand restituisce un valore non intero tra 0 e 256 (quest’ultimo non compreso), per cui, prima di associare il carattere corrispondente (tramite la funzione char), si tronca tramite la funzione int. Entropy = 7.999993 bits per byte. Optimum compression would reduce the size of this 25500000 byte file by 0 percent. Chi square distribution for 25500000 samples is 254.39, and randomly would exceed this value 50.00 percent of the times. Arithmetic mean value of data bytes is 127.5005 (127.5 = random). Monte Carlo value for Pi is 3.142240000 (error 0.02 percent). Serial correlation coefficient is -0.000011 (totally uncorrelated = 0.0). una sequenza casuale: prodotta da un flusso di 47216 byte prelevati da RANDOM.ORG Entropy = 7.981204 bits per byte. 136 Optimum compression would reduce the size of this 47216 byte file by 0 percent. Chi square distribution for 47216 samples is 1517.64, and randomly would exceed this value 0.01 percent of the times. Arithmetic mean value of data bytes is 126.3317 (127.5 = random). Monte Carlo value for Pi is 3.190748507 (error 1.56 percent). Serial correlation coefficient is 0.011254 (totally uncorrelated = 0.0). Randomicità: pseudo o casuale? Nelle precedenti sezioni, sono state presentate le principali differenze tra la randomicità PRNG e TRNG. Di seguito le sintetizzo più dettagliatamente. Caratteristica Efficienza Determinismo Periodicità PRNG sì sì sì TRNG no no no Tabella 7: Sintesi delle differenze essenziali tra gli algoritmi PRNG ed i sistemi TRNG Efficienza: equivale alla produzione di molti valori in breve tempo. Determinismo: proprietà che indica la possibilità di ripetere la medesima sequenza conoscendo lo stato in un determinato momento. Periodicità: ripetizione di una sequenza base nella sequenza generale. La caratteristica evidente per i sistemi TRNG è la loro reale casualità, pertanto saranno utilizzate per applicazioni in cui è fondamentale l’aspetto di randomicità, quali lotterie o giochi d’azzardo in generale. Quando è invece fondamentale la reperibilità continua di numeri randomici, non è più possibile utilizzare sistemi 137 TRNG, ma si dovrà ricorrere agli algoritmi PRNG, in cui è doveroso effettuare una scelta tra gli algoritmi disponibili a seconda delle caratteristiche desiderate. 138 La crittografia La sicurezza di un crittosistema non deve dipendere dalla segretezza dell’algoritmo usato, ma solo dalla segretezza della chiave. Principio di Kerckhoffs crittografia è la disciplina che si occupa della scrittura nascosta, più correttamente fonde i metodi e le tecniche per rendere offuscato un messaggio, ma nel contempo il destinatario lo dovrà decifrare agevolmente. Diviene ovvio il motivo dell’introduzione della crittografia, rendere comprensibile il messaggio solo al destinatario, impedendo l’accesso all’informazione a persone non autorizzate. Prima di continuare nella trattazione, è necessaria qualche precisazione. La disciplina in oggetto è denominata crittologia, e si distingue in crittografia e crittoanalisi, rispettivamente per identificare i sistemi utilizzati per cifrare (e decifrare) messaggi e quelli per rompere sistemi crittografici. Io preferisco utilizzare il termine crittografia anche in contesti generici, nei quali sarebbe formalmente più corretto riferirsi a crittologia. Nelle sequenze che proporrò saranno da ignorare gli eventuali segni di spaziatura, interpunzione o elementi non alfabetici. Difatti, nei sistemi crittografici manuali, tali simboli non hanno un corrispondente cifrato, quindi sarebbero lasciati immutati, costituendo un’interessante informazione per eventuali crittoanalisti. Per essere più precisi, i precedenti simboli sono da escludere dal messaggio da cifrare se il supporto non è digitale. Infatti, nell’informatica qualunque simbolo (lettere, cifre, segni di interpunzione, . . . ) è codificato in valore numerico, pertanto sono tutti trattati in maniera indifferente. Per concludere, i sistemi di cifratura citati nel seguito sono solo alcuni dei moltissimi utilizzati. Quelli presentati sono (dal mio punto di vista) i più importanti, essendo la base di derivazione per la maggior parte di quelli da me incontrati. L A 139 Figura 57: Esempio di scitala Un po’ di storia Storicamente esistono innumerevoli esempi di utilizzo della crittografia. Già alcuni geroglifici (risalenti a circa 4500 anni fa) utilizzavano metodi, anche se rudimentali, di offuscamento del messaggio. Anche se sarà evidente che alcuni sistemi sono facili da rompere, si dovrebbe tener conto che spesso la loro robustezza era più che sufficiente considerando che, a causa della bassa alfabetizzazione, già il testo in chiaro era difficile da comprendere. Di seguito i sistemi di cifratura storicamente più rilevanti. La scitala Si ritiene che i primi ad utilizzare un metodo sistematico di crittografia furono i Greci (probabilmente l’esercito di Sparta), i quali utilizzavano un bastone (la scitala) per trasmettere messaggi segreti. Il singolo messaggio era scritto su una striscia di pelle arrotolata attorno ad un bastone, e la codifica era lo stesso processo di scrittura che procedeva in senso longitudinale rispetto la scitala (v. Figura 57). Srotolando la striscia non era più facile dare un senso a lettere la cui sequenza era apparentemente casuale. Il destinatario, se aveva a disposizione una scitala il cui diametro fosse uguale a quello del mittente, riusciva facilmente a decifrare il messaggio. In dettaglio Il sistema crittografico utilizzato è classificato come metodo per trasposizione. Concettualmente, è molto semplice decodificare un messaggio poiché 140 la distanza tra lettere consecutive è sempre la medesima. Ad esempio, immaginiamo che il messaggio da codificare sia il seguente: m e s s a g g i o d a s c a m b i a r e 1 2 3 4 5 6 7 8 91011121314151617181920 in cui ad ogni lettera è associata la posizione nella sequenza, e che il messaggio sia scritto su un bastone di circonferenza di 3 lettere (potremmo equivalentemente supporre che la base sia triangolare). Per semplicità, immaginiamo un bastone corto, tale che il messaggio riempia la superficie, quindi: m e s s a g g i o d a s c a m b i a r e Srotolando la striscia, vedremmo la sequenza codificata: m i m e o b s d i s a a a s r g c e g a 1 815 2 916 31017 41118 51219 61320 714 La chiave per decifrare il messaggio è il raggio della circonferenza della base del bastone (o l’apotema nel caso la base fosse costituita da un poligono). Il cifrario di Cesare Un successivo sistema molto antico fu il cifrario di Cesare, in cui ogni lettera del messaggio è sostituita con un’altra la cui distanza nell’alfabeto (spiazzamento) sia costante. La particolarità del sistema utilizzato da Giulio Cesare era nel seme utilizzato, cioè le lettere nel cifrato erano spostate di 3 in avanti. Per decifrare il messaggio l’operazione da eseguire è molto semplice: si sottrae lo stesso seme precedentemente utilizzato per cifrare il messaggio (nel caso di Cesare si sottrae 3). Nonostante questo cifrario sia probabilmente il più semplice da rompere, ancora oggi si possono trovare degli utenti (v. Scheda di approfondimento). In dettaglio Il sistema crittografico utilizzato è classificato come cifrario a sostituzione, o cifrario a scorrimento (si veda la Tabella 8) in cui ogni lettera è sostituita dalla corrispondente shiftata del seme scelto. Per rompere la cifratura, si può ipotizzare un attacco di tipo esaustivo (senza perdere di sostanzialità, possiamo definirlo a tentativi), ma con l’attuale tecnologia informatica è più semplice un attacco tramite l’analisi delle frequenze. 141 Scheda di approfondimento Il rudimentale cifrario di Cesare è stato di ispirazione per il sistema di codifica utilizzato da Bernardo Provenzano per proteggere la sua corrispondenza scritta nei famosi pizzini, i fogli di carta con i quali il boss della mafia comunicava. Il sistema consisteva nel sostituire ad ogni lettera la sua corrispondente posizione alfabetica (a=1, b=2, . . . ), e sommando 3. I valori così ottenuti andavano a formare un singolo numero. Ad esempio: messaggiosegreto diviene 1482020410101216208101982116 in quanto m corrisponde a 14 (è la lettera 11 sommata a 3), e corrisponde a 8 (è la lettera 5 sommata a 3), e cosí di seguito. testo in chiaro testo cifrato a d b e c f d g e h f i ... ... Tabella 8: Cifrario a sostituzione con seme 3 Si consulti la Tabella 9, la quale mostra la frequenza nell’utilizzo di comuni lettere in vari idiomi. Essendo l’approccio di tipo statistico, più è lungo il testo, maggiore è l’efficacia del sistema. Medioevo A seguito delle guerre sia politiche sia religiose, in Europa la crittografia divenne una componente molto importante. Si susseguirono molte invenzioni, ma sicuramente il miglior sistema crittografico del tempo fu quello introdotto da Leon Battista Alberti con il suo disco cifrante. Disco cifrante Il dispositivo si compone di due dischi concentrici (v. Figura 58) contenenti uno l’alfabeto in chiaro (quello esterno, ordinato), l’altro il corrispondente cifrato (quello interno, non ordinato). La particolarità consiste nella possibilità di rotazione del 142 lettera a b c d e f g h i j k l m n o p q r s t u v w x y z italiano 11.74% 0.92% 4.50% 3.73% 11.79% 0.95% 1.64% 1.54% 11.28% 0.00% 0.00% 6.51% 2.51% 6.88% 9.83% 3.05% 0.51% 6.37% 4.98% 5.62% 3.01% 2.10% 0.00% 0.00% 0.00% 0.49% inglese 8.167% 1.492% 2.782% 4.253% 12.702% 2.228% 2.015% 6.094% 6.966% 0.153% 0.772% 4.025% 2.406% 6.749% 7.507% 1.929% 0.095% 5.987% 6.327% 9.056% 2.758% 0.978% 2.360% 0.150% 1.974% 0.074% francese 7.636% 0.901% 3.260% 3.669% 14.715% 1.066% 0.866% 0.737% 7.529% 0.545% 0.049% 5.456% 2.968% 7.095% 5.378% 3.021% 1.362% 6.553% 7.948% 7.244% 6.311% 1.628% 0.114% 0.387% 0.308% 0.136% tedesco 6.51% 1.89% 3.06% 5.08% 17.40% 1.66% 3.01% 4.76% 7.55% 0.27% 1.21% 3.44% 2.53% 9.78% 2.51% 0.79% 0.02% 7.00% 7.27% 6.15% 4.35% 0.67% 1.89% 0.03% 0.04% 1.13% spagnolo 12.53% 1.42% 4.68% 5.86% 13.68% 0.69% 1.01% 0.70% 6.25% 0.44% 0.01% 4.97% 3.15% 6.71% 8.68% 2.51% 0.88% 6.87% 7.98% 4.63% 3.93% 0.90% 0.02% 0.22% 0.90% 0.52% Tabella 9: Analisi delle frequenze delle lettere in alcuni idiomi (tratto da [Sin99]) disco interno rispetto quello esterno. Ciò implica che non è mantenuta più la stessa associazione delle lettere tra chiaro e cifrato per tutto il messaggio, ma rimane invariata solo per porzioni dello stesso, quindi se ne creeranno di nuove per ogni spezzone, fino all’esaurimento del testo. In termini formali, si passa dai cifrari monoalfabetici a quelli polialfabetici, in cui la corrispondenza tra lettere del messaggio in chiaro e del cifrato cambia durante il singolo messaggio. Supponiamo che la corrispondenza iniziale sia quella della Figura 58, quindi: 143 Figura 58: Esempio di disco cifrante ABCDEFGILMNOPQRSTVXZ1234 gklnprtuz&xysomqihfdbace e inoltre, supponiamo che il messaggio da trasmettere sia messaggio da scambiare. Esistono due modalità alternative di cifratura, ipotizzando che l’indice iniziale sia sul disco rotante (disco interno) o sul disco fisso (disco esterno), nel qual caso si tratterà rispettivamente di indice mobile o indice fisso. Esempio - indice mobile Stabilita la lettera g quale indice, il cifrato diviene MESSAGGIODA A&pmmgttuxngQ in cui le lettere maiuscole nel cifrato indicano che il disco interno dovrà ruotare, in particolare la lettera scritta in maiuscolo sarà quella da mettere in corrispondenza dell’indice g. Quindi, la nuova corrispondenza sarà: ABCDEFGILMNOPQRSTVXZ1234 ysomqihfdbacegklnprtuz&x continuando il processo di cifratura: SCAMBIARE loybsfykq Il messaggio completo sarà: A&pmmgttuxngQloybsfykq 144 Esempio - indice fisso Come indice fisso si sceglie una lettera dell’anello esterno, ad esempio A. Inoltre, si sceglie (scrivendolo nel cifrato) una lettare nel disco interno (ad esempio m) e la si mette in corrispondente con l’indice. L’iniziale corripondenza diviene: ABCDEFGILMNOPQRSTVXZ1234 mqihfdbacegklnprtuz&xyso Per indicare il cambio delle corrispondenza degli alfabeti, si scrive (cifrata) una delle quattro cifre. Quindi: MESSAGGIODA mefrrmbbakhms in cui s indica la rotazione del disco interno, e lo si mette in corrispondenza dell’indice. La nuova corrispondenza diviene: ABCDEFGILMNOPQRSTVXZ1234 somqihfdbacegklnprtuz&xy ed il resto del messaggio: SCAMBIARE nmsaodsli Il messaggio completo sarà: mefrrmbbakhmsnmsaodsli In entrambi gli esempi si può notare la caratteristica di cifrario polialfabetico, nel primo esempio inserendo arbitrariamente lettere maiuscole nel cifrato, nel secondo inserendo arbitrariamente cifre nel testo in chiaro (e quindi cifrando le stesse). La chiave è costituita dalla sequenza casuale delle lettere inserite nel disco interno. Tale sequenza dovrà ovviamente essere condivisa tra mittente e destinatario affinché quest’ultimo possa decifrare agevolmente il messaggio. Cifrario di Vigenère Il cifrario di Vigenère è un cifrario polialfabetico basato sul sistema del cifrario di Cesare. Più in dettaglio, è equivalente ad accostamenti di cifrari di Cesare. Il loro numero e i singoli spiazzamenti sono definiti dalla chiave scelta. Per essere più chiari, di seguito un esempio. Si voglia cifrare il solito messaggio: 145 MESSAGGIODASCAMBIARE CHIAVESEGRETACHIAVES scegliendo come chiave la parola CHIAVESEGRETA, la quale sarà impiegata ripetutamente sino alla fine del messaggio da cifrare. Il testo cifrato sarà quindi: OLASVKYMUUCCTJIVVW in quanto la lettera O del cifrato deriva dalla lettera M con spiazzamento C, la lettera E del cifrato deriva dalla lettera E con spiazzamento H, e così di seguito. Per semplificare questo metodo di cifratura, è possibile utilizzare la tavola di Vigenère (v. Tabella 10). A B C D E F G H I J K L MN O P Q R S T U VWX Y Z B C D E F G H I J K L MN O P Q R S T U VWX Y Z A C D E F G H I J K L MN O P Q R S T U VWX Y Z A B D E F G H I J K L MN O P Q R S T U VWX Y Z A B C E F G H I J K L MN O P Q R S T U VWX Y Z A B C D F G H I J K L MN O P Q R S T U VWX Y Z A B C D E G H I J K L MN O P Q R S T U VWX Y Z A B C D E F H I J K L MN O P Q R S T U VWX Y Z A B C D E F G I J K L MN O P Q R S T U VWX Y Z A B C D E F G H J K L MN O P Q R S T U VWX Y Z A B C D E F G H I K L MN O P Q R S T U VWX Y Z A B C D E F G H I J L MN O P Q R S T U VWX Y Z A B C D E F G H I J K MN O P Q R S T U VWX Y Z A B C D E F G H I J K L N O P Q R S T U VWX Y Z A B C D E F G H I J K L M O P Q R S T U VWX Y Z A B C D E F G H I J K L MN P Q R S T U VWX Y Z A B C D E F G H I J K L MN O Q R S T U VWX Y Z A B C D E F G H I J K L MN O P R S T U VWX Y Z A B C D E F G H I J K L MN O P Q S T U VWX Y Z A B C D E F G H I J K L MN O P Q R T U VWX Y Z A B C D E F G H I J K L MN O P Q R S U VWX Y Z A B C D E F G H I J K L MN O P Q R S T VWX Y Z A B C D E F G H I J K L MN O P Q R S T U WX Y Z A B C D E F G H I J K L MN O P Q R S T U V X Y Z A B C D E F G H I J K L MN O P Q R S T U VW Y Z A B C D E F G H I J K L MN O P Q R S T U VWX Z A B C D E F G H I J K L MN O P Q R S T U VWX Y Tabella 10: Tavola di Vigenère Nel precedente esempio, per cifrare la lettera M con la lettera C sarà sufficiente trovare la lettera in cui si incontrerà la colonna individuata dalla prima lettera M e la riga con la prima lettera C, ottenendo così O63 . Lo stesso procedimento si ripete con le altre lettere della chiave, per poi riapplicare quest’ultima fino alla fine del messaggio da trasmettere. Si nota che quando la lettera della chiave è una A, il testo in chiaro e quello cifrato corrispondono. Questa anomalia non dovrà indurre a non scegliere una chiave con 63 i più attenti avranno notato che nella precedente frase i termini riga e colonna possono essere scambiati; ciò deriva dalla proprietà commutativa dell’addizione 146 una o più lettere A: sarebbe un errore ipotizzare che ciò costituirebbe informazione per un crittoanalista. Tornando al cifrario monoalfabetico di Cesare con seme 3, la chiave equivalente nel sistema di Vigenère è costituita solo dalla lettera D. Utilizzando la Tabella 10, per cifrare un testo semplicemente si sostituirà l’alfabeto della prima riga con quello della quarta, cioè individuata la lettera da cifrare sulla prima riga la si sostituirà con quella della quarta appartenente alla stessa colonna. In dettaglio Si evidenzia nuovamente che per ogni lettera non si è proceduto in maniera differente rispetto al metodo di Cesare, anche se ognuna avrà uno spiazzamento che varierà a seconda della chiave scelta. Si nota altresì che lo spiazzamento ha carattere periodico, periodo che è determinato dalla lunghezza della chiave (ricordo che la chiave è ripetuta per tutto il messaggio). Nonostante storicamente questo cifrario abbia goduto di notevoli simpatie, la debolezza è proprio nell’essere uguale a n cifrari di Cesare, in cui n è la lunghezza della chiave. La crittoanalisi si esegue adottando il metodo di Kasiski64 , proposto dall’omonimo maggiore prussiano. Essenzialmente permette di dedurre la lunghezza n della chiave utilizzata, e successivamente il cifrato è suddiviso in n colonne. Ogni colonna è equivalente ad un testo con cifratura monoalfabetica, pertanto si procederà per ciascuna colonna con una distinta analisi frequentistica. Il metodo Kasiski prevede l’analisi delle ripetizioni di sequenze, e la distanza tra le ripetizioni più frequenti sarà molto probabilmente multipla della lunghezza della chiave. Solitamente l’analisi dà i migliori risultati se è effettuata su ripetizioni di almento 3 lettere, ma in questo caso è necessario disporre di cifrati sufficientemente lunghi. Esempio Si analizzi il cifrato65 crypto is short for cryptography, in cui la ripetizione è la sequenza crypto, la cui distanza è 20 caratteri. Nel conteggio sono stati considerati anche gli spazi per una questione di chiarezza espositiva. Supponiamo che la chiave di crittazione sia abcde, di 5 caratteri (5 è un divisore di 20). crypto is short for cryptography abcdeabcdeabcdeabcdeabcdeabcdeab Nel testo cifrato si otterrà una ripetizione di 6 caratteri. Notiamo che la sequenza ripetuta è combinata con i medesimi caratteri, quindi possiamo lecitamente sup64 65 in realtà il metodo fu inizialmente proposto da Charles Babbage nel 1854 tratto da [Wikah] 147 porre che la chiave sia sottomultiplo di 20 (quindi 2, 4, 5, 10 o 20 caratteri). Supponiamo ora che la chiave di crittazione sia abcdefghij, di 10 caratteri (10 è un divisore di 20). crypto is short for cryptography abcdefghijabcdefghijabcdefghijab Notiamo che anche in questo caso la combinazione è identica per la ripetizione, quindi possiamo ripetere la medesima deduzione appena proposta. Supponiamo che la chiave di crittazione sia abcdef, di 6 caratteri (6 non è un divisore di 20). crypto is short for cryptography abcdefabcdefabcdefabcdefabcdefab Purtroppo in questo caso la combinazione delle sequenza ripetute è differente, nel primo caso si combina con abcdef, nel secondo cdefab, pertanto non è possibile dedurre la lunghezza della chiave. Nonostante l’esempio precedente riporta un brevissimo testo, si comprende il metodo nei suo caratteri essenziali. Ovviamente questo frammento è stato creato ad arte, ma si avranno ottimi risultati se la sequenza del cifrato è sufficientemente lunga e la chiave è sufficientemente breve. Al contrario, se la chiave è molto lunga, paragonabile alla lunghezza del messaggio in chiaro66 , l’approccio statistico diviene molto difficile, ma non è sempre impossibile. In questo caso, la strada che solitamente si segue è l’analisi della chiave, ipotizzando che essa derivi dal linguaggio naturale, sfruttando la caratteristica di bassa entropia (cioè frequenze conosciute sia di lettere, sia di gruppi di lettere) di quest’ultimo. Inoltre, se una (anche piccola) porzione della chiave (o del testo) diviene nota, spesso diviene facile l’identificazione dell’intera chiave, tramite un attacco conosciuto come plaintext attack. In conclusione, la chiave dovrebbe possedere due caratteristiche: - essere sufficientemente lunga; - essere resistente ad attacchi statistici. Quest’ultima caratteristica implica che la chiave scelta dovrà essere più randomica possibile, quindi escluse parole di qualsiasi idioma e preferite sequenze pseudocasuali o, meglio, casuali in senso stretto67 . 1 del testo rende un’attacco statistico estremamente difficoltoso 26 67 a tal proposito si veda il capitolo precedente 66 una chiave di lunghezza ∼ 148 Fino alla Seconda Guerra Mondiale Il più importante algoritmo di questo periodo fu il cifrario di Vernam. La novità essenziale non fu però nella creazione di nuovi algoritmi crittografici, ma l’introduzione di macchine elettromeccaniche che autonomamente eseguissero sia i procedimenti di cifratura sia quelli di decifratura. Ovviamente il passo successivo fu il loro impiego nel campo computazionalmente più impegnativo della crittoanalisi. Cifrario di Vernam In realtà, questo cifrario è tecnicamente equivalente a quello di Vigenère, con il vincolo che la chiave sia lunga quanto il testo in chiaro. Ovviamente, come già scritto, il requisito della robustezza della chiave è essenziale, e ciò si rispecchia nella randomicità delle componenti e nel non riutilizzo della medesima chiave (o parte di essa). Questo vincolo rende inattaccabile il sistema (v. Scheda di approfondimento) ma, nel contempo, rende estremamente difficoltoso il suo impiego manuale. Inoltre, questo sistema ha il grave difetto di scambio della chiave prodotta e, ricordando il vincolo di non riutilizzo della stessa, la non economicità rende poco conveniente l’impiego del sistema. Per questo motivo, le poche applicazioni sono state maggiormente dovute a dispositivi crittografici elettromeccanici e, successivamente, rudimentali apparecchi elettronici. Scheda di approfondimento Il cifrario di Vernam è il più famoso cifrario OTP, acronimo di One Time Pad poiché, a differenza di altri algoritmi, la chiave è monouso. Questa particolarità rende, dal punto di vista teorico, un eventuale studio statistico impossibile, per cui il cifrato è inattaccabile. A tal proposito, il matematico Claude Shannon dimostrò la sua inviolabilità nel 1949, in un suo scritto (Communication Theory of Secrecy System, tradotto in La teoria della comunicazione nei sistemi crittografici). Poiché la rottura è teoricamente impossibile, il sistema guadagnò il titolo di cifrario perfetto. Macchine crittografiche L’impulso economico determinato dagli interessi e dalle tensioni in gioco nelle guerre, hanno sempre portato sia nella tecnica sia nelle scienze grosse investimen149 ti. Se in altre epoche si inventavano nuovi modelli per cifrare messaggi, ora gli sforzi erano nell’incremento della velocità di cifratura. Al contempo, gli avversari si sforzavano nei compiti di decifratura, cercando di rompere tali sistemi attraverso macchine crittoanalitiche. Di seguito le maggiori realizzazioni. Nel 1917 fu utilizzata una telescrivente cifrante in cui, una chiave impostata su nastro perforato, era combinata con il testo in chiaro attraverso il sistema OTP. Purtroppo i requisiti della chiave non permisero (e permettono) un buon uso del sistema. Nel 1918 fu sviluppata la macchina Enigma, probabilmente la più famosa ai giorni nostri. Dopo il brevetto fu perfezionata ulteriormente, e nel 1929 fu acquistato dall’esercito tedesco e da molti degli appartenenti alla gerarchia nazista. Essenzialmente si basava su dischi cifranti in cascata. Ogni disco (tecnicamente un rotore) era costituito da 26 contatti (tale era il numero di lettere dell’alfabeto tedesco). La difficoltà di rompere il cifrario era essenzialmente nella dinamicità della chiave, essendo questa costituita da rotori cambiati giornalmente, secondo un ordine stabilito. Sforzi nella crittoanalisi, prima dei servizi segreti polacchi che inventarono la macchina Bomba, successivamente di quelli inglesi che trasformarono questo dispositivo nel successivo denominato Colossus, diedero buoni risultati. Note di crittoanalisi Dalle poche osservazioni crittoanalitiche sin qui riportate, si deduce che sia i cifrari a trasposizione sia quelli a sostituizione monoalfabetica siano estremamente facili da rompere. Più in dettaglio, i cifrari a trasposizione hanno uno spazio delle chiavi che idealmente è pari alla lunghezza del testo, ma tecnicamente si riduce a poche unità, poiché tale è il numero di tentativi che un crittoanalista dovrà compiere per avere successo. Per quanto riguarda i cifrari a sostituzione monoalfabetica, lo spazio delle chiavi è pari al numero delle lettere dell’alfabeto, quindi anche in questo caso la rottura dell’algoritmo è molto semplice. Al contrario, per i cifrari a sostituzione polialfabetica non esiste una regola generale, e la crittoanalisi è più complessa. In ogni caso, tramite uno studio frequentistico, è spesso possibile sfruttare eventuali regolarità. In tal modo si individuano porzioni di testo e, attraverso un processo di interpolazione lessicale, se ne dedurrà agevolmente il resto. L’esempio più evidente è portato dalle rubriche di enigmistica nei 150 crittogrammi. L’utilizzazione della tecnica omofonica è un interessante tentativo per aumentare la difficoltà degli attacchi. In pratica, le lettere del messaggio in chiaro potranno essere sostituite tra un insieme di simboli, e più la frequenza della lettera nel messaggio in chiaro è alta, più numeroso sarà il gruppo delle lettere tra le quali sarà possibile scegliere per la sostituzione. Se adottata correttamente, tale tecnica rende estremamente complessa un eventuale analisi statistica sul testo cifrato, essendo la frequenza delle lettere di quest’ultimo idealmente identica. Classificazione I cifrari incontrati si dividono in due classi: trasposizione: le lettere nel messaggio in chiaro sono riordinate in maniera tale che il contenuto del cifrato non sarà più immediatamente leggibile; sostituzione: ogni unità del testo in chiaro è sostituita con il corrispondente cifrato, secondo uno schema ben definito. Questi si possono ulteriormente classificare a seconda che la sostituzione sia: monoalfabetica: fissa per ogni lettera (ad es. cifrario di Cesare); polialfabetica: dinamica secondo uno schema predeterminato (ad. es cifrario di Vigenère); e a seconda di cosa si consideri unità testuale: semplice: l’unità è la singola lettera; poligrafica: l’unità è costituita da un gruppo di lettere. Da quanto riporato, possiamo classificare i cifrari finora presentati. La scitala è l’unico cifrario a trasposizione, gli altri sono a sostituzione semplice. Nel seguito non considererò più i cifrari a trasposizione non essendo più di interesse. Il sistema di Cesare è monoalfabetico, sia il disco dell’Alberti sia il sistema di Vigenère sono polialfabetici. Il sistema di Vernam è spesso classificato come sistema polialfabetico ma, per essere precisi, non è propriamente una sostituzione68 , ma una combinazione dinamica definita dall’ideale randomicità della chiave (one time pad ideale). Un accenno è necessario per i sistemi a sostituzione poligrafica, in cui gruppi di lettere del testo in chiaro sono sostituiti da singoli elementi nel cifrato. Ovviamente, 68 in una sostituzione lo spiazzamento è definito tramite una regola 151 per sostituire i gruppi è necessario prevedere un alfabeto sostitutivo composto da tantissimi simboli69 . Questo aspetto rende complessa un’eventuale realizzazione del modello, e forse non lo si è mai considerato realmente, se non come ipotesi di studio. Quelli finora esaminati appartengono alla classe dei cifrari a flusso, anche definiti cifrari a carattere. La caratteristica che li contraddistingue è il processo di codifica dei simboli del testo in chiaro, la quale avviene indipendentemente l’uno dall’altro. Formalmente, dato un testo in chiaro costituito da n simboli s1 , s2 , . . . , sn , il cifrato è la successione E(s1 ), E(s2 ), . . . , E(sn ), in cui per passare dal simbolo al suo cifrato si è utilizzata la funzione E. Ovviamente, per passare dal cifrato al messaggio in chiaro si dovrà applicare la funzione E −1 . Schematicamente: E(·) − → s1 s2 . . . sn − ← −− −− − − E(s1 )E(s2 ) . . . E(s1 ) E −1 (·) in cui si è utilizzata la funzione E(·) e E −1 (·) per definire rispettivamente la funzione di codifica e decodifica del singolo simbolo. La funzione E −1 , denominata funzione inversa, è in stretta relazione con la funzione diretta E, tale che da una si può derivare agevolmente l’altra. In tempi più moderni, con l’introduzione del calcolatore elettronico, si è introdotta una nuova classe di sistemi cifranti. Essa è costituita dai cifrari a blocchi, la cui caratterisita algoritmica è la codifica applicata su blocchi di lunghezza definita. In altre parole, l’unità della codifica è costuita dal blocco e non dal singolo simbolo. In questo caso si usa spesso l’espressione codifica contemporanea di simboli appartenenti allo stesso blocco70 . Formalmente, dato un testo in chiaro costituito da n simboli s1 , s2 , . . . , si , si+1 , . . . , sn , in cui il blocco è di lunghezza i, il cifrato è la successione E(s1 s2 . . . si ), E(si+1 . . . s2i ), . . . , E(sn−i+1 . . . sn ), in cui per passare dal blocco in chiaro al suo cifrato si è utilizzata la funzione di blocco E. Per semplicità, si è ipotizzato che il rapporto tra la lunghezza del testo in chiaro e quella del blocco sia intera, cioè n = ki, con k numero naturale71 (quindi un intero positivo). 69 se l’alfabeto è composto da n lettere ed ogni gruppo è formato da m elementi, il nuovo sistema dovrà prevedere la codifica per nm simboli; nel caso di 26 lettere a gruppi di 2, la codifica prevederà 262 = 676 simboli 70 anche se ho preferito riportala in quanto molto utilizzata, non la ritengo corretta. Difatti, nella codifica per blocchi, l’unità è il blocco e non il simbolo, pertanto non ha più senso riferirsi al singolo simbolo, essendo il processo di codifica determinato dalla sequenza ordinata dei simboli appartenenti al medesimo blocco 71 questa semplificazione non implica perdita di generalizzazione poiché, negli algoritmi in cui l’unità è il blocco, si assume che la lunghezza del blocco sia sottomultiplo del testo in chiaro. Se non 152 Per decifrare il testo è necessario un distinguo poiché l’operazione potrebbe essere differente. Difatti, sinora abbiamo utilizzato cifrari simmetrici, in cui la funzione di decodifica è E −1 , la funziona inversa della codifica. In alternativa potremmo utilizzare cifrari asimmetrici, in cui la funzione di decodifica non è più la funzione inversa di E, ma una nuova funzione che chiameremo D, funzione ovviamente costruita in maniera particolare (quindi in stretto rapporto con E), ma non è affatto l’inverso di E. Schematicamente, i cifrari a blocco72 appartengono a uno delle due classi di cifrari: simmetrico: E|·| − → s1 . . . si . . . sn − ← −− −− − − E(s1 . . . si ) . . . E(sn−i+1 . . . sn ) E −1 |·| asimmetrico: E|·| − → s1 . . . si . . . sn − ← −− −− − − E(s1 . . . si ) . . . E(sn−i+1 . . . sn ) D|·| in cui ripeto che per passare dal cifrato al messaggio originale la chiave di cifratura è E −1 | · | oppure D| · |, a seconda che il sistema sia rispettivamente a chiave simmetrica o asimmetrica. Crittografia simmetrica La crittografia simmetrica è anche chiamata crittografia a chiave privata. Essendo utilizzata la medesima chiave sia per cifrare sia per decifrare, essa dovrà essere condivisa tra mittente e destinatario e restare segreta per il resto del mondo. Avendo già esaminato diversi sistemi di questo tipo (tutti quelli finora esaminati) non mi dilungherò ulteriormente, menzionando semplicemente gli standard oggi utilizzati, gli algoritmi AES (Advanced Encryption Standard), IDEA (International Data Encryption Algorithm), 3DES (triplo DES, evoluzione dell’originario DES, Data Encryption Standard) e altri ancora. fosse rispettato il rapporto intero, si aggiungerà un padding (riempimento) finché non sarà realizzata questa condizione 72 in realtà si distingue tra cifrari simmetrici e asimmetrici solo quando ci si riferisce a cifrari a blocco; è comunque possibile allargare la classe dei cifrari simmetrici, considerando i cifrari a flusso come caso particolare di cifrari a blocco, in cui il blocco sia definito da un solo simbolo 153 Crittografia asimmetrica La crittografia asimmetrica è anche chiamata crittografia a chiave pubblica (o anche crittografia a coppia di chiavi), in cui ogni attore ha una coppia di chiavi di cui quella: pubblica: è distribuita a tutti coloro che vorranno comunicare in maniera cifrata, e si utilizzerà per l’operazione di cifratura del messaggio; privata: è personale e si utilizzerà per l’operazione di decodifica. Per meglio comprendere i ruoli delle chiavi73 , potrebbe essere utile il seguente esempio. Esempio I soggetti A e B vorrebbero scambiare messaggi in maniera cifrata tramite crittografia asimmetrica. Si ipotizza che entrambi siano dotati della coppia di chiavi privata e pubblica (al soggetto A sarà associata la coppia (a, A), al soggetto B la coppia (b, B), in cui a e b sono le chiavi private, A e B quelle pubbliche), e che quelle pubbliche siano distribuite, ad esempio visibili su Internet74 . Voglia il soggetto A inviare il messaggio in chiaro messaggio1 al soggetto B. Potrà quindi inviare il messaggio EB (messaggio1 ), il corrispondente cifrato tramite la chiave pubblica di B. A questo punto, solo il soggetto B potrà decifrare il messaggio tramite la sua chiave privata, applicando Db (EB (messaggio1 )), che equivale al messaggio originale. In risposta, il soggetto B vorrà spedire messaggio2 in maniera cifrata, quindi invierà EA (messaggio2 ), il cifrato mediante la chiave pubblica di A. Il soggetto A sarà l’unico a leggere il messaggio, applicando Da (EA (messaggio2 )). Nella pratica Per non essere troppo criptici, è possibile semplificare il funzionamento di massima ripercorrendo il passaggio della spedizione da A a B: 73 successivamente sarà evidente che la distinzione tra chiave pubblica e chiave privata è del tutto arbitraria. È importante stabilire (prima del loro utilizzo, solitamente ciò avviene al momento della creazione) quale delle due sarà pubblica, quale sarà privata e, da quel momento, la distinzione sarà permanente 74 è possibile scambiare le chiavi pubbliche tramite canali non sicuri; tipicamente la si distribuisce tramite e-mail, pagine web, o key server 154 1. B sceglie due numeri primi molto grandi (∼ centinaia di cifre75 ) e li moltiplica con il suo computer (∼ meno di un secondo); 2. B invia il numero che ha ottenuto ad A; 3. A usa questo numero per cifrare il messaggio; 4. A manda il messaggio cifrato a B; 5. B riceve il messaggio e, utilizzando i due fattori primi che solo lui conosce, lo decifra. I soggetti A e B impiegano pochi secondi per le operazioni di cifratura e decifratura, ma chiunque intercetti la comunicazione impiegherebbe troppo tempo per scoprire i due fattori primi con cui è possibile decifrare il messaggio. Infatti, il principio della segretezza nei sistemi asimmetrici è derivante dall’elevata complessità computazionale della fattorizzazione di prodotti di due primi (v. Scheda di approfondimento). Scheda di approfondimento Per moltiplicare tra loro numeri grandi, il procedimento matematico è computazionalmente non difficoltoso. Questo semplice frammento di codice scritto in Perl: use bigint; $a = 10**10000-1; $b = 10**10000-2; $a *= $b; moltiplica due numeri composti entrambi da 10000 cifre. Il tempo di esecuzione del prodotto è di soli 1,9 secondi sul mio portatile. Invece, fattorizzare uno solo di questi numeri (supponendo che sia il prodotto di due numeri primi (i quali siano di un ordine di grandezza simile) è un’impresa immane, quantificabile in anni di lavoro. RSA76 L’acronimo RSA, anche chiamato PKCS #1 (Public-Key Cryptography Standards) deriva dai cognomi di tre ricercatori del MIT (Ronald Rivest, Adi Shamir e Leo75 nel momento in cui scrivo (e probabilmente per alcuni anni) si considerano crittograficamente sicuri numeri composti da circa 300 cifre 76 questa sezione non è necessaria per avere una visione essenziale, ma la trattazione presentata permetterà una migliore concettualizzazione 155 nard Adleman) i quali hanno per primi77 implementato un algoritmo di cifratura asimmetrico, sfruttando una proprietà dei numeri primi78 . Il funzionamento base è il seguente: 1. si scelgono arbitrariamente due numeri primi79 p e q, l’uno indipendentemente dall’altro, sufficientemente grandi da garantire la robustezza della chiave (∼ centinaia di cifre); 2. si calcola il prodotto n = pq, chiamato anche modulo (poiché l’aritmetica che segue è modulo n); 3. si sceglie il numero e, chiamato esponente pubblico, più piccolo di n e coprimo80 di (p − 1)(q − 1); 4. si calcola il numero d, chiamato esponente privato, tale che ed mod (p − 1)(q − 1) = 1 La chiave pubblica è definita dalla coppia (n, e) e la chiave privata da (n, d). La forza dell’algoritmo è nella difficoltà di calcolo di d da n81 , poiché la fattorizzazione è un’operazione molto lenta. Un messaggio m è cifrato attraverso l’operazione me mod n, mentre il cifrato h è decifrato con hd = med mod n = m1 mod n. Di seguito un esempio. Esempio I numeri scelti sono volutamente primi piccoli, nella realtà sono utilizzati numeri dell’ordine di 10100 . 1. Sia p = 3, q = 11, quindi (p − 1)(q − 1) = 2 · 20; 2. n = pq = 3 · 11 = 33; 3. si sceglie e = 7, poiché e è minore di n ed è coprimo di 20; 4. d = 3, infatti e · d mod ((p − 1)(q − 1)) = 1, poiché 21 = 1 con resto 1. 20 77 in realtà, già il matematico britannico Clifford Cocks descrisse un sistema equivalente in un documento interno al suo dipartimento di spionaggio del GCHQ (Government Communications Headquarters), ma i documenti furono posti sotto segreto, e solo nel 1997 tale notizia fu di dominio pubblico 78 i fondamenti metematici si basano sul piccolo teorema di Fermat [Wikau] e il teorema cinese del resto [Wikj] 79 in realtà, si eseguono test per capire se un numero sia probabilmente primo; in altre parole, non se ne avrà certezza ma, se i test saranno superati con successo, allora si congettura che sia primo 80 detti anche primi tra loro, cioè se e solo se essi non hanno un divisore comune (eccetto 1), che equivale ad affermare che il massimo comun divisore è 1 81 la difficoltà esiste anche per e, ma non è interessante poiché e è pubblica 156 Sistema simmetrico asimmetrico Rapidità alta bassa Canale sicuro necessario non necessario Tabella 11: Confronto tra crittografia simmetrica e asimmetrica Quindi la chiave privata è (33, 3) e la chiave pubblica è (33, 7). Si voglia ora cifrare il messaggio m = 15. Utilizzando la chiave pubblica: h = me mod n = 153 mod 33 = 27 e per decifrare h = 27 utilizzeremo la chiave privata: m = hd mod n = 273 mod 33 = 15 decriptando così il messaggio. Confronto tra cifratura simmetrica e asimmetrica Nella crittografia simmetrica la sicurezza del sistema è riposta nella segretezza della chiave, condivisa tra mittente e destinatario, e in prima approssimazione la sua robustezza è correlata alla propria lunghezza (in proporzione al messaggio). La necessità di mantenere segreta la chiave rende necessario l’utilizzo di una canale sicuro per la trasmissione della stessa, poiché l’intercettazione da parte di terzi renderebbe insicuro l’intero sistema. Al contempo, sia la codifica sia la decodifica sono procedimenti estremamente rapidi. Nella crittografia asimmetrica non è più necessaria la condivisione della medesima chiave, quindi non è più necessaria la presenza di un canale sicuro. Purtroppo l’operazione di codifica e decodifica è meno rapida, certamente non idonea ai procedimenti crittografici che avvengono in tempo reale per grosse quantità di dati. Queste caratteristiche sono sintetizzate in Tabella 11. Crittosistemi ibridi Dal confronto tra i due sistemi crittografici, è evidente che solo per le applicazioni in cui non è necessario lavorare con quantità di informazioni ingenti, si utilizza la crittografia asimmetrica. Per tutte le altre sarebbe eccessivo il tempo di codifica, pertanto è necessario utilizzare quella simmetrica, in cui evidenzio nuovamente il problema di distribuzione della chiave. L’intuizione è l’utilizzo combinato, sfruttando i vantaggi di entrambi i sistemi (e ignorando gli aspetti negativi), quindi: 157 rapidità: la si può ottenere solo tramite la crittografia simmetrica; canale sicuro: può essere fornito tramite la crittografia asimmetrica la quale cifrerà solo le informazioni che necessitano l’attraversamento di un canale sicuro. Tecnicamente, il primo passo sarà cifrare la chiave dell’algoritmo simmetrico tramite l’algoritmo asimmetrico, dopodiché si cifrerà il testo con la chiave che oramai è condivisa tra i soggetti. Il tempo speso per cifrare la chiave è trascurabile, ed è comunque un’operazione necessaria per scambiare in modo sicuro informazioni tra i due soggetti. Scambiata la chiave, il messaggio sarà codificato tramite un algoritmo simmetrico, in maniera da essere agevole lo scambio di quantità significative di dati. Per complicare ulteriormente il lavoro di un eventuale crittoanalista, i soggetti potrebbero intervallare lo scambio di messaggi con lo scambio di una nuova chiave simmetrica, ogni volta randomica, cosicché statisticamente il lavoro crittoanalitico sarebbe estremamente complesso. Firma digitale Oltre i compiti precedenti ai quali è destinata la crittografia asimmetrica, essa può essere utilizzata anche per verificare l’autenticità e l’integrità dei messaggi. Con autenticità si intende la verifica del mittente, con integrità si escludono eventuali modifiche, sia intenzionali sia accidentali. Nella pratica, il mittente produce un fingerprint tramite una funzione di hash (v. Scheda di approfondimento), è quest’ultimo sarà cifrato tramite la propria chiave privata, quindi aggiunto al messaggio da spedire. Questa cifratura non va intesa nel senso ordinario di offuscamento, ma come firma digitale. Infatti, si può notare che il processo di codifica investe esclusivamente il fingerprint (quindi non il messaggio). Inoltre, l’eventuale offuscamento non avrebbe senso poiché, per sua natura, la chiave pubblica associata è spesso banalmente reperibile. Il destinatario potrà verificare: autenticità: attraverso la chiave pubblica potrà decodificare solo informazioni precedentemente codificate con la chiave privata associata, e quindi verificare il corrispondente mittente; integrità: tramite l’applicazione del medesimo algoritmo hash, calcolerà lui stesso il digest dal messaggio ricevuto, e se coincide con quello inviato e decodificato, ne dedurrà l’integrità. 158 Scheda di approfondimento Il fingerprint (denominato anche digest) è tecnicamente costituito da un blocco alfanumerico di lunghezza prefissata, ed equivale ad un’impronta del messaggio, più precisamente ad una estrema sintesi dello stesso. Ogni sequenza di dati può essere sintetizzato da funzioni hash, e queste restituirano ciascuna un fingerprint. Gli algoritmi di hash sono costruiti esclusivamente per la lettura di dati con conseguente produzione di digest. La caratteristica delle funzioni hash sono essenzialmente due: variazioni estreme: piccole modifiche nei dati in input produrranno differenze estreme. In altre parole, le variazioni dell’output devono essere estremamente sensibili alle variazioni dell’input (equivalente a fenomeni di dinamica caotica); resistenza alle collisioni: la ricerca di dati di input che producano fingerprint identici deve essere infruttuosa (caratteristica correlata all’equispazialità). Gli algoritmi più diffusi sono: MD5: (message digest algorithm) è un algoritmo progettato da Ronald Rivest che, dato un input, produce un output di 128 bit. È un evoluzione del MD4, sostituito in quanto ritenuto insicuro [Wikao]. L’MD5 oggi è molto utilizzato, anche se sono noti alcuni casi di collisione [Wikap]. SHA-2: (secure hash algorithm) in realtà indica una famiglia di algoritmi progettati dall’NSA [Wikba] per la produzione di digest di lunghezza variabile a seconda dell’algorimo utilizzato. Ad esempio, SHA-224, SHA-256, SHA-384 e SHA-512 producono rispettivamente digest da 224, 256, 384 e 512 bit. Certificato digitale Per quanto riguarda l’autenticità del messaggio, nella precedente sezione ci si è accontentati di verificare dati cifrati tramite chiave privata, in particolare se la decodifica tramite la chiave pubblica associata andava a buon fine, se ne deduceva il mittente. In altre parole, si è assunto che la corrispondenza mittente e chiave pubblica sia corretta. Di seguito, ci si pone nell’ottica pessimistica che le questioni non sia stata risolta, quindi è necessario certificare che ad una o più chiavi pubbliche siano associate alla persona ipotizzata. 159 Azione banale comunemente consigliata per garantire l’identità, è l’incontro dei due soggetti o, in alternativa, una telefonata con lettura di codici associati alle proprie chiavi pubbliche (ad esempio, le prime lettere). Tornando nel mondo dell’informatica, lo scopo del certificato digitale è garantire che una chiave sia associata ad un’identità che un soggetto rivendica come propria. Lo schema tipico prevede l’intervento di una CA (certification autority), la quale ha esclusivamente il compito di attestare la corrispondenza in oggetto tramite la sua firma. Alternativamente, è possibile entrare nel web of trust, una rete di fiducia in cui la firma è applicata da altri utenti. I principali attributi di un certificato sono: - i dati identificativi (una soggetto, un’organizzazione, . . . ); - una chiave pubblica; - un periodo di validità; - i riferimenti alla lista dei certificati revocati. Quest’ultima proprietà deriva proprio dalla possibilità assegnata ai richiedenti del certificato di revoca dello stesso, quindi sarebbe doveroso la verifica per ogni firma certificata valutare la sua eventuale revoca, quindi esistenza nella lista suddetta. In Internet, il più comune incontro con i certificati è l’accesso a siti web attraverso il protocollo HTTPS. Tramite questi certificati è possibile accertare che il server al quale si è connesso è autentico, quindi assicurarsi che non si interponga nella comunicazione un eventuale terzo. Steganografia La steganografia è una tecnica di offuscamento che è completamente diversa dalla crittografia. In ogni caso spesso i due sistemi sono trattati assieme, in quanto entrambi utilizzati per il medesimo scopo. La differenza tra crittografia e steganografia è l’oggetto dell’offuscamento, nel primo caso il messaggio diviene cifrato, nel secondo il canale è difficile da individuare. Più in dettaglio, nella steganografia il messaggio è in chiaro, ma è necessario comprendere le modalità di trasmissione. Si veda l’esempio di seguito, tratto da [Poem1]. Esempio - acrostico Si ipotizzi che due soggetti si siano accordati per scambiarsi brevi messaggi attraverso acrostici. Supponiamo una voglia comunicare all’altro chi dovrà uccidere, in particolare Elizabeth. Fortunatamente le opere poetiche sono particolarmente piene di esempi. 160 Elizabeth it is in vain you say “Love not“ – thou sayest it in so sweet a way: In vain those words from thee or L.E.L. Zantippe’s talents had enforced so well: Ah! if that language from thy heart arise, Breath it less gently forth – and veil thine eyes. Endymion, recollect, when Luna tried To cure his love – was cured of all beside – His follie – pride – and passion – for the died. Non dobbiamo scomodare necessariamente la poesia o periodi così remoti. Un acrostico contemporaneo è quello tratto dalla lettera datata ottobre 2009, prodotto dall’ufficio del Governatore della California Arnold Schwarzenegger (si veda [Sil09] e [Bia09]), in cui dalla sequenza delle iniziali di ogni riga ne esce l’espressione Fuck you. Le forme più interessanti di steganografia si trovano nelle applicazioni informatiche, in cui è facile nascondere informazioni in grosse quantità di dati. In questo campo, la più conosciuta e diffusa forma è l’utilizzo della steganografia LSB (least significant bit). Questa tecnica si può adottare su tantissime formati multimediali, ma per produrre un esempio preferisco trattare nel seguito un’immagine digitale. In linea di principio, se aggiungiamo ai dati del rumore di fondo imprecettibile per l’uomo, si è costruito un vettore di informazioni difficile da intercettare. Nel dettaglio, un’immagine digitalizzata è formata dall’accostamento di milioni di pixel, e questi non cambiano contenuto informativo per l’occhio umano se sono modificati in modo impercettibile. Un modo classico di operare è il seguente: l’algoritmo aggiunge ad una immagine contenitore un dato da nascondere, modificando i bit meno significativi. I pixel saranno modificati attrverso uno schema definito da una chiave, che ha appunto il compito di indicare quali bit meno significativi saranno sovrascritti per celare il messaggio. Se la tecnica è adoperata correttamente, e se i dati da nascondere non sono eccessivi rispetto quelli a disposizione, la qualità dell’immagine non né risentirà, e le persone che visualizzeranno l’immagine non noteranno alcuna differenza, essendo questa non apprezzabile dall’occhio umano. Al contrario, il destinatario, che saprà come trattare l’immagine, riuscirà senza problemi ad invertire il procedimento del mittente, ottenendo così l’informazione celata. La steganografia digitale ha il pregio di offuscare grosse quantità di dati, ma al contempo ha il grosso difetto di essere persa se, accidentalmente, un utente ignaro modifica l’immagine tramite un programma di editing. Per complicare ulteriormente l’eventuale steganalista, taluni algoritmi prevedono una cifratura del messaggio attraverso una chiave. 161 Esempio In questo esempio è stato utilizzato il software steghide82 , il quale permette di introdurre ed estrarre messaggi steganografici in particolari formati, tra i quali il fromato jpeg utilizzato in questo esempio. Di seguito sono state fornite due immagini (v. Figura 59) apparentemente identiche, ma nell’immagine 59(b) è offuscato un messaggio. Tale messaggio non può essere estratto se non si ha l’originale elettronico, pertanto mi scuso con i lettori poiché di seguito riporterò un’analisi non ripetibile dagli stessi. Il testo che ho scelto di nascondere nel file testo.txt è il seguente: Questo messaggio e’ stato nascosto. Lo vedi? da immettere (embedding) nell’immagine machuPicchu.jpg, visualizzata in Figura 59(a). Per verificare quanta capacità di memorizzazione steganografica è possibile sul file, è sufficiente dare il comando $ steghide info machuPicchu.jpg "machuPicchu.jpg": ... capacity: 6,0 KB ... ed il software risponde che l’immagine può contenere circa 6000 caratteri. Poiché il messaggio da offuscare è di 45 caratteri, è possibile immetterlo con successo utilizzando questo formalismo: $ steghide embed -cf machuPicchu.jpg -ef testo.txt Enter passphrase: Re-Enter passphrase: embedding "testo.txt" in "machuPicchu.jpg"... done Si è ottenuta la Figura 59(b), in cui si nota che nel processo di inserimento è stata fornita una passphrase, utilizzata per determinare la sequenza dei pixel investita dalle modifiche, ottenendo in tal modo il prodotto finale. Per leggere il contenuto, è sufficiente il seguente comando: $ steghide extract -sf machuPicchu.jpg Enter passphrase: wrote extracted data to "testo.txt". in cui è stata richiesta la medesima passphrase utilizzata in fase di embedding. 82 v. [Het] 162 (a) Senza steganografia (b) Con steganografia Figura 59: Esempio steganografico 163 164 L’evoluzione della definizione probabilistica Le definizioni seguono uno schema di approssimazioni successive, sino al raggiugimento (sostanziale) di incertezza nulla. Anonimo la definizione classica, enunciata nel Settecento, la probabilità di un evento è uguale al rapporto tra il numero di casi favorevoli ed il numero di casi possibili. Utilizzando questa definizione è possibile attribuire una probabilità a molti eventi, ma è altresì possibile incorrere in qualche errore di valutazione. Un semplice esperimento, quale il lancio delle monete, può creare qualche problema. Si veda l’esempio seguente: S ECONDO Nel lancio di due monete, qual è la probabilità dell’evento CC83 ? La risposta non è per tutti scontata; le più gettonate sono: - P = 14 , considerando 4 casi possibili: TT, CC, CT84 e TC85 ; - P = 31 , considerando 3 casi possibili: TT, CC e CT86 . Essendo entrambe le risposte coerenti con la definizione precedentemente riportata, poiché le probabilità associate differiscono, la definizione proposta è ambigua, pertanto è stata migliorata. 83 l’evento CC indica l’uscita di due croci; per brevità C sintetizza l’uscita di croce, T di testa prima moneta croce, seconda testa 85 prima moneta testa, seconda croce 86 croce e testa, considerando l’esito della coppia, ma non della coppia ordinata 84 165 La risposta corretta è P = 41 ; per avere un riscontro empirico si prendano due monete di valore commerciale differente: sia, ad esempio, la prima moneta da 1 ¤ e la seconda da 2 ¤. I casi possibili sono: MONETA da 1¤ 2¤ esito finale 1o esito T T TT 2o esito T C TC 3o esito C T CT 4o esito C C CC totalizzando 4 possibili esiti. I sostenitori della tesi P = 13 considerano i due casi distinti CT e TC uno solo. In altri termini, i sostenitori87 della tesi errata P = 13 non hanno distinto i casi a seconda dei pesi88 . Di seguito sono elencati gli esiti possibili con i relativi pesi: C ASO POSSIBILE due testa due croce una testa e una croce E SITO TT CC TC o CT P ESO 1 1 2 Per evitare l’ambiguità interpretativa come nel caso precedente, la prima definizione è sostituita dalla seguente: La probabilità di un evento è uguale al rapporto tra il numero di casi favorevoli ed il numero di casi equiprobabili. Purtroppo questa definizione è linguisticamente viziata: per superare l’ambiguità associata alla prima definizione, si è ricorso alla nozione di equiprobabilità, ma il termine equiprobabilità rimanda alla nozione di probabilità instaurando un ciclo: ciò rende difettosa la definizione appena scritta. In altri termini, una definizione rigorosa non può basarsi sul concetto che intende definire. In ogni caso, è comunemente accettata in quanto la nozione di equiprobabilità è intuitiva. L’aspetto negativo che permane è l’applicabilità della definizione sin qui proposta, valida in molti casi, ma non in tutti. Tale carenza ha favorito l’introduzione di una nuova definizione, la definizione frequentistica: La probabilità di un evento è uguale al rapporto tra il numero di casi favorevoli ed il numero di esperimenti effettuati. 87 il più famoso fu D’Alembert pesi uguali sono attribuiti a eventi equiprobabili; un evento ha peso doppio di un altro se il primo è doppiamente probabile rispetto al secondo 88 166 Questa definizione introduce una novità sostanziale: per procedere con l’attribuzione di una probabilità ad un evento, si sostituisce il ragionamento (teorico e, quindi, a priori) con una valutazione basata sull’esperienza (quindi a posteriori). La definizione frequentistica ha il merito di permetterci valutazioni probabilistiche di fenomeni molto complessi per i quali l’unico metodo d’indagine è la statistica. Ad esempio, per stabilire se in un preciso giorno dell’anno in una certa città pioverà, si procede ad una ricerca sul passato della città e, in particolare, che tempo c’è stato quel determinato giorno negli anni passati, stabilendo la frequenza relativa. Un esempio concreto è: Qual è la probabilità che il 15 marzo del prossimo anno pioverà a Chieti? Se procediamo ad una ricerca negli ultimi quarant’anni e, ad esempio, risulterà che il 15 marzo è piovuto 4 volte in quest’intervallo, la probabilità che pioverà il 15 4 1 marzo è P = 40 = 10 . Il procedimento proposto restituisce solo un’approssimazione della probabilità, poiché si potrebbe migliorare la valutazione considerando, ad esempio, anche l’incidenza della piovosità dell’anno corrente rispetto gli anni passati. Il limite della definizione frequentistica è l’applicazione ad eventi già accaduti. Inoltre, c’è una questione importante sollevata dalla stessa definizione: la probabilità di un evento dipende dal numero di esperimenti esaminati. In altri termini, qual è il numero di prove che è necessario effettuare (o cui è necessario accedere) affinché si possa ottenere una stima affidabile della probabilità di un evento? Purtroppo non è possibile stabilire un criterio generale; in questo contesto si inserisce la nuova definizione del matematico Bruno De Finetti, il quale propose la definizione di probabilità soggettiva: La probabiltà di un evento è il grado di fiducia che si pone nel verificarsi dell’evento stesso. Secondo questa definizione, la probabilità non è una caratteristica oggettiva, ma è una personale valutazione, pertanto variabile da persona a persona. Questa nuova visione consente di utilizzare i risultati legati alle definizioni precedenti (classica e frequentistica), ma ognuna si applica nelle situazioni in cui ha dimostrato di funzionare meglio. La definizione classica è da preferire nei casi in cui nessun evento appare favorito rispetto gli altri (oppure è facile determinare numericamente quanto sia favorito rispetto gli altri): nel gioco dei dadi, del Lotto, del Superenalotto, giochi di carte, la roulette, . . . Per calcolare la probabilità relativa ad eventi terribilmente complessi (ad esempio, 167 eventi regolati dal caos deterministico), i quali sono stati registrati per ampi intervalli oppure è possibile ripeterli, è da preferire (probabilmente l’unica applicabile) la definizione frequentistica, prendendo in esame una serie statistica. 168 L’intuizione e il calcolo probabilistico è da sempre una grande amica degli uomini ed è da molti considerata la chiave intellettuale della nostra evoluzione (non solo culturale). Spesso le stesse scoperte e invenzioni, frutto di numerose rivoluzioni culturali, sono state avviate dagli affascinanti quanto intricati meccanismi del rapido processo mentale denominato intuizione. Nonostante sia una grande alleata per l’uomo, non sempre si rivela un’amica fedele; la disciplina che più di tutte mostra i limiti dell’intuito è il calcolo delle probabilità. Di seguito riporterò pochi semplici problemi (alcuni molto famosi) che si possono considerare controintuitivi. L’ INTUIZIONE Il figlio maschio Rispondiamo a questa semplice domanda: Un uomo ha due figli; qual è la probabilità che il secondo sia maschio? I casi possibili possono essere riportati di seguito: C ASI P OSSIBILI MM MF FM FF C ASI FAVOREVOLI sì sì - 1 Com’è facile intuire, la probabilità è P = . 2 Ora si provi a rispondere alla domanda seguente: 169 Un uomo ha due figli e almeno uno dei due è maschio; qual è la probabilità che anche l’altro sia maschio? 1 1 La risposta corretta non è P = , ma P = ; si veda la seguente tabella: 2 3 C ASI P OSSIBILI MM MF FM C ASI FAVOREVOLI sì - Se il problema fosse: Un uomo ha due figli di cui il maggiore è maschio; qual è la probabilità che anche l’altro sia maschio? 1 In questo caso la risposta corretta sarebbe P = ; si veda la seguente tabella: 2 C ASI P OSSIBILI MF MM C ASI FAVOREVOLI sì Il cavaliere de Méré Il seguente problema fu proposto da Antoine Gombaud, cavaliere de Méré, a Blaise Pascal, e la sua formalizzazione è considerata l’atto di nascita del calcolo delle probabilità. È più facile ottenere almeno un 6 lanciando quattro volte un dado89 o ottenere almeno un 12 lanciando ventiquattro volte due dadi90 ? Il cavaliere de Méré aveva già provato a rispondere, ma la sua esperienza non concordava con i risultati del suo intuitivo ma erroneo ragionamento. Pertanto, chiese l’aiuto al matematico Blaise Pascal che fornì la corretta risposta. Pascal ragionò nei seguenti termini: La probabilità di non ottenere un 6 in quattro lanci è: P = 89 90 4 5 625 = ; 6 1296 composto da sei facce numerate da 1 a 6 ognuno composto da sei facce numerate da 1 a 6 170 la probabilità complementare, cioè ottenere almeno un 6 in quattro lanci, è: P =1− 625 1296 − 625 671 ∼ = = = 0, 52. 1296 1296 1296 La probabilità di non ottenere un doppio 6 in ventiquattro lanci è: P = 35 24 ; 36 la probabilità complementare, cioè ottenere almeno un doppio 6 in 24 lanci, è: P =1− 35 24 ∼ = 0, 49. 36 Quindi è più facile che esca almeno un 6 in quattro lanci di un dado piuttosto che almeno un doppio 6 in ventiquattro lanci di due dadi. La data di compleanno Molto citato nei testi di calcolo delle probabilità, è la coincidenza della data di compleanno in un gruppo di persone. Nel seguito semplificherò il calcolo considerando l’anno composto da 365 giorni e le nascite ripartite uniformemente nell’anno. È ovvio che sia poco probabile che due persone che si incontrino abbiano la mede1 sima data di nascita valutabile con P = . 365 Nei casi successivi è conveniente calcolare la probabilità dell’evento complementare e poi sottrarla da 1. Applicherò da subito questo metodo, ricordando che la probabilità complementare è il calcolo dell’evento nessuno festeggia il complean364 1 no lo stesso giorno, quindi nel caso precedente P = 1 − = . 365 365 Analogamente, se si incontrassero tre persone, si ha una bassa probabilità che al364 · 363 meno due persone festeggino il compleanno lo stesso giorno: P = 1 − . 3652 La questione cambia se le persone formano un gruppo più numeroso. Ad esempio, 364 · 363 · . . . · 344 · 343 ∼ con 23 persone la probabilità cresce diventando P = 1− = 36522 364 · 363 · . . . · 326 · 325 ∼ 0, 507; e se le persone nel gruppo sono 41, la probabilità è P = 1− = 36540 0, 903. 171 Il problema di Monty Hall Nel 1991 andava in onda una trasmissione televisiva americana dal titolo Let’s Make a Deal che ispirò il problema di Monty Hall, nome che deriva dal conduttore dello show, Maurice Halprin, noto con lo pseudonimo di Monty Hall. Il regolamento del gioco prevede che il conduttore Monty Hall conduce il giocatore di fronte a tre porte chiuse: una nasconde il premio (un’automobile di lusso) e le altre due nascondono ciascuna una capra; il concorrente è invitato a scegliere una porta (la quale resta chiusa) e terrà ciò che si trova al di là di essa; il conduttore, il quale conosce la porta che nasconde l’automobile, apre una porta delle rimanenti dietro cui c’è una capra e, in seguito, aprirà la porta scelta dal concorrente per consegnare il premio da lui vinto. Come appena scritto, nel gioco a premi originale, dopo che il concorrente sceglie una porta, il conduttore ne apre un’altra dietro cui c’è una capra; l’apertura di un’altra porta, aumenta la tensione negli spettatori e, pertanto, ha fini esclusivamente emotivi. È stata proposta una formulazione alternativa, in cui ci si chiede: Successivamente all’apertura della porta da parte del conduttore, se al giocatore fosse offerta la possibilità di cambiare la porta, avrebbe maggiori possibilità di vincere l’automobile? La formulazione del problema in questi termini è contenuta in una lettera del 1990 di Craig F. Whitaker, indirizzata alla rubrica della giornalista Marilyn vos Savant nel settimanale Parade. In realtà, la formulazione originale del problema fu di Steve Selvin nel 1975, il quale la battezzò problema di Monty Hall. Un problema sostanzialmente identico appare nella rubrica Mathematical Games nel 1959 con il nome problema dei tre prigionieri. Si ritiene però che la formulazione più antica sia quella proposta nel volume di Joseph Bertrand in Calcul des Probabilités nel 1889, nota come il paradosso della scatola di Bertrand. La giornalista della rivista Parade, Marylin vos Savant, risolse il problema affermando che, cambiando la scelta iniziale, la probabilità di trovare l’automobile di2 venti P = , cioè raddoppiano; il suo intervento, corretto ma assolutamente non 3 intuitivo, fu criticato da moltissimi, anche cultori e accademici i quali non riconobbero corretta la soluzione proposta finché, in un successivo articolo, spiegò nel dettaglio la soluzione. Il ragionamento è il seguente: inizialmente la probabilità che l’auto non si trovi 2 dietro la porta scelta dal concorrente è P = ; dopo che il presentatore mostra una 3 porta dietro cui è nascosta una capra, la probabilità che l’auto non è dietro la porta 172 2 scelta dal concorrente rimane P = poiché il presentatore, non scegliendo a caso, 3 non fornisce alcuna informazione utile ai fini probabilistici riguardo la scelta del concorrente. Più in dettaglio, possiamo esemplificare la questione attraverso i seguenti passi: 1. Avendo a disposizione tre porte in cui distribuiamo casualmente due capre ed un auto, le probabilità associata ad ogni porta è riportata in Figura 60. I 1 3 auto 2 capra 3 II 1 3 auto 2 capra 3 III 1 auto 3 2 3 capra Figura 60: Probabilità associate ad ogni porta prima della scelta del concorrente e, ovviamente, non modificate in seguito alla sua scelta 2. Il concorrente sceglierà, ad esempio, la porta I: in questo stesso istante non si modificheranno (ovviamente) le probabilità associate alle porte. Arrivati a questo punto, il regolamento del gioco prevede che il conduttore mostri la capra dietro una delle due porte non scelte; schematicamente, il grafico associato a tale situazione è invariato e, pertanto, è ancora valida la Figura 60; comunque, preferisco riproporlo nella Figura 61 evidenziando una questione importante: anche se lo schema è simile al precedente, a seguito della scelta del concorrente è stata congelata sia la probabilità associata alla porta scelta, sia quella associata al raggruppamento formato delle restanti porte. 3. Supponiamo che il conduttore mostri che dietro la porta II ci sia una capra; in questo caso, lo schema varierà come mostrato in Figura 62 Attraverso questo breve ragionamento si è prevenuti alla corretta conclusione che al concorrente conviene cambiare la porta poiché è due volte più probabile che dietro quella da lui scelta si celi una pecora. Per risolvere la questione trattata in questa sezione ho preferito utilizzare diagrammi di Eulero-Venn, ma è possibile utilizzare anche la metodologia impiegata nelle 173 ' $ I II III 1 3 auto 1 3 auto 1 3 auto 2 3 capra 2 3 capra 2 3 capra & % Figura 61: A seguito della scelta del concorrente, le due porte rimanenti variano singolarmente la propria probabilità legate agli eventi del gioco, ma non varierà la probabilità data dalla loro somma ' $ I 1 3 2 3 II auto 0 3 capra 3 3 III auto 2 3 auto capra 1 3 capra & % Figura 62: Supponendo che il conduttore mostri che dietro la seconda porta si celi una capra, la probabilità associata alla prima porta non varia e non varia nemmeno la probabilità associata al raggruppamento delle due porte rimanenti, ma variano singolarmente le probabilità associate a tali porte (nel caso specifico, per la seconda porta abbiamo solo certezze) precedenti sezioni, cioè elencare tutti i casi possibili. Abbiamo tre possibili situazioni, a seconda che l’auto si celi dietro la prima, la seconda o la terza porta: 1o caso A C C 2o caso C A C 3o caso C C A Figura 63: Nelle tre figure l’auto è nascosta dietro la porta segnata con A; le altre due nascondono la capra (segnata con C) 174 Per semplificare la trattazione, suppongo che il concorrente scelga la prima porta; in questo caso, il conduttore mostrerà la seconda o la terza porta (comunque mostrerà una porta dietro la quale c’è una capra) che possiamo eliminare come riportato schematicamente nella Figura 64. 1o caso C A C oppure C A C 2o caso C A 3o caso C C C A Figura 64: Nei casi mostrati di seguito, il concorrente sceglie la prima porta. Nel 1o caso il conduttore è libero di mostrare la seconda o la terza porta (entrambe nascondono una capra), nel secondo e nel terzo caso il conduttore è obbligato a mostrare la porta dietro cui c’è la capra, lasciando chiusa la porta che nasconde l’automobile Come possiamo vedere dalla figura, nel 1o caso il conduttore è libero di mostrare la seconda o la terza porta, ma sia nel secondo sia nel terzo caso è vincolato a mostrare l’unica porta (tra le due rimaste) che cela una capra. Nel 1o caso il concorrente avrà indovinato se non muterà la scelta (un caso su tre, P = 13 ), mentre negli altri due casi il concorrente indovinerà indirizzando la scelta verso la porta scartata dal conduttore (due casi su tre, P = 23 ). Come ho già scritto prima, anche se i tre casi citati non sono generali (poiché si suppone che il concorrente abbia scelto la prima porta), gli altri due casi sono analoghi ed è pertanto inutile la trattazione. I sogni premonitori - liberamente tratto da Gli snumerati, di J. Allen Paulos Supponiamo realisticamente che sia molto poco probabile che un sogno corrisponda per alcuni particolari ben distinti ad una serie di eventi reali futuri. Pertanto, associamo a tale corrispondenza una probabilità su 100.000; in altri termini, abbia99.999 mo ipotizzato che un sogno non sia premonitore con una probabilità P = 100.000 . Supponiamo, per semplicità, che i sogni si avverino indipendentemente e ipotizziamo che una persona si ricordi un sogno una mattina ogni due; la probabilità che 365 99.999 2 in un anno non si verifichi nessun sogno premonitore è P = e per 100.000 175 2.922 2 99.999 ∼ otto la probabilità diventa P = = 0, 985. 100.000 Si conclude che il 98,5% delle persone che ricordano il loro ultimo sogno una volta ogni due giorni nel corso di otto anni sperimentano soltanto sogni non premonito 2.922 2 99.999 ∼ ri; ciò significa anche che 1 − = 0, 014, cioè l’1, 4% di individui 100.000 che ricordano il loro ultimo sogno una volta ogni due giorni nel corso di otto anni sperimentano almeno una volta sogni premonitori; se consideriamo le persone che conosciamo o, meglio ancora, la popolazione della Terra, i sogni premonitori sono tantissimi. anni91 Conclusioni Come spero sia stato sufficientemente evidenziato dagli esempi precedenti, il calcolo delle probabilità può condurre a conclusioni sorprendenti. Spesso l’intuizione ci suggerisce l’attribuzione ad un evento una probabilità errata, che solo un’analisi approfondita smentisce e, a volte, ci conduce ad una realtà inattesa. Forse la prossima volta ci penseremo un po’ su prima di dire: “Incredibile!”. 91 un anno bisestile ogni quattro 176 Lista delle figure Elenco delle figure utilizzare e relativo copyright. Sarà utilizzato lo schema seguente: Figura num. figura, pag. num. riferimento – fonte pagina: riferimento num. Figura 1, pag. 10: rif. 2 – wikimedia commons Figura 2, pag. 11: rif. 1 – wikimedia commons Figura 3, pag. 12: rif. 2 – wikimedia commons Figura 4, pag. 13: rif. 2 – wikimedia commons Figura 5, pag. 14: rif. 2 – wikimedia commons Figura 8, pag. 29: rif. 1 – wikimedia commons Figura 9, pag. 30: rif. 1 – wikimedia commons Figura 10, pag. 32: rif. 3 – wikipedia Figura 11(a), pag. 33: rif. 2 – wikimedia commons Figura 11(b), pag. 33: rif. 2 – wikimedia commons Figura 12(a), pag. 34: rif. 2 – wikimedia commons Figura 12(b), pag. 34: rif. 2 – wikimedia commons Figura 13, pag. 35: rif. 1 – wikimedia commons Figura 14, pag. 35: rif. 4 – wikimedia commons Figura 15, pag. 40: rif. 2 – wikimedia commons Figura 16, pag. 41: rif. 2 – wikimedia commons Figura 38, pag. 85: rif. 1 – wikimedia commons Figura 42(a), pag. 95: rif. 1 – wikimedia commons Figura 42(b), pag. 95: rif. 1 – wikimedia commons Figura 44, pag. 97: rif. 5 – wikimedia commons Figura 45, pag. 98: rif. 1 – wikimedia commons Figura 46, pag. 99: rif. 1 – wikimedia commons Figura 47(a), pag. 101: rif. 1 – wikimedia commons Figura 47(b), pag. 101: rif. 1 – wikimedia commons Figura 48, pag. 102: rif. 1 – wikimedia commons 177 Figura 49(a), pag. 104: rif. 6 – wikimedia commons Figura 49(b), pag. 104: rif. 1 – wikimedia commons Figura 57, pag. 140: rif. 1 – wikimedia commons Figura 58, pag. 144: rif. 1 – wikimedia commons Figura 59, pag. 163: rif. 2 – wikimedia commons Tutte le altre immagini sono dell’autore, il cui copyright è rif. 1. Di seguito sono elencati i riferimenti utilizzati per i relativi copyright. 1. Permission is granted to copy, distribute and/or modify this document under the terms of the GNU Free Documentation License, Version 1.2 or any later version published by the Free Software Foundation; with no Invariant Sections, no Front-Cover Texts, and no Back-Cover Texts. A copy of the license is included in the section entitled GNU Free Documentation License 2. This image (or other media file) is in the public domain because its copyright has expired. This applies to the United States, Canada, the European Union and those countries with a copyright term of life of the author plus 70 years. 3. This work is licensed under the This work is licensed under the Creative Commons Attribution 3.0 License. Simplified human cone response curves, based on Dicklyon’s PNG version, itself based on data from Stockman, MacLeod & Johnson (1993) Journal of the Optical Society of America A, 10, 2491-2521d (log E human cone response, via http://www.cvrl.org/database/text/cones/smj2.htm) 4. This file is licensed under Creative Commons Attribution 2.5 License In short: you are free to distribute and modify the file as long as you attribute its author(s) or licensor(s). Author (3ucky(3all at en.wikipedia 5. This file is licensed under the Creative Commons Attribution ShareAlike 2.0 Belgium Licence. Author Alex lbh 6. The copyright holder of this image hereby irrevocably releases all rights to it, allowing it to be freely reproduced, distributed, transmitted, used, modified, built upon, or otherwise exploited in any way by anyone for any purpose, commercial or non-commercial. However, as a courtesy, a link back to Wikipedia (http://www.wikipedia.org/) would be appreciated. 178 Riferimenti bibliografici Di seguito ho fuso la bibliografia con la webografia per ottenere riferimenti maggiormente esaustivi. Per sua natura, la dinamicità del web impedisce la certezza temporale della disponibilità dei contenuti webografici, per cui mi scuso anticipatamente per eventuali errori. In ogni caso, per quanto possibile cercherò di mantenere tali url aggiornate. Segnalo che nella lettura dei riferimenti web, spesso si presenteranno link ugualmente importanti rispetto quelli indicati ma, per non provocare eventuale dispersività, ho proferito non menzionare quest’ultimi, riportando solo le voci che ho ritenuto essenziali. In ultimo, evidenzio che per molte delle url elencate di seguito, in particolare per quelle della wikipedia, sono disponibili anche versioni in italiano. Nonostante la loro disponibilità, ho comunque solitamente preferito riportare quelle in inglese, in quanto queste ultime sono più complete e spesso maggiormente aggiornate. La variabilità del mondo [Dul05] Renato Dulbecco. La mappa della vita. Sperling & Kupfer, 2005, p. 284. [Odi03] Piergiorgio Odifreddi. Zichicche. Pensieri su uno scienziato a cavallo tra politica e religione. Dedalo, 2003, p. 288. [Rep] Repubblica. ‘Caro Darwin, scusaci’ svolta nella Chiesa anglicana. URL : http : / / ricerca . repubblica . it / repubblica / archivio / repubblica / 2008 / 09 / 15 / caro - darwin scusaci-svolta-nella-chiesa-anglicana.html. [Sta] La Stampa. “Non abbiamo compreso la sua teoria” scuse della Chiesa anglicana a Darwin. URL: http : / / www . lastampa . it/redazione/cmsSezioni/esteri/200809articoli/ 36484girata.asp. 179 [UAA] UAAR. Chiesa anglicana chiede scusa a Darwin. URL: http : / / www.uaar.it/news/2008/09/15/chiesa- anglicanachiede-scusa-darwin/. [Wiki] Wikipedia. Charles Darwin. URL: http://en.wikipedia.org/ wiki/Charles_Darwin. [Wikp] Wikipedia. Creationist. URL: http : / / en . wikipedia . org / wiki/Creationist. [Wikt] Wikipedia. Evolution. URL: http : / / en . wikipedia . org / wiki/Evolution. [Wikag] Wikipedia. Jean Baptiste Lamarck. URL: http://en.wikipedia. org/wiki/Jean-Baptiste_Lamarck. [Wikas] Wikipedia. Origin of life. URL: http://en.wikipedia.org/ wiki/Origin_of_life. [Wikax] Wikipedia. Punctuated equilibrium. URL: http : / / en . wikipedia.org/wiki/Punctuated_equilibrium. [Zic06] Antonino Zichichi. Perchè io credo in Colui che ha fatto il mondo. Tra fede e scienza. Il Saggiatore, 2006, p. 246. Il mondo a colori [GS01] Karl R. Gegenfurtner e Lindsay T. Sharpe. Color vision: from genes to perception. Cambridge University Press, 2001, p. 504. [Wikb] Wikipedia. Additive color. URL: http://en.wikipedia.org/ wiki/Additive_color. [Wikk] Wikipedia. CMYK color model. URL: http://en.wikipedia. org/wiki/CMYK_color_model. [Wikl] Wikipedia. Color blindness. URL: http://en.wikipedia.org/ wiki/Color_blindness. [Wikm] Wikipedia. Color space. URL: http : / / en . wikipedia . org / wiki/Color_space. [Wikn] Wikipedia. Color theory. URL: http://en.wikipedia.org/ wiki/Color_theory. [Wiko] Wikipedia. Colorimetry. URL: http : / / en . wikipedia . org / wiki/Colorimetry. 180 [Wikac] Wikipedia. HSL and HSV. URL: http://en.wikipedia.org/ wiki/HSL_and_HSV. [Wikae] Wikipedia. Ishihara color test. URL: http : / / en . wikipedia . org/wiki/Ishihara_color_test. [Wikbg] Wikipedia. Subtractive color. URL: http : / / en . wikipedia . org/wiki/Subtractive_color. La coerenza dell’astrologia [Cav96] Mario Cavedon. Astronomia. Stock Libri S.p.A. su licenza della Arnoldo Mondadori S.p.A., 1996, p. 240. [Wikw] Wikipedia. Forer effect. URL: http : / / en . wikipedia . org / wiki/Forer_effect. [Zic03] Antonino Zichichi. Il vero e il falso. Il Saggiatore, 2003, p. 568. Il caos [AB] Eliana Argenti e Tommaso Bientinesi. Webfract. URL: http://www. webfract.it/FRATTALI/indice0.htm. [Bar06] Michael Barnsley. SuperFractals. Cambridge University Press, 2006, p. 464. [Bia04] Carlo Biasi. Caos Complessità Criticità. 2004. [CM] Marc Culler e Howard Masur. Fractals, Chaos and Complex Dynamics. URL : http://www.math.uic.edu/~culler/chaos/. [Gle00] James Gleick. Caos. La nascita di una nuova scienza. BUR, 2000, p. 352. [Ken] Norm Kenkel. Quantitative Plant Ecology Laboratory. URL: http:// www.umanitoba.ca/faculties/science/biological_ sciences/botany_lab/. [Kue05] Eric Kuennen. Chaotic Dynamics and Fractals. 2005, p. 55. [Lor63] Edward N. Lorenz. “Deterministic Nonperiodic Flow”. In: Journal of the Atmospheric Sciences 20.Issue 2 (1963), pp. 130–141. URL: http: / / journals . ametsoc . org / doi / abs / 10 . 1175 / 1520 0469%281963%29020%3C0130%3ADNF%3E2.0.CO%3B2. 181 [Man04] Paul Manneville. Instabilities, Chaos and Turbulence. An Introduction to Nonlinear Dynamics and Complex Systems. Imperial College Press, 2004, p. 408. [Per] Mark Pernarowski. Some “Numerical” Chaos Examples. URL: http: //www.math.montana.edu/~pernarow/M455/2005/Lab_ 3/lab3.html. [Poi08] H. Poincaré. Science et méthode. Flammarion, 1908. [Pri08] Ilya Prigogine. Le leggi del caos. Editori Laterza, 2008, p. 122. [Vul05] Angelo Vulpiani. Determinismo e Caos. Carrocci, 2005, p. 148. [Wikd] Wikipedia. Attractor. URL: http://en.wikipedia.org/wiki/ Attractor. [Wikh] Wikipedia. Chaos theory. URL: http://en.wikipedia.org/ wiki/Chaos_theory. [Wiks] Wikipedia. Edward Lorenz. URL: http://en.wikipedia.org/ wiki/Edward_Lorenz. [Wikx] Wikipedia. Fractal. URL: http://en.wikipedia.org/wiki/ Fractal. [Wikaf] Wikipedia. Iterated Function System. URL: http : / / en . wikipedia . org / w / index . php ? title = Iterated _ function_system. [Wikaj] Wikipedia. L-system. URL: http : / / en . wikipedia . org / w / index.php?title=L-system. [Wikan] Wikipedia. Lorenz attractor. URL: http://en.wikipedia.org/ wiki/Lorenz_attractor. La matematica della bellezza [Bar02] John D. Barrow. L’universo come opera d’arte. BUR, 2002, p. 346. [Ero] Erodoto. Erodoto Storie II. URL: http : / / www . scribd . com / doc/6635476/Erodoto- Storie- i- II- III- IV- v- ViVii. [Liv07] Mario Livio. La sezione aurea - Storia di un numero e di un mistero che dura da tremila anni (The Golden Ratio - The Story of Phi, the World’s Most Astonishing Number). BUR (Broadway Books), 2007, p. 416. 182 [Mar] George Markowsky. Misconceptions about the Golden Ratio. URL: http://www.umcs.maine.edu/~markov/GoldenRatio. pdf. [Weib] Eric W. Weisstein. Golden Ratio. from MathWorld–A Wolfram Web Resource. URL: http : / / mathworld . wolfram . com / GoldenRatio.html. [Wiku] Wikipedia. Fermat’s spiral. URL: http://en.wikipedia.org/ wiki/Fermat’s_spiral. [Wikv] Wikipedia. Fibonacci number. URL: http : / / en . wikipedia . org/wiki/Fibonacci_number. [Wikz] Wikipedia. Golden ratio. URL: http://en.wikipedia.org/ wiki/Golden_ratio. [Wikbh] Wikipedia. Sunflower. URL: http : / / en . wikipedia . org / wiki/Sunflower. [Zoc] Alessandro Zocchi. La sezione aurea (Enciclop). URL: http://www. cicap.org/new/articolo.php?id=101948. Il numero più grande [Weia] Eric W. Weisstein. Arrow Notation. from MathWorld–A Wolfram Web Resource. URL: http : / / mathworld . wolfram . com / ArrowNotation.html. [Weic] Eric W. Weisstein. Steinhaus-Moser Notation. from MathWorld–A Wolfram Web Resource. URL: http://mathworld.wolfram. com/Steinhaus-MoserNotation.html. [Wikaa] Wikipedia. Graham’s number. URL: http : / / en . wikipedia . org/wiki/Graham’s_number. [Wikai] Wikipedia. Knuth notation. URL: http://en.wikipedia.org/ wiki/Knuth_notation. [Wikay] Wikipedia. Ramsey theory. URL: http://en.wikipedia.org/ wiki/Ramsey_theory. [Wikbd] Wikipedia. Steinhaus-Moser notation. URL: http : / / en . wikipedia.org/wiki/Steinhaus-Moser_notation. 183 Quando è iniziato il nuovo millennio [Cla] Lopresti Claudio. La qeustione dell’anno zero. URL: http : / / digilander.libero.it/elam/bibbia/annozero.htm. [Wikr] Wikipedia. Dionigi il Piccolo. URL: http : / / it . wikipedia . org/wiki/Dionigi_il_Piccolo. [Wikab] Wikipedia. Gregorian calendar. URL: http://en.wikipedia. org/wiki/Gregorian_calendar. [Wikbb] Wikipedia. Sistema di numerazione. URL: http : / / it . wikipedia.org/wiki/Sistema_di_numerazione. [Wikbl] Wikipedia. Zero. URL: http : / / it . wikipedia . org / wiki / Zero. [Zic02] Antonio Zichichi. L’irresistibile fascino del Tempo. Il Saggiatore, 2002, p. 299. La casualità [Arg] Daniele Argento. Registri a scorrimento lineari. URL: http://www. dia.uniroma3.it/~dispense/rota/LFSR.pdf. [Cha75] Gregory J. Chaitin. “Randomness and Mathematical Proof”. In: Scientific American 232.5 (1975), pp. 47–52. URL: http://www.cs. auckland.ac.nz/~chaitin/sciamer.html. [Haa] Mads Haahr. Random.org. URL: http://www.random.org. [sem] Maxim/Dallas semiconductor. Pseudo-Random Number Generation Routine for the MAX765x Microprocessor. URL: http : / / www . maxim-ic.com/app-notes/index.mvp/id/1743. [unka] unknown. Linear Feedback Shift Registers. URL: http : / / homepage.mac.com/afj/lfsr.html. [unkb] unknown. Tap Sequences. URL: http://homepage.mac.com/ afj/taplist.html. [Wal] John Walker. HotBits: Genuine random numbers, generated by radioactive decay. URL: http : / / www . fourmilab . ch / hotbits/. [Wikal] Wikipedia. Linear congruential generator. URL: http : / / en . wikipedia . org / wiki / Linear _ congruential _ generator. 184 [Wikam] Wikipedia. Linear feedback shift register. URL: http : / / en . wikipedia . org / wiki / Linear _ feedback _ shift _ register. La crittografia [BB96] Luigia Berardi e Albrecht Beutelspacher. Crittologia. FrancoAngeli, 1996, p. 194. [Bia09] Carl Bialik. Coincidental Obscenity Deemed Extremely Dubious. 5 Nov. 2009. URL: http : / / online . wsj . com / article / SB125737663000529407.html. [CS09] Thomas W. Cusick e Pantelimon Stănică. Cryptographic Boolean Function and Applications. Academic Press - Elsevier, 2009, p. 245. [Nee] Chris Neel. Steganografia. URL: http://www.chrisneel.it/ rubriche/steganografia/index.htm. [PD04] Larry L. Peterson e Bruce S. Davie. Reti di calcolatori. Apogeo, 2004, p. 696. [Poem1] Edgar Allan Poe. An Acrostic. ∼1829. URL: http://www.eapoe. org/works/poems/acrstca.htm. [Sil09] Mark Silva. “Steganography”. In: (28 ott. 2009). URL: http://www. swamppolitics . com / news / politics / blog / 2009 / 10 / schwarzenegger_veto_you.html. [Sin99] Simon Singh. Codici & Segreti. BUR, 1999, p. 420. [Ten03] Andrew S. Tenenbaum. Reti di calcolatori. Pearson Education Italia Srl, 2003, p. 894. [TW06] John Talbot e Dominic Welsh. Complexity and Cryptography. An Introduction. Cambridge University Press, 2006, p. 305. [Wika] Wikipedia. Acrostic. URL: http://en.wikipedia.org/wiki/ Acrostic. [Wikc] Wikipedia. Alberti cipher. URL: http://en.wikipedia.org/ wiki/Alberti_cipher. [Wike] Wikipedia. Block cipher. URL: http : / / en . wikipedia . org / wiki/Block_cipher. [Wikg] Wikipedia. Caesar cipher. URL: http://en.wikipedia.org/ wiki/Caesar_cipher. 185 [Wikq] Wikipedia. Cryptographic hash function. URL: http : / / en . wikipedia.org/wiki/Cryptographic_hash_function. [Wiky] Wikipedia. Frequency analysis. URL: http://en.wikipedia. org/wiki/Frequency_analysis. [Wikad] Wikipedia. Index of coincidence. URL: http://en.wikipedia. org/wiki/Index_of_coincidence. [Wikah] Wikipedia. Kasiski examination. URL: http://en.wikipedia. org/wiki/Kasiski_examination. [Wikao] Wikipedia. MD4. URL: http://en.wikipedia.org/wiki/ MD4. [Wikap] Wikipedia. MD5. URL: http://en.wikipedia.org/wiki/ MD5. [Wikar] Wikipedia. One-time pad. URL: http://en.wikipedia.org/ wiki/One-time_pad. [Wikav] Wikipedia. Public key certificate. URL: http://en.wikipedia. org/wiki/Public_key_certificate. [Wikaw] Wikipedia. Public-key cryptography. URL: http : / / en . wikipedia.org/wiki/Public-key_cryptography. [Wikaz] Wikipedia. Scytale. URL: http://en.wikipedia.org/wiki/ Scytale. [Wikba] Wikipedia. SHA-2. URL: http://en.wikipedia.org/wiki/ SHA-2. [Wikbc] Wikipedia. Steganography. URL: http://en.wikipedia.org/ wiki/Steganography. [Wikbe] Wikipedia. Stream cipher. URL: http://en.wikipedia.org/ wiki/Stream_cipher. [Wikbf] Wikipedia. Substitution cipher. URL: http : / / en . wikipedia . org/wiki/Substitution_cipher. [Wikbi] Wikipedia. Symmetric-key algorithm. URL: http : / / en . wikipedia.org/wiki/Symmetric-key_algorithm. [Wikbj] Wikipedia. Transposition cipher. URL: http://en.wikipedia. org/wiki/Transposition_cipher. 186 L’evoluzione della definizione probabilistica [Wikf] Wikipedia. Bruno de Finetti. URL: http://it.wikipedia.org/ wiki/Bruno_de_Finetti. [Wikat] Wikipedia. Probability theory. URL: http : / / en . wikipedia . org/wiki/Probability_theory. L’intuizione e il calcolo probabilistico [Pau] John Allen Paulos. John Allen Paulos and Sporadic Exponent. URL: http://www.math.temple.edu/~paulos/. [Ven] Let’s Make A Deal (A Joint Venture). Let’s Make a Deal. URL: http: //www.letsmakeadeal.com/. [Wikak] Wikipedia. Let’s Make a Deal. URL: http : / / it . wikipedia . org/wiki/Let’s_Make_a_Deal. [Wikaq] Wikipedia. Monty Hall problem. URL: http://en.wikipedia. org/wiki/Monty_Hall_problem. Altre letture Di seguito sono elencate ulteriori letture che, anche se non espressamente citate nel testo, forniscono interessanti punti di vista su aspetti trattati o comunque correlati a quelli esaminati. [JW05] Rob Eastaway e Jeremy Wyndham. Coppie, numeri e frattali. Dedalo, 2005, p. 272. [Pen00] Roger Penrose. La mente nuova dell’imperatore. BUR, 2000, p. 646. 187