Alberto F. De Toni, Luca Comello
Prede o ragni
Uomini e organizzazioni nella
ragnatela della complessità
UTET, Torino 2005
Parte Prima
Lo stato dell’arte: dalla scienza
classica alla teoria della complessità
•
•
•
•
I sistemi complessi
La scienza classica
I concetti di Prigogine
La teoria della complessità
Parte seconda
Modello proposto: i sette principi
della teoria della complessità
1.
2.
3.
4.
5.
6.
7.
auto-organizzazione
orlo del caos
principio ologrammatico
impossibilità di previsione
potere delle connessioni
causalità circolare
apprendimento try&learning
PARTE PRIMA
1. I sistemi complessi
• Cos’è un sistema complesso?
È un sistema composto da molte parti
differenziate, organizzate gerarchicamente
(un esempio è il corpo umano), fra le quali
intercorre una fitta rete di relazioni “nonlineari”.
(“Non-linearità” è un concetto matematico che indica la
non integrabilità (nel senso del calcolo integrale) delle
funzioni che descrivono il sistema).
• Esempi di sistemi complessi
– Il nostro cervello
– Il tempo meteorologico
– Il sistema economico
– I gruppi di persone
– I linguaggi
– Gli organismi viventi
– Ecc.
Le colonie di formiche: un «superorganismo»?
Formiche che per evitare degli annegamenti di massa nelle foreste pluviali si
aggrappano l’una all’altra formando delle enormi zattere con i loro corpi
Formica palombaro
Anche una sola formica
- come quella nella foto,
stretta in vita e messa
sott'acqua - riesce a
galleggiare, grazie ai
suoi peli cerosi che
intrappolano l'aria
attorno al corpo
dell'insetto.
Fotografia per gentile
concessione David Hu e
Nathan J.Mlot
National Geographic
Italia
David Hu e Nathan J. Mlot (del Georgia Institute of Technology) sono
venuti a conoscenza di zattere di formiche che hanno retto per
settimane. "Raccolgono tutte le uova della colonia e quando l'acqua
sale formano la zattera", dice Mlot. I ricercatori hanno raccolto le
formiche e ne hanno bagnato una parte per vedere cosa accadeva.
In meno di due minuti le formiche si sono strette tra loro formando una
struttura galleggiante in grado di salvare tutti gli insetti. Anche le
formiche che stanno sotto riescono a sopravvivere, grazie ai piccoli peli
sul corpo delle formiche che intrappolano un sottile strato d'aria.
"Anche quando sono alla base della zattera, non sono mai
completamente sommerse dall'acqua", dice Mlot.
La ricerca è pubblicata su Proceedings of the National Academy of
Sciences. 3
• La colonia di formiche è un sistema complesso, composto a
sua volta da sistemi complessi (le singole formiche)
• La colonia di formiche è in grado di subire notevoli
perturbazioni ritrovando sempre, dinamicamente, un nuovo
equilibrio
• La colonia di formiche riesce a sviluppare comportamenti di
cui la singola formica non sarebbe capace
• Le colonie di comportamento in modo non prevedibile a priori
in modo dettagliato: non è dato sapere dove si dirigerà, ad
esempio, per trovare cibo
• Le formiche non sono governate gerarchicamente dall’alto in
basso (la regina non svolge funzioni di leader), ma adottano
un funzionamento bottom-up
• In un sistema complesso, le parti non sono
semplicemente una accanto all’altra: esse
sono in grado di sviluppare comportamenti
collettivi.
• Si dice che tali sistemi si “autoorganizzano”
– Ad esempio, i teorici dei sistemi complessi (come
Phil Anderson, Stuart Kauffman) hanno
ipotizzato che la nascita della vita sulla terra sia
iniziata per «autocatalisi», ovvero per
autoorganizzazione, in presenza di determinate
caratteristiche e condizioni, di un aggregato
maggiore della somma dei costituenti
• Si parla poi di sistemi complessi adattativi
(Complex Adaptive System) quando ci
sono molti «agenti» che operano in
parallelo, lasciandosi influenzare l’uno
dall’altro
→ si parla anche di sistemi «multi-agenti»
perché si assume che le parti che vanno a
costituire il «tutto» non sia parti semplici, ma,
appunto, «agenti», capaci di giocare un ruolo
attivo.
→ i sistemi multiagenti si organizzano e si
riorganizzano costantemente in strutture più
vaste attraverso l’incontro di reciproco e in
base a meccanismi di accomodamento
e rivalità, cooperazione e
competizione
• Tali sistemi complessi sono detti «adattivi»
perché sono «vivi», cioè in grado di tenere
conto di ciò che avviene nell’ambiente e di
ristrutturarsi di conseguenza
Ogni organismo vivente è un Complex Adaptive System. In
un mammifero quale l’essere umano, anche il sistema
immunitario è un sistema di questo tipo. Il suo effetto è
qualcosa di simile all’evoluzione biologica, ma in una scala
temporale più veloce (se fossero necessari centinaia di anni
per sviluppare gli anticorpi ai batteri, ci troveremmo in guai
seri). Il processo di elaborazione del pensiero e
dell’apprendimento nell’essere umano è anch’esso un
sistema adattativo complesso. Anche le aggregazione di
esseri umani possono essere esempi di sistemi adattativi
complessi […]: le società, le aziende, le imprese scientifiche
e così via (Murray Gell-Mann, 2002)
• Come spiega John H. Holland – l’economista
dell’Istituto di Santa Fe – (Waldrop, 1992, tr. it.
2002, pp. 223 ss.) “sistemi complessi adattativi” si
possono trovare dappertutto, una volta che si sia
imparato a riconoscerli.
– innanzitutto ognuno di tali sistemi è formato da una
rete di molti agenti che operano in parallelo. Ogni
agente agisce e reagisce in base al comportamento
degli altri agenti;
– ne segue che il controllo in un sistema adattivo
tende a essere molto decentrato (ad es. nel
cervello non c’è un neurone centrale). Se il sistema
deve presentare un comportamento coerente, questo
dipenderà dalla competizione e dalla cooperazione
fra gli agenti stessi;
– un sistema adattivo complesso ha numerosi
livelli di organizzazione, dove gli agenti di un
livello servono da mattoni per gli agenti di un
livello superiore. Per Holland era centrale l’idea
che i sistemi complessi adattativi, accumulando
esperienza, continuano a riesaminare e riordinare
i loro mattoni.
– I sistemi complessi adattativi sono in grado di
prevedere il futuro; più in generale ogni sistema
complesso adattivo fa costantemente ipotesi
fondate basandosi sui suoi diversi modelli
interni del mondo.
– Per Holland un sistema complesso ha varie
nicchie, che può essere sfruttata da un agente
atto a occuparla (ad esempio nel sistema
economico odierno c’è posto per gli idraulici, ma
anche per i negozi di animali tropicali). L’atto stesso
di riempire una nicchia permette di aprirne altre: per
nuovi parassiti, nuovi predatori e prede, nuovi
partner simbiotici. Questo crea nuove opportunità.
→Non ha pertanto senso parlare di equilibrio di un
sistema complesso giacché non può concepirsi se
non in sviluppo, transizione. Qualora il sistema
dovesse raggiungere una posizione di equilibrio,
sarebbe morto.
– Inoltre, sottolinea Holland, non ha neanche senso
pensare che gli agenti possano “ottimizzare” il
loro adattamento, la loro utilità o qualsiasi altro
aspetto del sistema.
• La gamma delle possibilità è troppo ampia, non si hanno
mezzi pratici per raggiungere la condizione migliore. Al
massimo possono migliorare la relazione con altri agenti.
– La continua novità che caratterizza l’essenza dei
sistema dinamici spiega la difficoltà cin cui ci si
imbatte nel trattarli matematicamente. La matematica
lineare si adatta a particelle immutabili in un
ambiente fisso.
• Per comprendere appieno l’economia complessa, o i
sistemi adattativi in generale, occorrono simulazioni che
tengano conto dei modelli interni, della presenza di nuovi
mattoni, della ricca rete di interazioni fra agenti.
• Quindi:
– Sistema complesso = molte parti;
relazioni non lineari
– Sistema adattativo complesso = molte
parti «agenti»; relazioni non lineari
Si suol dire che i sistemi
complessi sono:
– Robusti/resilienti
– Dotati di «intelligenza collettiva»,
organizzati in modo non gerarchico secondo
logiche bottom-up (e non top-down)
– in grado sia di auto-organizzarsi, sia di
interagire con l’ambiente (etero-organizzarsi)
→ «auto-eco-organizzazione»
–Prevedibili e controllabili solo per
approssimazione e in condizioni vicine
all’equilibrio
Linearità e non-linearità
• “Linearità” è un concetto matematico che indica
che «esiste al più una soluzione di un’equazione
differenziale con condizioni iniziali assegnate»
(Stewart, 2008, tr. pt. p. 348) e che, pertanto le
funzioni che descrivono il sistema sono integrabili
(nel senso del calcolo integrale).
• Intuitivamente, nella linearità si ha una
proporzionalità fra le grandezze in gioco. La fisica
deterministica si basa sulla linearità, perché
assume che il legame fra cause ed effetti sia di
tipo proporzionale ed esprimibile utilizzando leggi
deterministiche (Bertuglia, Vaio, 2003)
• Tale «proporzionalità» viene meno quando
siamo in condizioni di «non-linearità».
→I sistemi non lineari di solito non cambiano
gradualmente ma attraversano delle soglie
critiche dopo le quali la loro struttura o il loro
comportamento cambia drasticamente…(A.
Pluchino)
→Si parla allora di livelli di soglia,
biforcazioni, transizioni di fase…
• Ora, occorre considerare che tutti i sistemi
reali sono non-lineari. Essi possono essere
trattati come lineari solo quando sono in
condizioni prossime all’equilibrio.
– In queste condizioni, le piccole fluttuazioni a cui il
sistema è intrinsecamente soggetto risultano
trascurabili e il sistema può essere «linearizzato».
Tale linearizzazione è importante perché rende
il sistema calcolabile e possono essere così
utilizzati modelli matematici per la previsione
del suo comportamento.
• Tale «forzatura» della dinamica del sistema entro
un modello matematico che ne consenta la
calcolabilità perde quindi la sua efficacia man
mano che ci allontaniamo dall’equilibrio: quelle
piccole grandezze che in condizioni di equilibrio
potevano essere trascurate e «linearizzate»
iniziano a incidere in maniera consistente
sull’evoluzione del sistema.
– Infatti, come per primo ha mostrato Poincaré e più
recentemente, tra gli altri, Prigogine, un sistema
lontano dallo stato di equilibrio è caratterizzato da
notevole non linearità e presenta aspetti che ne
rendono l’evoluzione particolarmente ricca di interesse
per le imprevedibili nuove situazioni che si possono
presentare (Bertuglia, Vaio, 2003, p. 55).
La scienza classica si è rivolta con molto interesse alle
equazioni differenziali lineari per una ragione molto
semplice: a parte alcune eccezioni, queste sono le
uniche di ordine superiore al primo che si sanno risolvere
analiticamente.
(Bertuglia, Vaio, 2003, p. 55)
• La linearità pareva “elegante” e ciò creò
una condizione in virtù della quale si
trattavano i problemi linearizzabili.
La storiella dell’ubriaco
Linearizzare anche laddove non è possibile solo
perché sappiamo utilizzare quel tipo di matematica
è un modo di agire che ricorda la storiella
dell’ubriaco che, di notte, cerca per terra, sotto un
lampione acceso, la chiave di casa cadutagli. Un
passante gli chiede dove ha perso la chiave e
questi risponde “laggiù”, indicando un posto più
lontano, al buio. Il passante chiede perplesso:
“Allora perché la cerchi qui, se l’hai persa là?”. E
l’ubriaco: “Perché qui c’è luce e riesco a vedere, là
c’è buio e non vedo niente!”.
• Del Signore di Balliol si diceva: «ciò che
egli non sa non è conoscenza» (cit. in
Barrow, 1991, tr. It 1992, p. 371)
→ Così è la linearità: fornisce belle e facili
soluzioni che però sono, sovente almeno, fuori
mira rispetto ai problemi che vorrebbero
risolvere, e quindi sostanzialmente sbagliate
(Bertuglia, Vaio, 2003, p. 265, n.).
• La matematica è una disciplina astratta,
frutto dell’attività speculativa della mente
umana, che tratta di enti oggettivi, ma non
reali, nel senso consueto del termine
(Giusti, 1999).
• La matematica è un’arte di creare
modelli, scheletri della realtà, distillando
descrizioni che si adattano all’interazione
uomo-mondo.
• Quindi, per prevedere la realtà, si costruisce un
modello che corrisponde alla scelta di aspetti della
realtà che ci interessano e lo si esprime utilizzando
un formalismo matematico. Poi, e questo è uno degli
aspetti più interessanti della questione, si costruisce
una teoria di quella particolare matematica utilizzata
nel modello (ad esempio, le equazioni differenziali
lineari o non lineari, gli automi cellulari, il calcolo
tensoriale, la geometria frattale ecc.). L’utilizzo della
matematica consente, allora, di operare sul modello
generando dei risultati (Bertuglia, Vaio, 2003).
→ occorre però fare attenzione a non
confondere il modello con la realtà.
• Sin dalla comparsa della scienza sono stati
costruiti modelli matematici per tentare di
descrivere e prevedere i fenomeni. Questi
modelli furono un tempo considerati
totalmente predittivi del reale. Ora, le
aspettative sono più limitate: ci si aspetta che
siano in grado di prevedere alcuni aspetti dei
fenomeni (Bertuglia, Vaio, 2003).
• Questa capacità della matematica di “manipolare” un
modello fornendo dei dati riscontrabili nella realtà è
sorprendente. È successo sovente che conti fatti su
un foglio abbiano anticipato le osservazioni, nel senso
che risultati apparentemente incredibili sono stati
confermati in seguito dalle verifica sperimentale.
Eugen Paul Wigner, premio Nobel per la fisica nel
1963, affermò che “l’enorme utilità della matematica
nelle scienze naturali è qualcosa che rasenta il
mistero […] non vi è alcuna spiegazione razionale di
ciò” (The Unreasonable Effectiveness of Mathematics
in the Natural Science, N.Y. 1960).
Come dice Vulpiani (1994), la matematica, forse, è potuta sorgere
perché esistiamo su un pianeta in cui i modelli lineari predicono
abbastanza bene la realtà. La geometria euclidea ha potuto
affermarsi ed essere considerata “la” geometria per 2000 anni
nonostante il fatto che la terra è rotonda. Se vivessimo in uno
spazio in cui le curvature sono molto più evidenti e meno
trascurabili forse avremmo fin dall’inizio sviluppato una geometria
di tipo non euclideo; lo stesso vale se vivessimo su un pianeta
molto più caldo, dove le fluttuazioni dovute al movimento delle
particelle (molecole, ioni…) fossero molto più elevate: in questo
caso non avremmo probabilmente sviluppato una modalità lineare
di descrivere fenomeni. Oppure non avremmo neppure creato uno
strumento come la matematica per effettuare astrazioni a fronte di
un mondo troppo imprevedibile. Ma, forse, su quel pianeta molto
caldo, con fluttuazioni eccessive causate dalle alte temperature, la
vita non si sarebbe nemmeno prodotta, perché temperature troppo
alte non avrebbero permesso il formarsi degli aggregati
molecolari, di cui siamo composti.
2. Un percorso tra
i giganti
http://images1.wikia.nocookie.net/__cb20071123110226/nonciclopedia/images/6/60/Archimede_nella_vasca_da_bagno.jpg
Per Aristotele il moto fisico (o moto locale) non era una
quantità o una forza, bensì una sorta di mutamento,
esattamente come la crescita di una persona. Un grave
in caduta sta semplicemente cercando il suo luogo
naturale, quello che raggiungerà se non sarà impedito da
ostacoli.
Galileo, invece, quando guardava un pendolo vedeva
una regolarità: aveva una teoria che glielo permetteva.
Questa teoria aveva una forza tale da fargli vedere una
regolarità che non esisteva, se non utilizzando delle
approssimazioni. Per Galilei, trascurando gli attriti, le
piume cadono veloci quanto i sassi e i pendoli non si
fermano mai. Nella realtà i pendoli si comportano come
pensava Aristotele: si fermano (Gleick, tr. it. 1989, p. 43).
Si esagera appena nel dire che il 28 aprile 1686 fu una delle
più grandi date nella storia dell’umanità. Quel giorno Newton
presentò i suoi Principia alla Royal Society di Londra. Essi
contenevano le leggi fondamentali del moto insieme ad una
chiara formulazione di alcuni dei concetti basilari che ancor
oggi usiamo, quali la massa, l’accelerazione, l’inerzia. Fu
probabilmente il terzo libro dei Principia ad esercitare le più
forti influenze; quel système du monde che conteneva la
legge di gravitazione universale. I contemporanei di Newton
afferrarono immediatamente l’eminente importanza di questo
lavoro. La gravitazione divenne un argomento di
conversazione a Londra e a Parigi. (Prigogine, Stengers,
1979, tr. it. 1981, p. 3)
La scienza classica
Galilei
↓
Newton
il mondo come «tavola da biliardo»: la dinamica
di tutti gli oggetti si basa su pochi assunti:
– «massa»
– «accelerazione»
– «forza»
I principi di Newton
1. Ciascun corpo prosegue nel suo stato di quiete o di
moto rettilineo uniforme, salvo che non sia sottoposto a
forze applicate ad esso;
2. Il cambiamento di moto di un corpo è proporzionale alla
forza ad esso applicata, ed avviene lungo la linea retta
secondo la quale la forza stessa è stata esercitata
3. Ad ogni azione corrisponde una reazione uguale e
contraria
• Per la meccanica di Newton i sistemi sono:
1. in equilibrio, a meno che non intervengano forze a
turbare l’equilibrio.
• Es. un’auto sta ferma se non interviene la forza del motore a
spostarla; un corpo nel vuoto, senza attriti, o sta fermo o si
muove di moto rettilineo uniforme
2. isolabili dall’ambiente
• Es. per conoscere la velocità massima di un’auto, calcolerò
la potenza del motore, gli attriti e altre variabili come la
temperatura esterna, la presenza di vento ecc. Calcolate
tutte queste variabili, posso definire il sistema di forze a cui è
sottoposta l’auto e calcolare la sua velocità.
3.deterministici: stabilite le forze in gioco, i sistemi
sono completamente calcolabili. La non-calcolabilità di
alcune forze non è tale per principio, ma perché manca
tempo per farlo
4. lineari: le equazioni che descrivono il sistema
ipotizzano variazioni continue, lineari.
5. conservativi dell’energia: l’energia non si crea e non
si distrugge: si trasforma
6. reversibili: il tempo definisce la quantità di momenti
che servono perché si compia un certo processo.
- es. Se un’auto passa da 50 km/h a 100 km/h in 10 s ha una certa
accelerazione; se impiega 5 s ha un’accelerazione doppia
Tuttavia, tale tempo è quantitativo, e non ha una
«freccia»: una volta successo qualcosa, nulla esclude
che possa avvenire lo stesso processo all’indietro:
l’auto che ha accelerato può decelerare e trovarsi
esattamente nello stesso stato fisico precedente
7. ordinati: tutto è «meccanicamente» stabilito e nulla
sfugge da tale logica meccanica (cfr. Laplace)
• Per la teoria della complessità, invece, i sistemi
sono:
1. Sempre in disequilibrio, e solo per
approssimazione e in determinate condizioni in
cui non sono particolarmente «eccitati» possono
essere considerati in equilibrio
2. non isolabili dall’ambiente
3. non deterministici
4. non lineari
5. non reversibili: Prigogine contrappone il temporeale della biologia e tempo-illusione della fisica
6. In parte ordinati e in parte disordinati
contemporaneamente
Teoria della relatività /
Meccanica quantistica
La teoria della relatività ha rappresentato un grande
passo avanti rispetto alla dinamica dei corpi della
fisica newtoniana, ma rimane entro un approccio di
tipo deterministico.
– Per la fisica classica (Galilei, Newton) le leggi della fisica
sono le stesse in ogni sistema di riferimento inerziale
(due osservatori sono «inerziali» se si muovono l’uno
rispetto all’altro di moto rettilineo uniforme).
– Newton postulò l’esistenza di uno spazio e a un tempo
assoluti, che cioè sono gli stessi per tutti i sistemi inerziali*.
* In seguito a questo assunto, si parlò dell’esistenza di un «etere», ovvero
di una sostanza trasparente, impalpabile, legata alle stelle fisse. Tutti i
sistemi inerziali hanno quindi un moto rispetto all’etere.
Legge di composizione delle velocità secondo la meccanica
classica: Se un corpo ha velocità v rispetto ad un riferimento S che si
muove con velocità w rispetto ad un altro riferimento S', allora la velocità
v' del corpo rispetto al riferimento S' è: v' = v + w (somma vettoriale)
– Es. se due auto procedono in direzione opposta lungo un’autostrada alla
velocità di 100 km/h ognuna, la loro velocità relativa sarà di 200 km/h.
Per la teoria della relatività è, sì, vero che
1. «le leggi della fisica hanno la stessa forma in
tutti i sistemi di riferimento inerziali»
ma è anche vero che
2. «la luce ha una velocità finita sempre uguale in
tutti i sistemi di riferimento inerziali».
• Se le auto dell’esempio precedente fossero astronavi che
procedessero, rispetto a una persona che le osserva dal
bordo della strada, l’una a una velocità di 0,8 c (c =
velocità della luce  300.000 km/s) e l’altra alla velocità di
0,4 c, i conducenti delle due astronavi non si
percepirebbero come viaggianti a 0,8 c + 0,4 c = 1,2 c.
• Infatti occorre utilizzare la formula di composizione
delle velocità prevista dalla teoria della relatività:
Applicando tale formula si evince che le astronavi si
percepiscono viaggiare a 0,91 c. In ogni caso, infatti, la
velocità della luce non può essere superata.
• La meccanica quantistica si basa invece sul
principio di indeterminazione di Heisenberg
e sulla teoria ondulatoria di De Broglie:
– il primo afferma che non è possibile
determinare contemporaneamente velocità e
posizione di una particella;
– il secondo sancisce che le particelle si
comportano sia come corpuscoli che come
onde.
Dualismo onda-particella della luce
Fonte: scienze-como.uninsubria.it/morosi/presentCF/DUAL.ppt
Fotoni
• La meccanica quantistica si distingue in
maniera radicale dalla meccanica classica in
quanto si limita a esprimere la probabilità di
ottenere un dato risultato a partire da una certa
misurazione, secondo l'interpretazione datane
da Niels Bohr, rinunciando così al determinismo
assoluto proprio della fisica precedente.
La teoria quantistica è stata il primo esempio di
teoria essenzialmente statistica.
Bohm
(1997, p. 96)
• Questa condizione di incertezza o
indeterminazione non è dovuta a una
conoscenza incompleta, da parte dello
sperimentatore, dello stato in cui si trova il
sistema fisico osservato, ma è da
considerarsi una caratteristica
intrinseca, quindi ultima e ineliminabile,
del sistema e del mondo subatomico in
generale.
Paradosso del gatto di Schrödinger
• Per mostrare come l’interpretazione di Copenhagen
dell’indeterminazione proposta da Niels Bohr avesse
conseguenze insostenibili, Schrödinger si divertì a proporre un
esperimento, mai realizzato concretamente, nell’ambito del
quale egli ipotizza di rinchiudere…
«…un gatto in una scatola d’acciaio insieme alla seguente macchina
infernale (che occorre proteggere dalla possibilità d’essere afferrata
direttamente dal gatto): in un contatore Geiger si trova una minuscola
porzione di sostanza radioattiva, così poca che nel corso di un’ora
forse uno dei suoi atomi si disintegrerà, ma anche, in modo parimenti
probabile, nessuno; se l'evento si verifica il contatore lo segnala e
aziona un relais di un martelletto che rompe una fiala con del cianuro.
Dopo avere lasciato indisturbato questo intero sistema per un’ora, si
direbbe che il gatto è ancora vivo se nel frattempo nessun atomo si
fosse disintegrato, mentre la prima disintegrazione atomica lo avrebbe
avvelenato. La funzione Ψ dell’intero sistema porta ad affermare che in
essa il gatto vivo e il gatto morto non sono stati puri, ma miscelati con
uguale peso» (Erwin Schrödinger)
• Von Neumann dimostrò nel 1926 che la
meccanica quantistica non può essere ricavata per
approssimazione statistica da una teoria
deterministica del tipo di quelle usate nella
meccanica classica.
↓
Il risultato di von Neumann inaugurò una linea di
ricerca che, passata attraverso il teorema di John
Bell del 1964 e gli esperimenti di Alain Aspect del
1982, ha mostrato come la fisica quantistica
richieda una nozione di realtà sostanzialmente
diversa da quella della fisica classica (Odifreddi).
F. Capra (2001, p. 41) spiega come segue la differente
realtà a cui fa riferimento la meccanica quantistica:
Le particelle subatomiche non hanno alcun significato come
entità isolate, ma si possono comprendere solo come
interconnessioni, o correlazioni, fra processi di osservazione e
misurazione, in altre parole, le particille subatomiche non sono
«cose», ma interconnessioni fra cose, e queste, a loro volta,
sono interconnessioni fra altre cose, e così via. Nella teoria dei
quanti non giungiamo mai a trovare delle «cose»; abbiamo
sempre a che fare con interconnessioni […] Per usare le parole
di Werner Heisenberg, uno dei fondatori della teoria dei quanti,
«il mondo appare così come un complicato tessuto di eventi, i
cui rapporti di diversi tipi si alternano, si sovrappongono o si
combinano, determinando in tal modo la struttura del tutto.
• Ad oggi, le due grandi teorie fisiche –
relatività e meccanica quantistica – non sono
state integrate in una «teoria del tutto».
– A tentare una conciliazione in tal senso è la
teoria delle stringhe a cui molti fisici stanno
lavorando da decenni. Essa sostiene che alla
base della realtà non ci sono particelle nucleari
note ma delle vibrazioni: differenti vibrazioni
generano tutte le particelle subatomiche
conosciute, dai quark ai gluoni. E le stringhe
esistono in uno spazio di 10, forse 11
dimensioni, prospettando così l’esistenza di
mondi paralleli a quello in cui viviamo.
• Il fisico italiano Tullio Regge è molto critico
nei confronti della «moda» delle «Teorie del
tutto». Egli ritiene che ogni nuovo paradigma
non possa essere quello risolutivo, ma che
non faccia altro che spostare un po’ più
avanti la frontiera della conoscenza. Ci
permette di capire nuove cose, ma non tutte:
ci sarà sempre da scoprire qualcos’altro…
…la mia è, se vuole, una forma di religione, un
dogma […] Questa idea che il Principio è
irraggiungibile dovrebbe piacere ai preti... (2011)
La sola menzione dell’infinito procura a molti angosce e
senso di insicurezza. Per me invece l’universo chiuso con i
suoi miseri 1063 km3 di volume ad essere fonte di noia e
claustrofobia. L’universo è infinito non solamente nella
sua durata ed estensione ma anche nella sua stessa
struttura logica. La nostra stessa esistenza ed il nostro
raziocinio sono resi possibili dall’infinito presente nella
realtà e ne rispecchiano frammenti sconnessi. Se l’universo
fosse finito e prevedibile cesseremmo di essere liberi.
(T. Regge, Infinito, Mondadori, Milano 1994, p. 296)
• Regge cita il celebre teorema di incompletezza del
1931 del suo amico e collega Kurt Gödel
Secondo Gödel, chiunque scriva assiomi coerenti tra loro (es.
l’1 è un numero dispari, il 2 è pari…) può sviluppare una
grande quantità di teoremi, che comporranno una teoria.
Nell’ambito di tale teoria può poi formulare proposizioni che
risulteranno vere o false, in base a quanto stabilito dagli stessi
assiomi di base (es. 1+1=3 è falsa). Gödel dimostrò che in
ogni teoria ci sono proposizioni che non si possono
valutare: l’insieme di assiomi e teoremi di base non è
sufficiente per valutare la verità o falsità della nuova
proposizione. [In particolare, non si possono dimostrare
quelle proposizioni che garantiscono la coerenza del sistema].
30 GIUGNO 1999
GIOVANNI MARIA PACE
Ma più piccolo davvero non si può. Si conclude oggi
all'università di Padova un convegno sul riduzionismo
Il "riduzionismo" - tema di un convegno ideato da Enrico Bellone e Giulio Peruzzi che si conclude oggi
all'università di Padova - è il modo di indagare a cui la scienza moderna deve il suo successo.
Presuppone l'idea (semplificando) che non si possa comprendere il tutto senza analizzarlo nelle
sue componenti e che non si possano comprendere le componenti senza ulteriormente
analizzarle nelle loro sottocomponenti, in una successione di livelli in cui quello inferiore spiega
il superiore. Nell'ultima delle scatole cinesi dovrebbe trovarsi il livello estremo, la madre di tutte le
spiegazioni. Sono pochi però gli scienziati ancora convinti che la riduzione a oltranza porti
davvero alla "verità". Nei laboratori ci si rende conto che, allo stato delle conoscenze, non è possibile
l'attuazione di un progetto riduzionista di più vasta portata, di quel progetto, per intenderci, che vorrebbe
ridurre la vita a una danza di protoni, la mente al corpo, il pensiero a una secrezione del cervello.
Esistono fenomeni non spiegabili con gli strumenti di tipo fisico e chimico che abbiamo a disposizione e
la maggior parte degli scienziati professa dunque una qualche forma di riduzionismo mitigato. Non per
questo nella comunità scientifica mancano le dispute sulla sua utilità, che non sono soltanto teoriche.
Nei primi anni Novanta la comunità dei fisici americani si trovò a discutere sulla costruzione di un
acceleratore di particelle da sei miliardi di dollari, il famoso Supercollider. Da una parte c'era il Nobel
Steven Weinberg, paladino delle alte energie, e dall'altra Philip Anderson, anch'egli premio Nobel ma
propugnatore della small science. Il primo sosteneva che la grande macchina avrebbe permesso di
scoprire i componenti ultimi della materia, una conoscenza non direttamente utile alla nostra esistenza,
è vero, ma sicuramente importante. Al riduzionismo "a maglia larga" di Weinberg, Anderson
contrapponeva l'argomento "emergentista": non so - diceva - se la scoperta di un ulteriore livello
profondo sia ultimativa, anzi credo che la regressione possa procedere all'infinito. Sarebbe più
interessante capire come dagli atomi si passi alla materia strutturata. Nel passaggio emergono
infatti proprietà sulle quali la fisica dovrebbe concentrarsi, invece di insistere sulla rottura
dell'atomo in frammenti sempre più piccoli.
Chi aveva ragione? Difficile rispondere. Si può solo dire che il Supercollider non si fece e che i grandi
progressi della fisica, dall'Ottanta a oggi, sono avvenuti più nella comprensione della struttura della
materia, vedi la superconduttività, che nel campo delle particelle elementari.
In Europa la posizione di Weinberg sembra condivisa dai fisici che si alternano alla direzione del Cern,
da Rubbia a Maiani, mentre Carlo Bernardini appare più andersoniano in quanto raccomanda di
studiare la fisica dei sistemi dinamici e la fisica del caos, ovvero di approfondire il livello mesoscopico
che ritiene più importante (e umano) del livello microscopico. Anche Tullio Regge ha una posizione tutto
sommato andersoniana quando dubita che la scalata verso energie sempre più alte sia la strada giusta
per il progresso della fisica.
Al convegno di Padova il germanista Giuseppe Bevilacqua spiega che anche nella letteratura,
soprattutto in quella tedesca, c'è una tendenza riduzionista, vedi il Musil degli scritti che precedono
L'uomo senza qualità, dove lo scrittore tenta una descrizione "per componenti" del comportamento
umano che ricorda il procedere del chimico nell'analizzare un composto e che sarà ripresa dalla
nascente psicoanalisi.
Anche il riduzionismo esplicativo, il più accettato, va incontro a obiezioni, soprattutto nelle scienze della
vita. Il fatto ad esempio che si conosca il ruolo del Dna nella cellula e che si sappia analizzare la doppia
elica in tutti i suoi componenti chimici e molecolari non significa saper costruire una cellula partendo dal
filamento di acido nucleico. Ciò perché esistono proprietà e leggi che emergono nel passaggio dal
sistema elementare a quello più complesso, leggi che non sono deducibili dal livello inferiore. In
biologia la posizione emergentista è alquanto diffusa tra gli studiosi del cervello. I
neuroscienziati notano, nell'emergere della mente, la comparsa di proprietà non riducibili al
comportamento dei singoli neuroni o a meccanismi cerebrali di tipo elettromagnetico. Esistono
di certo relazioni tra il livello fisico e il livello mentale, ma la completa derivazione causale del
mentale dal fisico non è dimostrabile. Nel passaggio dalla materia inerte alla materia pensante
interviene il fattore quantità. Nel cervello, miliardi di neuroni e decine di miliardi di retroazioni tra neuroni
creano un tutto che è anche qualitativamente diverso dalla somma dei singoli neuroni. C'è nel cervello
qualcosa legato alla complessità che spiega la nascita della mente..
Approcci che hanno
anticipato le teorie
della complessità
La teoria che io sostengo è che l’intera concezione del
materialismo si applica solo a entità assolutamente
astratte, cioè ai risultati del discernimento logico. Le
entità concrete e durevoli sono organismi, talché il
piano del tutto influenza le qualità proprie dei vari
organismi subordinati che in esso rientrano. Nel caso di
un essere animato, gli stati mentali, psichici, rientrano
nel piano dell’organismo totale e con ciò modificano i
piani degli organismi successivamente subordinati fino
agli organismi finali più piccoli, come gli elettroni.
Whitehead
(1925, La scienza e il mondo moderno, Boringhieri, Torino 1978, p. 94)
Psicologia della Gestalt
• La psicologia della Gestalt (dal 1913)
aveva già posto al centro l’idea che “il tutto
è più della somma delle parti”.
M. Wertheimer (1880-1943)
W. Köhler (1886-1941)
K. Koffka (1887-1967)
K. Lewin (1890-1947)
• Le configurazioni globali hanno
caratteristiche delle che non sono
riscontrabili nella somma degli elementi
costituenti singolarmente considerati.
• Le “proprietà del tutto” risultano
prioritarie rispetto agli elementi costituenti
 ne segue, come corollario, che le parti
assumeranno ruoli diversi nei differenti
contesti in cui sono inserite.
I principi
dell’organizzazione percettiva
secondo la psicologia della Gestalt
vicinanza
somiglianza
chiusura
destino comune
continuità
buona forma o pregnanza
• Il principio della buona forma suggerisce
che il campo percettivo tende ad
organizzarsi globalmente, per “grandi
tratti”, non tendendo conto dei singoli
punti, ma secondo una visione dall’alto”
(Wertheimer).
Vengono quindi preferite, a livello
percettivo, forme più regolari, simmetriche,
omogenee, equilibrate, semplici, coerenti.
Figura-sfondo
Esperienza passata
KURT
LEWIN
1. C=f(P,A)
2. Ricerca-Azione
3. Teoria del cambiamento
– Lewin parte dal concetto di campo: il campo può
essere definito come quella dimensione totale in cui
coesistono i fatti nella loro interdipendenza.
• Il campo di Lewin è da pensare come a una dimensione
dinamica, animata da una causalità di tipo circolare,
piuttosto di tipo modo meccanico e lineare.
• Lewin concepisce le persone come dotate di un loro «spazio
di vita» e utilizza, per descrivere scientificamente il campo,
concetti topologici come frontiera, regione, tensione…
→ Il concetto di campo di Lewin è assimilabile a
quello di sistema complesso.
1. C=f(P,A)
– Il Comportamento (C) è in funzione dello stato
della Persona e dell’Ambiente
2. Ricerca-azione
─ Contrariamente alla ricerca applicata, che pone il
ricercatore in una condizione di superiorità scientifica
rispetto agli altri attori – dandogli il diritto di elaborare
criteri e strategie, stabilire valutazioni, fare previsioni
ecc. – nella ricerca-azione il ricercatore si
considera parte dell’ «oggetto» di ricerca (la
situazione sociale).
→ Il ricercatore, in quanto parte del campo sociale,
tenta di comprendere la situazione “standovi
dentro”, nel vivo delle relazioni con gli attori (che
ne sono parte attiva), condividendo con essi le
sue riflessioni, negoziando altre possibili
interpretazioni ecc.
Il ricercatore deve avere occhi e orecchi sociali nei
punti nevralgici e all'interno degli organismi di azione
sociale
Lewin
Caratteristiche della ricerca-azione*
1.Per la ricerca-azione è centrale che tutti si sentano
soggetti attivi, capaci di essere se stessi con le proprie
rappresentazioni e i propri sentimenti, anche con quelli
inespressi.
•
Ciò non implica un venir meno delle differenze e dei ruoli
dei soggetti coinvolti; si tratta di non «bloccare» le
differenti posizioni da barriere invalicabili.
2.Il cambiamento della situazione è frutto di un
apprendimento collettivo e si sviluppa in un contesto
relazionale denso di implicazioni intellettuali e emotive.
3. Cambia anche la concezione del “fare scienza»: fra
sapere scientifico e sapere profano non esiste una
differenza fondamentale, ma diversi gradi di
astrazione, per cui tutti gli attori coinvolti hanno diritto
ad avere la loro “voce”
4. Gli approcci basati sulla ricerca-azione non sono
«lineari»: essi mettono in luce l’esistenza di momenti
in cui la realtà rischia di chiudersi e in cui vi è
difficoltà a procedere e a individuare significati utili
da sviluppare ai fini del progetto. Ma è proprio in
questi momenti che si delineano aperture e
scoperte, che sono il risultato del lavoro non di un
singolo esperto, ma esito delle interazioni fra i
diversi attori (Barus-Michel, Enriquez, Lévy, 2003, tr. it. 2005)
• Per le sue caratteristiche, la ricerca-azione, o ricercaintervento, è sembrata assai utile in ambito educativo
e formativo, in quanto:
– coinvolge tutti gli attori.
– è radicata nella situazione concreta.
– ha come obiettivo non la conoscenza in sé, ma il
cambiamento della pratica e dell’azione, inclusi gli
atteggiamenti personali.
→ in particolare la ricerca-azione è stata considerata
capace di sviluppare un deuteroapprendimento
(Gregory Bateson), cioè di sollecitare un atteggiamento
di costante riflessione sulla pratica tale da sviluppare
un «apprendere ad apprendere»
«Difetti» della ricerca-azione
a.La ricerca-azione non funziona quando ci sono conflitti
di potere o dove essa potrebbe mettere in discussione i
principi di funzionamento dell’organizzazione o le strategie
definite ad alto livello; inoltreil ricercatore non può lavorare
senza la collaborazione degli attori; ma questi non sono mai
disposti a concedere un potere illimitato allo sperimentatore.
• La ricerca-azione rappresenta una pratica «esemplare» (Boog e
altri, 1996), intrinsecamente capace di promuovere forme
democratiche di organizzazione sociale (Enriquez, 1984;
Bubost, Levy, 1980). Ma, «inevitabilmente, si trova in conflitto con
i poteri costituiti a livello economico, professionale,
interprofessionale o politico, e in particolare con l’organizzazione
della ricerca e dell’insegnamento (pubblico e privato) […] Spesso
ci si rassegna a ricorrere a ricercatori che propongono percorsi di
ricerca più collaborativi quando approcci più tradizionali hanno
mostrato i loro limiti. […] Per lo più la struttura gerarchica del
lavoro porta a isolare l’idea di ricerca-azione a livello di utopia, o a
confinarla entro situazioni circoscritte, su scala ridotta, a livello
locale (lavoroclinico, consulenze a équipe) dove vi siano meno
rischi di trovarsi a ridiscutere dei principi di funzionamento
dell’organizzazione o strategie definite ad alto livello» (BarusMichel, Enriquez, Lévy, 2003, tr. it. 2005, p. 392)
b. Siccome nessun intervento di ricerca può iniziare se non
c’è una domanda, nella ricerca-azione la definizione
della domanda avviene di concerto con gli
interlocutori coinvolti nella ricerca:
→ la domanda iniziale, sia essa vaga (come spesso avviene:
un semplice desiderio di essere ascoltati perché qualcosa
«non va»), o più precisa (desiderio di acquisire più potere),
può poi cambiare fisionomia durante la ricerca.
→ Coloro che commissionano la ricerca possono man mano
che i lavori procedono, cambiare radicalmente opinione.
c. Infine, alcune dimensioni latenti e occulte del
funzionamento di una collettività possono non essere
a disposizione della collettività, né queste avere
interesse a renderle coscienti;
→ in questi casi, un ricercatore «esterno» può avere un
vantaggio maggiore (Barus-Michel, Enriquez, Lévy, 2003, tr. it. 2005).
3. Teoria del cambiamento
– La teoria del campo permette di pensare in nuovo
modo al cambiamento nei fenomeni sociali. Questi
vengono pensati da Lewin più in termini di
processi che di «cose».
– In condizioni normali, il campo può essere pensare in
uno stato di equilibrio quasi stazionario tra le forze
che lo animano
→con questo concetto si allude al fatto che un
equilibrio sociale non è la risultante passiva delle
forze presenti, ma un equilibrio dinamico
→un tale equilibrio genererà una resistenza al
cambiamento qualora le condizioni iniziali
cambino: infatti le dinamiche di gruppo
(appartenenza al gruppo, sicurezza, condivisione
di ideali ecc.) tendono a persistere nel tempo.
→Questa è la ragione per cui in certe situazioni
gli interventi mirate alle singole persone senza
tener conto dello spirito di gruppo non
sortiscono gli effetti attesi.
Per provocare un qualsivoglia cambiamento occorre
turbare l’equilibrio delle forze che mantengono ad un
determinato livello l’autoregolazione sociale.
Lewin
(Teoria e sperimentazione in psicologia sociale, 1951)
• Unfreezing → change → refrizing
(scongelamento-cambiamento-ricongelamento)
– Per superare le “tendenze alla conservazione”
occorre realizzare una trasformazione delle
percezioni sociali del gruppo tale che si abbia un
“nuovo sistema di valori” esperito dall’individuo come
qualcosa che egli ha scelto liberamente. Per
raggiungere tale obiettivo occorre che si produca
insoddisfazione verso la situazione attuale, lavorando
contro la situazione stessa o riducendo le forze che la
sostengono. Il ricongelamento è il consolidamento del
nuovo equilibrio raggiunto.
Gestalttheorie: apprendimento come
ristrutturazione cognitiva
• Per la psicologia della Gestalt l’apprendimento
è interpretabile come passaggio da una
Gestalt ad un’altra che avviene per “insight”,
ovvero come riorganizzazione del campo
dell’esperienza ed è frutto dell’
“autoregolazione organismica” (K. Goldstein
1939) (contro un apprendimento per “prove ed
errori” di estrazione comportamentista)
Ludwig von Bertalanffy
Teoria generale dei sistemi (1968)
• Fra le discipline che hanno consentito alla
teoria della complessità di sorgere vi è senza
dubbio la «teoria del sistema generale»,
come la definì von Bertalanffy (detta anche
teoria generale dei sistemi o sistemica).
• Von Bertalannfy pose l’attenzione al
funzionamento del sistema come qualcosa che
è diverso dalle singole parti di cui è costituito, in
un’ottica antiriduzionista e antimeccanicista.
• Un sistema, per Bertalanffy, non può essere
definito come un insieme di parti aventi
determinate caratteristiche, ma come una
rete di interazioni reciproche fra parti,
secondo un modello di circolarità in base
al quale ogni elemento condiziona l’altro ed
è a sua volta condizionato.
→ Ne segue che per conoscere il singolo
elemento la rete di relazioni che
coinvolgono quell’elemento, e quindi in
definitiva l’intero sistema.
Sistemi chiusi e sistemi aperti
• I sistemi chiusi sono quelli che non
scambiano energia e materia con l’ambiente.
– Le modellizzazioni della fisica classica facevano
riferimento a questa tipologia di sistemi
• Invece, i sistemi caratterizzati da un
«equilibrio dinamico […], come quelli viventi,
che devono la loro sopravvivenza al costante
flusso di energia e materia» (von Bertalanffy,
1951) sono tipicamente sistemi aperti.
• Il sistema aperto possiede la sorprendente
caratteristica di poter assorbire energia
dall’ambiente; tale capacità è chiamata anche
negentropia o entropia negativa, con riferimento
al secondo principio della termodinamica.
– Il secondo principio della termodinamica (si veda in seguito)
stabilisce che ogni «lavoro» comporta una cessione di
calore all’ambiente. Ciò comporta una degradazione
dell’energia in virtù di tale inesorabile trasformazione in
calore; essa, così, non sarà più utilizzabile per gli scopi del
sistema e per produrre lavoro. I sistemi aperti, invece,
possono assorbire energia e informazione dall’esterno e
immetterla all’interno dei confini del sistema stesso (anche
se naturalmente l’entropia dell’universo continuerà ad
aumentare): i sistemi si “nutrono” di ordine ambientale e
restituiscono scorie.
• A causa dei continui scambi con l’ambiente, i
sistemi aperti non sono vincolati a un
equilibrio rigido e immodificabile, statico, ma
a un equilibrio dinamico, al mantenimento di
uno «stato stazionario».
• la sopravvivenza di organismo o di un’azienda
rappresentano esempi di «equilibri stazionari»;
questi non debbono essere raggiunti in una sola
maniera, come avverrebbe se fossero
contraddistinti da equilibri statici, ma per molte
strade.
• Bertalanffy parla in tal senso di equifinalità,
evidenziando con tale concetto che:
a) gli stessi risultati possono avere origini
diverse;
b) Le stesse cause non producono i
medesimi effetti e viceversa
– Ad esempio, un’azienda può mantenere il suo
livello di vendite aumentando la qualità del
prodotto o riducendo il prezzo. Dal punto di vista
del di vista dell’obiettivo – il mantenimento dei
livelli di vendita – le differenti opzioni, per quanto
assai diverse fra di loro, anche nelle loro ricadute
sociali, sono degli equivalenti funzionali
• Inoltre, sempre in contraddizione con il 2^
principio della termodinamica, i sistemi aperti
possono passare da una condizione di
maggiore disordine ad una situazione di
minore disordine ovvero da una struttura
regolare ad una irregolare e più
differenziata.
– i sistemi biologici hanno un livello di
organizzazione molto più alto dei sistemi non
viventi e quindi minore entropia.
• Come osserva il gestaltista W. Metzger
(1976, tr. it. 2000), poi, i sistemi aperti
tendono ad una “condizione finale
pregnante”, al cui interno si posso
realizzare sottosistemi di varia complessità
e differenziazione, con stadi finali
strutturalmente pregnanti. L’affermazione
di tale finalismo non contraddice la
spiegazione del comportamento umano in
termini di causa-effetto.
• Ross Ashby, che divenne l’esponente di
punta della cibernetica (vedi sotto) negli
anni ‘50 e ‘60, sottolinea con chiarezza il
fatto che i sistemi viventi sono aperti dal
punto di vista energetico ma chiusi dal
punto di vista organizzativo.
– Su tali concetti ritorneranno con profitto
Maturana e Varela con il loro concetto di
autopoiesi.
La cibernetica
• Cibernetica deriva dal termine greco
kybernetes (pilota, timoniere) e studia i
fenomeni di autoregolazione e
comunicazione sia negli organismi naturali
che nei sistemi artificiali.
→ Tale autoregolazione, o autocontrollo, delle
macchine naturali o artificiali viene raggiunto
attraverso meccanismi a retroazione o feedback.
• I comportamenti non vengono considerati in
sé, ma in riferimento al progetto che la
struttura intende sviluppare.
→ Il modello cibernetico riporta in tal modo
all'interno del pensiero scientifico il concetto di
scopo. (CIRED)
La disciplina trae origine dalle Many Conferences,
tenutesi dal 1946 al 1957. Così le ricorda Francisco
Varela nel 1985:
Questi incontri radunavano il fior fiore dell’intellighenzia del
dopoguerra, tutti coloro che tendevano ad avere in comune un
terreno problematico inerente a quegli argomenti che oggi
definiremmo come modelli della conoscenza, computazioni
biologiche, pensiero sistemico, epistemologia sperimentale e che
allora costituivano un insieme unico, vasto e indifferenziato. […]
Le Macy Conferences, che continuarono per più di dieci anni,
furono caratterizzate senza ombra di dubbio dallo stile, dalla
personalità e dalle differenti concezioni di due giganti intellettuali:
John von Neumann e Norbert Wiener. Entrambi erano di
origine europea, entrambi erano matematici e insegnavano in
prestigiose università nordamericane, entrambi erano profondi
pensatori nell’ambito scientifico e oltre l’ambito scientifico.
Retroazione (feedback) negativo/positivo
• Il meccanismo di retroazione è un meccanismo
di controllo automatico che permette ad una
"macchina", finalizzata al raggiungimento di un
dato obiettivo, di autoregolarsi, nel corso del
proprio funzionamento, correggendo gli scarti dal
programma previsto in sede di progetto.
– La retroazione si può ottenere dotando la macchina di un
sensore che mette in relazione le prestazioni in uscita
(output) della macchina con quelle prestabilite in entrata
(input) e annulla poi la differenza fra segnale di uscita e
segnale di entrata. Gli organismi viventi e i sistemi naturali
sono già dotati di questi sistemi di autocontrollo che fanno
parte di programmi genetici evolutisi nel tempo. (CIRED)
Fonte: wikipedia
• I meccanismi di retroazione possono essere
fondamentalmente di due tipi:
– La retroazione negativa: ha l'effetto di contrastare le
deviazioni nel funzionamento del sistema, opponendosi ai
cambiamenti e stabilizzandolo
• Un esempio elementare di retroazione negativa può essere il
termostato per regolare la temperatura in un locale; un esempio
più complesso è il processo mediante il quale un mammifero
mantiene una temperatura corporea costante
– La retroazione positiva invece accelera le deviazioni
incrementandole: tende così a creare instabilità nel
sistema, che tenderà a sua volta a crearsi un nuovo stato
di equilibrio
• Si ha un esempio di retroazione positiva nel comportamento di un
animale in una situazione di pericolo incombente, quando cioè il
cervello agisce in modo da provocare il rilascio di sostanze, come
l’adrenalina, che aumentano l’attenzione e la capacità di reazione
John von Neumann e Norbert Wiener
• John von Neumann e Norbert Wiener
svilupparono in realtà punti di vista diversi di
considerare i sistemi autoregolantisi.
• Per Varela (1985, pp. 117 ss), la controversia
fra i due è centrale anche per il pensiero di oggi,
tanto che queste due figure possono essere
assunte quali orientamenti contrastanti rispetto
alla ricerca di quali siano i meccanismi della
cognizione, ricerca che costituisce una
dimensione fondamentale dei sistemi complessi.
• John Von Neumann si interessa di
procedimenti per risolvere ogni problema
→ egli, più interessato alla teoria degli automi e
degli elaboratori digitali, concepisce la
cognizione fondamentalmente come un’attività
di problem solving, ovvero di come i sistemi
viventi e le macchine artificiali possano
aggiustare il proprio funzionamento sulla base
degli input ricevuti dall’ambiente.
→ i sistemi concepiti da von Neumann sono
pertanto eteronomi, in-formati dagli input esterni
e generanti degli out-put come conseguenza
della risposta del sistema agli input.
Scrive Piergiorgio Odifreddi di von Neumann
(John von Neumann. L’apprendista stregone,
http://www.volta.alessandria.it/episteme/odifr1.html)
John von Neumann (nato János Neumann a Budapest, 28 dicembre 1903, e morto
a Washington, 8 febbraio 1957) faceva parte di quegli intellettuali ungheresi ebrei
che si trasferirono negli USA dove morirono cattolici.
Von Neumann fu un bambino prodigio: a sei anni conversava con il padre in greco
antico; a otto conosceva l'analisi; a dieci aveva letto un'intera enciclopedia storica;
quando vedeva la madre assorta le chiedeva che cosa stesse calcolando; in bagno
si portava due libri, per paura di finire di leggerne uno prima di aver terminato. Da
studente, frequentò contemporaneamente le università di Budapest e Berlino, e
l'ETH di Zurigo: a ventitré anni era laureato in ingegneria chimica, ed aveva un
dottorato in matematica.
La sua velocità di pensiero e la sua memoria divennero in seguito tanto leggendarie
che Hans Bethe (premio Nobel per la fisica nel 1967) si chiese se esse non fossero
la prova di appartenenza ad una specie superiore, che sapeva però imitare bene gli
umani. In realtà, il sospetto di un'origine marziana era esteso non solo a von
Neumann, ma a tutto il resto della banda dei figli della mezzanotte, i coetanei
scienziati ebrei ungheresi emigrati che contribuirono a costruire la bomba atomica.
[…]
[…] Nel 1937 von Neumann, appena ricevuta la cittadinanza statunitense, iniziò ad
interessarsi di problemi matematici applicati. Egli divenne rapidamente uno dei maggiori
esperti di esplosivi, e si impegnò in un gran numero di consulenze militari, soprattutto per
la marina (sembra che egli preferisse incontrarsi con gli ammiragli piuttosto che coi
generali perché in mensa i primi bevevano liquori ed i secondi acqua).
Il suo risultato più famoso nel (o sul) campo fu la scoperta che le bombe di grandi
dimensioni sono più devastanti se scoppiano prima di toccare il suolo, a causa dell’effetto
addizionale delle onde di detonazione (i media sostennero più semplicemente che von
Neumann aveva scoperto che è meglio mancare il bersaglio che colpirlo). L’applicazione
più infame del risultato si ebbe il 6 e 9 agosto del 1945, quando le più potenti bombe della
storia detonarono sopra il suolo di Hiroshima e Nagasaki, all’altezza calcolata da von
Neumann affinché esse producessero il maggior danno aggiuntivo.
Questo non fu comunque l’unico contributo di von Neumann alla guerra atomica. Dal
punto di vista tecnico, ancora più sostanziale fu il suo lavoro sulla cosiddetta lente di
implosione, la stratificazione di esplosivi attorno alla massa di plutonio che permette di
comprimerla fino ad innescare la reazione a catena. Dal punto di vista politico, egli fece
parte del comitato che decise gli obiettivi (la sua prima scelta, la città santa di Kyoto, fu
fortunatamente bocciata dal Ministro della Guerra in persona).
Secondo il suo stesso direttore Robert Oppenheimer, l’impresa atomica aveva mutato gli
scienziati in distruttori di mondi: il cinico commento di von Neumann fu che a volte
qualcuno confessa una colpa per prendersene il merito. Egli proseguì poi imperterrito e
divenne, assieme a Teller, il convinto padrino del successivo progetto di costruzione della
bomba all’idrogeno (che fu approvato da Truman nonostante la raccomandazione
contraria dell’apposito comitato presieduto da Oppenheimer, il quale pensava che gli
scienziati avessero già fatto abbastanza male all’umanità).
[…] La complessità dei calcoli balistici richiesti per le tavole di tiro di armamenti sempre più sofisticati
aveva portato, nel 1943, al progetto del calcolatore elettronico ENIAC di Filadelfia. Non appena ne venne
a conoscenza, nell’agosto 1944, von Neumann vi si buttò a capofitto: nel giro di quindici giorni dalla sua
entrata in scena, il progetto del calcolatore veniva modificato in modo da permettere la memorizzazione
interna del programma. La programmazione, che fino ad allora richiedeva una manipolazione diretta ed
esterna dei collegamenti, era così ridotta ad un’operazione dello stesso tipo dell’inserimento dei dati, e
l’ENIAC diveniva la prima realizzazione della macchina universale inventata da Alan Turing nel 1936: in
altre parole, un computer programmabile nel senso moderno del termine.
Nel frattempo un nuovo modello di computer, l’EDVAC, era in cantiere, e von Neumann ne assunse la
direzione. Nel 1945 egli scrisse un famoso rapporto teorico, che divenne un classico dell’informatica: in
esso la struttura della macchina era descritta negli odierni termini di memoria, controllo, input e output.
L’effettiva costruzione della macchina andò però a rilento: le maniere di von Neumann, ed in particolare il
fatto che egli contrabbandasse sotto il suo nome molte delle innovazioni che erano frutto di lavoro
comune, non erano piaciute al resto del gruppo di lavoro dell’EDVAC, che si sfaldò subito dopo la guerra.
Anche von Neumann se ne andò dal miglior offerente, e cioè all’Istituto di Princeton. Qui egli si dedicò alla
progettazione di un nuovo calcolatore, producendo una serie di lavori che portarono alla definizione di
quella che oggi è nota come architettura von Neumann: in particolare, la distinzione tra memoria primaria
(ROM) e secondaria (RAM), e lo stile di programmazione mediante diagrammi di flusso. Anche questa
macchina non fu fortunata: essa fu inaugurata solo nel 1952, con una serie di calcoli per la bomba
all’idrogeno, e fu smantellata nel 1957 a causa dell’opposizione dei membri dell’Istituto, che decisero da
allora di bandire ogni laboratorio sperimentale.
Oltre che per varie applicazioni tecnologiche (dalla matematica alla metereologia), il computer servì a von
Neumann anche come spunto per lo studio di una serie di problemi ispirati dall’analogia fra macchina e
uomo: la logica del cervello, il rapporto fra l’inaffidabilità dei collegamenti e la loro ridondanza, e il
meccanismo della riproduzione. Egli inventò in particolare un modello di macchina (automa cellulare) in
grado di autoriprodursi, secondo un meccanismo che risultò poi essere lo stesso di quello biologico in
seguito scoperto da James Watson e Francis Crick (premi Nobel per la medicina nel 1962).
- Norbert Wiener, è
maggiormente interessato
all’ «uso umano dell’uomo»
– come recita il sottotitolo
del suo Introduzione alla
cibernetica (1950, tr. it
1970) – ed è preoccupato
dei rischi morali di uno
«sfruttamento grettamente
egoistico» delle nuove
possibilità offerte dalle
macchine, «in un mondo in
cui, agli uomini, debbono
importare soprattutto le
cose umane» (p. 16).
→ egli si occupa della relazione fra
conoscenza e scopo
→ sottolinea come la cognizione sia
un’attività autonoma, autocreatrice.
→ Varela (1985, p. 119) osserva come
l’orientamento di von Neumann e la
connessa metafora della mente come
computer è diventata dominante, mentre
l’aspetto autonomo e produttore di senso
degli esseri viventi è stato trascurato.
«La società può essere compresa soltanto attraverso lo
studio dei messaggi e dei mezzi di comunicazione relativi ad
essi; […] Nello sviluppo futuro […] i messaggi fra l’uomo e le
macchine, fra le macchine e l’uomo, e fra macchine e
macchine sono destinati ad avere una parte sempre più
importante» (1950, tr. it. 1970, pp. 23‐24).
«Uno degli aspetti più interessanti del mondo è il fatto che
esso può ritenersi costruito sulla base di modelli. Un modello
è essenzialmente una disposizione caratterizzata
dall’ordinamento degli elementi di cui si compone anziché
dalla natura intrinseca di questi elementi» (pp. 17‐18).
L’informazione allora altro non è che «la misura della
regolarità di un modello le cui parti componenti si sviluppano
nel tempo» (p. 21).
«Le vecchie macchine e in specie i primi tentativi di
costruire automi erano basati praticamente sul principio
puro e semplice del meccanismo di orologeria. Le
macchine moderne, invece, sono provviste di organi
sensori, cioè organi di ricezione dei messaggi che
provengono dall’esterno» (p. 25).
«Affinché ogni macchina subordinata a un ambiente
esterno variabile possa funzionare efficacemente, è
necessario che sia fornita ad essa l’informazione relativa
ai risultati della sua stessa azione, come parte
dell’informazione in base alla quale essa deve continuare
ad operare [feedback]» (p. 26).
«Il comportamento degli individui viventi è esattamente
parallelo al comportamento delle più recenti macchine per
le comunicazioni […] In entrambi esiste, cioè, un apparato
speciale per raccogliere informazioni dal mondo esterno a
bassi livelli di energia, e per renderle utilizzabili nel
comportamento dell’individuo o della macchina. In
ambedue i casi questi messaggi esterni non sono utilizzati
al loro stato naturale, ma dopo un processo interno di
trasformazione operato dalle forze dell’apparato, siano
esse viventi o no» (pp. 29‐30).
→ i viventi non funzionano solo su base
eteronoma, non sono solamente re-agenti a
input ambientali, secondo una causalità di tipo
lineare («Nessuno dei fenomeni veramente
eversivi della natura o dell’esperienza è, anche
soltanto approssimativamente, di tipo lineare»,
p.47), ma sono in grado di agire e di generare il
nuovo.
• Le «premure antropologiche» di Wiener lo
inducono a sottolineare ripetutamente che
l’uomo è diverso dagli altri esseri viventi: la
condizione delle formiche, ad esempio, è
«meccanicamente regolata»:
«un insetto è condizionato dall’intero processo del suo
sviluppo ad essere un individuo essenzialmente
stupido e incapace di perfezionamento, modellato su
uno stampo che non può essere apprezzabilmente
modificato» (p. 76).
«L’insetto appare simile a una macchina con tutte le
istruzioni impresse in anticipo sui “nastri” e con una
facoltà minima di cambiare queste istruzioni» (p. 82).
→ si potrebbe dire che i pattern
comportamentali (gli «istinti») dell’insetto
sono rigidi e poco modificabili; quelli
dell’uomo sono molto più malleabili e si
affidano all’esperienza condivisa e alla
cultura per modellarsi.
→ l’uomo come «animale culturale»
La teoria del C A O S
Dove comincia il caos si arresta la scienza classica.
Finché il mondo ha avuto fisici che investigavano le
leggi della natura ha infatti sofferto di una speciale
ignoranza sul disordine presente nell’atmosfera, nel
mare turbolento, nelle fluttuazioni delle popolazioni di
animali e piante allo stato di natura, nelle oscillazione
del cuore e del cervello. L’aspetto irregolare della
natura, il suo lato discontinuo e incostante, per la
scienza sono stati dei veri rompicapo o peggio
mostruosità (Gleick, 1987, tr. it. 2000, p. 9)
• Il caos ha iniziato ad assumere una
connotazione positiva quando ci si
accorse della sua onnipresenza in ogni
angolo dell’universo.
• I teorici caos sostengono che la sua
scoperta rappresenti la terza grande
rivoluzione scientifica del XXI secolo
assieme alla relatività e alla meccanica
quantistica.
• Per primo fu Henri Poincaré (1954-1912)
a mostrare come semplici equazioni
deterministiche potessero produrre
traiettorie di incredibile complessità, tale
da resistere a ogni tentativo di previsione,
scoprendo di fatto il caos deterministico.
Un problema che aveva afflitto l’astronomia dai tempi di Newton
era il cosiddetto problema dei tre corpi, che consiste nel
calcolare, date la posizione iniziale, la massa e la velocità di tre
corpi soggetti all'influsso della reciproca attrazione
gravitazionale, l'evoluzione futura del sistema da essi costituito.
Matematici come Laplace e Lagrange ritenevano che lo si
potesse prima o poi risolvere, anche se dai tempi di Newton fino
a fine ‘800 ciò non era ancora avvenuto perché le equazioni
erano così complicate che non si potevano risolvere con una
formula matematica. Infatti, non era possibile integrare le
equazioni che descrivono il moto dei tre corpi. Soluzioni
potevano aversi solo per determinati casi specifici (quando si
ipotizzi, ad esempio, che i tre corpi stanno ai vertici di un
triangolo equilatero).
La fine dell’800 rappresenta così un momento di profonda crisi
nel campo della meccanica celeste classica. (Luca Dell’Aglio).
Nel 1889 il re di Svezia mise addirittura in palio un premio
(quello che oggi è il premio Nobel) con un ingente
quantitativo di denaro per chi fosse riuscito a risolverlo. Il
celebre matematico Weierstrass faceva parte della
commissione che doveva giudicare i lavori.
↓
Il premio fu attribuito a Poincaré che scrisse una
«Memoria» dal titolo Sur le problème des trois corps et
les équations de la dynamique.
Nella Memoria, Poincaré evidenziava che le equazioni
differenziali rappresentano la realtà come un continuum
che scorre in modo regolare da un istante a quello
successivo; a seguito di tale assunzione, osservava
Poincaré,
…invece di considerare il progressivo sviluppo di un fenomeno
nella sua interezza, bisogna semplicemente cercare di correlare
un istante a quello immediatamente precedente, supponendo
che lo stato effettivo del mondo dipenda soltanto dal passato più
recente, senza essere direttamente influenzato, per così dire,
dalla memoria del passato distante. Grazie a questo postulato,
piuttosto che studiare direttamente l’intera successione di un
fenomeno, ci si può limitare a scrivere la sua ‘equazione
differenziale’ (Poincaré, cit. in Luisa Bonolis, Il moto dei pianeti,
ordine o caos?, 2010)
→ Poincaré, in sostanza, stava affermando che le
equazioni differenziali hanno due caratteristiche:
1. Esprimono una continuità della natura, una
proporzionalità dell’avvenire delle cose, per cui a
certe cause corrisponderanno effetti
proporzionali;
2. Sono «modulari» (Gleick, 1987, tr. it. 2000, p.
28), cioè si possono scomporre in «pezzi» e poi
«rimontare» → ciò dà la possibilità di studiare
il fenomeno localmente piuttosto che
globalmente
Ma poiché non esistevano formule esplicite per
calcolare le soluzioni delle equazioni (non lineari) che
descrivono il moto dei tre corpi, Poincaré focalizzò la
sua attenzione sulla questione centrale che era in ballo
con il problema dei tre corpi (o N-corpi) e si chiese: «cosa
veramente si vuole conoscere della dinamica dei tre
corpi»? Si vuole sapere qualcosa di «qualitativo», ovvero
se il sistema nel tempo rimane stabile, perché ne va della
stabilità dello stesso sistema solare!
Non potremmo chiederci se uno dei corpi rimarrà sempre in una certa
regione dei cieli, o se se ne allontanerà sempre di più, per sempre; se
la distanza tra due corpi crescerà o diminuirà in un futuro lontano
quanto si voglia, o se invece rimarrà confinata tra certi limiti per
sempre? Non ci si potrebbe fare migliaia di domande di questo tipo,
che sarebbero tutte risolte quando riuscissimo a capire come
costruire qualitativamente le traiettorie di tre corpi?
Scrive Marco Abate:
«…il punto che distingue la teoria dei sistemi
dinamici da altre branche della matematica è il tipo
di domande che ci si pone. Infatti […] non siamo
interessati a una formula esplicita che ci permetta di
calcolare tutte le iterate di f; siamo invece interessati
al comportamento qualitativo e a lungo termine
delle orbite generiche, e alla stabilità di questo
comportamento rispetto a perturbazioni del punto
iniziale dell’orbita o della funzione stessa» (Abate,
2008).
• Poincaré, quindi, iniziò a introdurre tecniche
di carattere qualitativo nello studio del
sistema di equazioni differenziali, tecniche
che però dovranno attendere parecchi
decenni – precisamente la seconda metà del
Novecento e hanno tratto molto beneficio
dall’uso del computer, in quanto questo ha
permesso di simulare il comportamento di
sistemi dinamici anche molto complessi.
• Poincaré utilizzò la topologia,
«…una branca della matematica che ebbe un grande
sviluppo nel XX secolo e che conobbe un particolare
successo negli anni Cinquanta. La topologia studia le
proprietà che rimangono immutate quando si
deformano delle figure sottoponendole a torsione,
stiramento o compressione» (Gleick, p. 49)
Per esempio un cubo e una sfera sono oggetti topologicamente
equivalenti (cioè omeomorfi), perché possono essere deformati
l'uno nell'altro senza ricorrere a nessuna incollatura, strappo o
sovrapposizione; una sfera e un toro invece non lo sono,
perché il toro contiene un "buco" che non può essere eliminato
da una deformazione.
→ La motivazione profonda della topologia è
che alcuni problemi geometrici non dipendono
dalla forma esatta degli oggetti coinvolti, ma
«dal modo in cui questi sono connessi tra loro»
(http://it.wikipedia.org/wiki/Topologia).
Fonte: K. Devlin, I problemi del millennio, tr. it. 2009, p.219
Es: non è possibile durante una passeggiata
attraversare una sola volta i ponti di Königsberg
A
B
C
→
Eulero (1707–1783), astraendo dalla situazione specifica di Königsberg,
arrivo a elaborare la teoria dei grafi: innanzitutto eliminò tutti gli aspetti
contingenti ad esclusione delle aree urbane delimitate dai bracci fluviali e
dai ponti che le collegano (fig. B); secondariamente rimpiazzò ogni area
urbana con un punto, ora chiamato vertice o nodo e ogni ponte con un
segmento di linea, chiamato spigolo, arco o collegamento (fig. C). Siccome
dai nodi A, B e D partono (e arrivano) tre ponti; dal nodo C, invece, cinque
ponti, tali sono i «gradi dei nodi» (rispettivamente, 3, 3, 5, 3).
Eulero giunse alla seguente conclusione: Un qualsiasi grafo è percorribile
se e solo se ha tutti i nodi di grado pari, o due di essi sono di grado dispari;
per percorrere un grafo "possibile" con due nodi di grado dispari, è
necessario partire da uno di essi, e si terminerà sull’altro nodo dispari.
• Come è evidente, la forma di un grafo può
essere modificata spostando i vertici e
distorcendo le linee che li collegano, pur di
mantenere i collegamenti effettivi. Non conta se
un collegamento si presenta rettilineo o curvato e
neppure se un vertice sta da una parte o
dall'altra rispetto a un collegamento di vertici
vicini.
• La topologia interessa i «sistemi dinamici»,
come quello dei tre corpi, in quanto «offre la
possibilità di usare una figura come ausilio a
visualizzare l’intera gamma di comportamenti
di un sistema» (Gleick, p. 50).
Un punto singolo su tale superficie rappresenta lo stato di
un sistema in un istante congelato nel tempo. Man mano
che un sistema progredisce nel tempo il punto si muove,
tracciando un’orbita attraverso tale superficie. Un leggero
incurvamento della figura corrisponde a una modificazione
dei parametri del sistema, rendendo un fluido più viscoso
o dando al pendolo una spinta un po’ più forte. Le figure
che sembrano grosso modo uguali danno grosso modo gli
stessi tipi di comportamento. Se si riesce a visualizzare
una figura, si riesce a capire il sistema. (idem)
• Dopo importanti contributi alla teoria qualitativa
dei sistemi dinamici, forniti dalla scuola russa
negli anni '30 e dagli studi di Birkhoff negli Stati
Uniti, due articoli diedero un decisivo contributo
alla diffusione e alla crescente popolarità di
questo settore della Matematica: quello del 1963
del meteorologo americano Edward Lorenz e
quello del 1976 di Robert May, un fisico inglese
che studiò modelli per l'Ecologia.
• Tentando di comprendere la geometria, o
meglio la topologia, del moto dei tre corpi,
Poincaré però si sorprese:
Si rimarrebbe sbalorditi dalla complessità di questa
figura che non cerco nemmeno di tracciare. Niente è
più adatto a darci un’idea della complessità del
problema dei tre corpi.
→ Poincaré aveva scoperto ciò che si
sarebbe chiamato CAOS deterministico:
si ha caos deterministico quando leggi
perfettamente deterministiche producono un
moto completamente caotico e
assolutamente imprevedibile.
• Come evidenzia Marco Abate (2008),
«…uno dei principali motivi della diffusione e dell’interesse
dei sistemi dinamici: comportamenti complessi possono
essere rappresentati da sistemi dinamici (non lineari)
anche molto semplici. La complessità è introdotta dalla
ripetizione della funzione che genera il sistema, e non dalla
complessità intrinseca della funzione stessa. Questo
risponde anche a un principio di economicità spesso
presente in natura (e sempre cercato dalla scienza): un
fenomeno complesso viene generato ripetendo azioni
elementari, per cui è sufficiente che il sistema biologico,
fisiologico, fisico, economico, eccetera sia in grado di
generare azioni elementari a livello microscopico per
ottenere comportamenti complessi a livello macroscopico».
Poincaré si sorprese anche della grande influenza
che potevano avere piccole grandezze e
approssimazioni sull’esito finale della dinamica:
…una causa piccolissima che sfugga alla nostra attenzione
determina un effetto considerevole che non possiamo mancare di
vedere, e allora diciamo che l'effetto è dovuto al caso. Se conoscessimo
esattamente le leggi della natura e la situazione dell'universo all'istante
iniziale, potremmo prevedere esattamente la situazione dello stesso
universo in un istante successivo. Ma se pure accadesse che le leggi
naturali non avessero più alcun segreto per noi, anche in tal caso
potremmo conoscere la situazione iniziale solo approssimativamente. Se
questo ci permettesse di prevedere la situazione successiva con la
stessa approssimazione, non ci occorrerebbe di più e dovremmo dire che
il fenomeno è stato previsto. Ma non è sempre così; può accadere che
piccole differenze nelle condizioni iniziali ne producano di
grandissime nei fenomeni finali. Un piccolo errore nelle prime
produce un errore enorme nei secondi. La previsione diviene
impossibile (Poincaré, Scienza e metodo, 1903).
• Recenti studi sul problema degli N-corpi (Laskar, 1990, 1997,
2003; Roubutel e Laskar, 2001; Correia e Laskar, 2003 e altri),
«basati sulle idee di Poincaré, ha permesso di calcolare con
grande precisione le orbite dei pianeti per miliardi di anni e di
giungere alla conclusione che il sistema solare è caotico,
altamente non periodico e (soprattutto per i pianeti interni)
tendenzialmente instabile. […] L’immagine odierna
dell’evoluzione del Sistema Solare è ben diversa da quella dei
matematici del Settecento, sostanzialmente convinti della stabilità
dell’orbita dei pianeti; le intuizioni di Poincaré, assieme alla
potenza di calcolo dei calcolatori odierni, ci hanno portato a una
visione più realistica e affascinante, anche se forse meno
rassicurante, dell’universo in cui viviamo» (Abate, 2008).
Lorenz e la scoperta del
CAOS
Il meteorologo Edward Lorenz andava compiendo negli anni
Sessanta dello scorso secolo delle simulazioni sul clima al
computer utilizzando un programma con dodici parametri he
simulavano gli andamenti di temperature, pressione, venti,
ecc. Col suo primitivo computer Lorenz aveva ridotto il tempo
meteorologico al suo scheletro più essenziale; utilizzando un
modello deterministico egli aveva simulato qualcosa che
assomigliava assai a quanto avviene al tempo sulla terra.
Un giorno dell’inverno del 1961, nel corso di una simulazione,
successe qualcosa di inatteso. Pur avendo copiato
esattamente i numeri di una precedente simulazione,
l’evoluzione dell’ultima simulazione era assai differente dalla
precedente, contrariamente doveva accadere.
Lorenz si rese conto che, per risparmiare spazio, nella
seconda simulazione aveva approssimato i numeri a 3
decimali dopo la virgola, invece dei 6 della precedente
simulazione. Lorenz aveva introdotto un’approssimazione
al decimillesimo, supponendo che la differenza avesse
un’incidenza del tutto trascurabile. Il computer di Lorenz
utilizzava un sistema di equazioni puramente
deterministiche. Lorenz si attendeva che, dato un
particolare punto di partenza, il tempo sarebbe seguito
ogni volta esattamente nello stesso modo. Dato un punto
di partenza leggermente diverso, le condizioni
meteorologiche dovevano evolversi in modo leggermente
diverso. Un piccolo errore numerico era come un soffio di
vento, eppure nel particolare sistema di equazioni di
Lorenz, piccoli errori si dimostravano catastrofici.
→ Lorenz aveva scoperto l’effetto farfalla
(butterfly effect): piccole differenze nelle
condizioni iniziali generano grandissime
differenze nell’evoluzione del sistema,
come aveva già scoperto Poincaré.
Successivamente Lorenz mise da parte la meteorologia e si
concentrò su sistemi più semplici; ne trovò uno che poteva
essere descritto mediante l’utilizzo di tre sole equazioni non
lineari. Si tratta di un particolare tipo di ruota idraulica.
Flusso d’acqua
foro
Descrizione della ruota idraulica di Lorenz.
In alto dell’acqua cade costantemente nei secchi appesi al cerchio della
ruota. Ogni secchio perde costantemente un filo d’acqua da un foro sul fondo.
- Se il flusso dell’acqua che va a cadere nel secchio alla sommità è lento, il
secchio non si riempie mai abbastanza per superare l’attrito e la ruota non
comincia mai a girare.
- Se il flusso è più veloce, il peso del secchio in alto mette in movimento la
ruota (a sinistra in figura). La ruota idraulica può iniziare un movimento
che continua a velocità costante (in centro).
- Se però il flusso è ancora più veloce (a destra), la rotazione diventa
caotica, a causa degli effetti non lineari presenti nel sistema. Quando i
secchi passano sotto la caduta d’acqua, in quale misura si riempiano
dipende dalla velocità della rotazione. Se la ruota sta girando
rapidamente, i secchi hanno poco tempo per riempirsi. Inoltre, se la ruota
gira rapidamente, i secchi possono salire dall’altra parte prima di avere
avuto il tempo di svuotarsi completamente. Di conseguenza, il peso
dell’acqua contenuta nei secchi che stanno risalendo farà prima rallentare
e poi invertire la rotazione. Come scoprì Lorenz, la rotazione può così
invertirsi molte volte, non passando mai a una velocità costante e non
ripetendosi mai in modo prevedibile.
Tre equazioni descrivevano interamente il moto del
sistema. Inserendo le equazioni non lineari in un
computer si poteva vedere i valori che assumevano
le equazioni col passare del tempo (0-10-0; 4-12-0,
9-20-0;16-36-2;…).
Lorenz utilizzò tali triadi di numeri ipotizzando che si
trattasse di coordinate di uno spazio tridimensionale.
Così ebbe un’idea di come il sistema di andava
comportando.
→ Tale espediente che consente di visualizzare
l’evoluzione del sistema nel tempo si chiama
spazio delle fasi. Esso non rappresenta il
sistema reale, ma dà il senso del moto del
sistema reale.
• In matematica si chiama attrattore il punto
(o l’insieme di punti ) verso il quale evolve
un sistema dinamico dopo un tempo
sufficientemente lungo.
– Nel caso del pendolo con attrito l’attrattore è
un punto (il pendolo si ferma);
– Nel caso del pendolo senza attrito l’attrattore
è ciclico (il pendolo non si ferma mai e resta
sempre nella stessa traiettoria)
PENDOLO SENZA ATTRITO
PENDOLO CON ATTRITO
• Lorenz inserì i valori che assumevano passo
dopo passo le equazioni del suo sistema in un
grafico a tre dimensioni.
– Lo spazio delle fasi che ne risultava, pur non
rappresentando il sistema reale, riusciva in qualche
modo a dare un’idea della dinamica del sistema. Per
esempio, il passaggio da un’ala dell’attrattore
all’altra corrisponde a un’inversione nella direzione
della rotazione della ruota idraulica.
• La dinamica del sistema nello spazio delle
fasi rivelava una sorta di infinità
complessità, che restava confinata
nell’ambito di un attrattore, per quanto
questo fosse «strano», come lo definì
Lorenz.
Attrattore di Lorenz
Fonte: http://www.e-motion-lab.com/vittoriomenna/attrattori.
Fonte: www.uniroma2.it/ppg/im/repository/CaosDeterministico.ppt
velocità
tempo
Fonte: Gleik 1987
• Sistema caotico: imprevedibile localmente
ma stabile su scala globale (Gleick, p. 52)
• Un sistema non può essere solo stabile vs.
instabile (biglia sul fondo di una ciotola, o
matita dritta sulla sua punta), ma può avere
compresenza di caos e stabilità (Gleick, 51)
→ compare quindi l’idea che i sistemi
possano essere un «mix» di ordine e caos
Ancora alla scoperta del caos:
Come cresce una popolazione?
• Modello di crescita della popolazione di topo
esponenziale lineare (Malthus): se non c’è
competizione e una disponibilità illimitata di cibo,
la popolazione cresce in maniera progressiva e
lineare secondo una legge del tipo xn+1=rxn,
dove r è il tasso di incremento della popolazione
– Es. se r = 1,1 e se la popolazione (x) è 10000 individui, dopo un
anno (x+1) sarà di 11000 individui, l’anno dopo 12100 ecc →
crescita costante
– Es. r = 0,9 e la popolazione (x) è sempre di 10000 individui,
dopo un anno (x+1) sarà di 9000 individui, l’anno dopo 8100
ecc → decrescita costante
– Es. r = 1 e la popolazione (x) è sempre di 10000 individui, dopo
un anno (x+1) sarà di 10000 individui, l’anno dopo 10000 ecc →
equilibrio
• Ma il modello malthusiano è poco realistico in
quanto, essendo le risorse ambientali limitate
occorre considerare anche una variabile che
rappresenta anche della competizione fra gli
individui.
• Si può facilmente evidenziare che equazione
che tenga conto della competitività ha la
seguente struttura:
Tale “mappa logistica” si legge così: la
popolazione all’istante x+1 deriva dal calcolo di
rxn(1-xn), dove 1-xn è la popolazione espressa
come un valore fra 0 e 1, dove 0 è il minimo e 1
il massimo.
• Ci si attende che l’equazione si stabilizzi, nel
tempo, attorno a un valore di equilibrio
Gleick, 1989, p. 67
• Tuttavia questo avviene solo per certi valori di r.
• Per valori alti di r non c’è tale convergenza verso
un valore determinato, ma neppure i numeri
crescono oltre ogni limite.
• Non riuscendo a trovare un valore di
convergenza, i primi ecologi immaginarono che
la popolazione stesse oscillando attorno a un
qualche equilibrio soggiacente che non si
riusciva a individuare...
• Guardando più a fondo, avrebbero scoperto che
l’equazione non converge mai attorno a un valore!
«Il biologo Robert May osservò che quando il parametro r
era basso il modello si attestava in uno stato stazionario.
Quando il parametro era alto, lo stato stazionario veniva
meno e la popolazione oscillava tra due valori che si
alternavano. Quando il parametro era altissimo, il sistema
– lo stessissimo sistema – sembrava comportarsi in modo
imprevedibile. Perché?» (Gleick, p.73)
Al variare del parametro r, si osservano i seguenti comportamenti:
– Con r compreso tra 0 e 1, la popolazione calerà fino a morire,
indipendentemente dal valore iniziale della popolazione.
– Con r compreso tra 1 e 2 la popolazione andrà velocemente a stabilirsi al
valore (r-1)/r, indipendentemente dal valore iniziale della popolazione.
– Con r compreso tra 2 e 3, la popolazione andrà comunque a stabilizzarsi al
valore (r-1)/r ma prima oscillando.
– Con r compreso tra 3 e approssimativamente 3.45, la popolazione potrebbe
oscillare per sempre tra due valori.
– Con r compreso tra ~3,45 e ~3,54, la popolazione potrebbe oscillare per
sempre tra 4 valori.
– Con r leggermente superiore di 3,54, la popolazione oscillerà tra 8 valori, poi
16 poi 32, etc.
– Con r approssimativamente 3,57 avviene l'insorgenza del caos. Minime
variazioni del valore iniziale della popolazione daranno differenti risultati, una
caratteristica primaria del caos → sensibilità alle condizioni iniziali
– La maggior parte dei valori oltre 3,57 esibiscono un comportamento caotico,
ma ci sono comunque ancora dei valori isolati di r che non mostrano
comportamenti caotici; ci sono ogni tanto delle isole di stabilità.
x
r
0
1
0
1
0
2
0
3
0
4
0
5
0
6
0
7
0
8
0
9
0
10
0
11
0
12
0
13
0
14
0
15
0
16
0
17
0
18
0
19
0
20
0
21
0
22
0
23
0
24
0
25
0
26
0
r = 0,5 - 2 - 3,4 - 3,52 - 3,7 - 3,74
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
50
100
150
200
150
200
n
X
n
X
Attrattori della mappa logistica: x(n+1) = r x(n) (1- x(n))
1
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
50
100
n
http://scuolaworld.provincia.padova.it/ipazia/materiali/caos/ModCaos2.htm
• Anziché usare singoli diagrammi per visualizzare il
comportamento di popolazioni con gradi diversi di fertilità,
Robert May e altri scienziati usarono un «diagramma di
biforcazione» per riunire tutta l’informazione in una
singola immagine (Gleick, p. 74).
• I valori del parametro r aumentano da sinistra verso
destra e la popolazione aumenta dal basso verso l’alto.
– quando il parametro è basso la popolazione si estingue (a sinistra)
– quando il parametro aumenta, la popolazione è in equilibrio (al
centro)
– All’aumentare del parametro, inizia a manifestarsi un’instabilità e
la popolazione oscilla fra due valori
– All’aumentare ancora del parametro le biforcazioni diventano
sempre più rapide.
– Infine il sistema diventa caotico (a destra) e la popolazione passa
per un numero infinito di valori diversi
http://didattica.dma.unifi.it/WebWrite/bin/view/Fisica/FSAMS080213
• È interessante osservare – come mostrato dalla
figura nella pagina che segue – che anche «in
mezzo al caos» non c’è completa casualità,
perché tornano d’improvviso cicli stabili. Ogni 3
o 7 anni c’è un periodo di stabilità, interrotto da
periodi di biforcazioni crescenti e di nuovo caos.
• «Il caos portò un messaggio sorprendente:
quello che sembrava un comportamento
casuale poteva essere prodotto da semplici
modelli deterministici» (Gleick, p. 82)
– Il caos fu individuato nei dati sulle epidemie di
morbillo a New York, nelle fluttuazioni della
popolazione della lince in Canada; i fisiologi
iniziarono a guardare gli organi non come a
strutture statiche, ma come a complessi di
oscillazioni, regolari e irregolari.
• Robert May depose il “verbo” del caos in un
articolo che consegnò a Nature (Simple
Mathematical Models with Very Complicated
Dynamics, 1976).
– A suo parere, se ogni giovane studente si fosse
trastullato con la sua calcolatrice tascabile con
l’equazione logistica, il mondo sarebbe diventato
migliore… (Gleick, p. 83)
I frattali
• Benoît Mandelbrot (1924 – 2010),
matematico polacco.
• Studiò l’andamento dei prezzi del cotone di
otto anni, tenendo conto sia delle grandi
variazioni di prezzo che delle piccole. Egli
osservò un fatto curioso: che c’era una
simmetria fra scale grandi e piccole: le curve
per le variazioni giornaliere e mensili dei
prezzi coincidevano (Gleick, p. 88).
Perché la geometria viene spesso descritta come
fredda e arida? Una ragione è l’inabilità di descrivere
la forma di una nuvola o di una montagna una linea
costiera o un albero. Le nuvole non sono delle sfere,
le montagne non sono dei coni le linee costiere non
sono dei cerchi, il sughero non è liscio ed i fulmini
non si muovo lungo linee diritte.
Benoît Mandelbrot
• Poiché le misure euclidee non riescono a cogliere
l’essenza di forme irregolari, Mandelbrot si volse
a un’idea diversa, quella di dimensione.
– Normalmente si usano le tre dimensioni spaziali:
•
•
•
•
0 dimensioni per un punto
1 dimensione per una linea
2 dimensioni per una superficie
3 dimensioni per un solido
– Mandelbrot chiese: se osservate un gomitolo, se siete
abbastanza vicino vi servono le tre dimensioni, ma se
siete molto lontano ve ne basta una. Mandelbrot
mosse oltre le dimensioni 0, 1, 2, 3 verso le
dimensioni frazionarie (Gleick, 1987).
• La nozione di dimensione frazionaria è un atto di
«funambolismo intellettuale». Mandelbrot
specificò il modo di calcolare la dimensione
frazionaria di oggetti reali (Gleick, 1987, p. 99).
• Egli diede il nome al suo concetto di frattale,
che deriva dal latino fractus (rompere,
frangere), poiché la dimensione di un frattale
non è intera.
• Un frattale è un oggetto geometrico che si
ripete nella sua struttura allo stesso modo su
scale diverse (invarianza di scala), ovvero che
non cambia aspetto anche se visto con una
lente d'ingrandimento (autosomiglianza).
Frattale di Mandelbrot
Fonte di questa e della
precedente immagine:
http://it.wikipedia.org/wiki/Frattale
• Un frattale si costruisce in modo diverso da un
oggetto geometrico euclideo, definito da una
funzione del tipo y=f(x). Il frattale si basa su un
algoritmo, ovvero un meccanismo di calcolo,
che deve essere utilizzato più volte,
teoricamente un numero di volte infinito.
– Ad esempio, il frattale di Mandelbrot deriva
dall’applicazione dell’algoritmo: Zt+1 = ZT2 + C (dove
Z, C appartengono all’insieme dei numeri
complessi. I numeri complessi sono un'estensione
dei numeri reali nata inizialmente per consentire di
trovare tutte le soluzioni delle equazioni
polinomiali, come ad esempio, l'equazione x2 = -1)
Curva di Von Koch: si prenda un triangolo equilatero e si
divida il suo lato in tre parti uguali; si tolga quella centrale
e si costruisca al suo posto un triangolo equilatero.
Iterando questa operazione più e più volte, teoricamente
all’infinito, si otterrà una figura simile a un fiocco di neve.
Click!
Click!
Le intuizioni della geometria frattale furono d’aiuto agli
scienziati che studiavano i modi in cui le cose si fondono
assieme, in cui si ramificano, o in cui si spezzano.
Rappresentò un modo nuovo di guardare ai materiali: le
superfici microscopicamente frastagliate dei metalli, i minuscoli
pori e canali delle porose rocce petrolifere… Alcuni biologi
teorici cominciarono a trovare un’organizzazione frattale che
controllava strutture in tutto il corpo. La descrizione
“esponenziale” ortodossa della ramificazione dei bronchi si
dimostrò del tutto erronea e si rivelò conforme ai dati una
descrizione frattale. Vari cardiologi trovarono che lo spettro di
frequenza del ritmo delle pulsazioni, come quello dei terremoti,
seguiva leggi frattali
Gleick (1987, pp. 107, 112).
Differenze fra teoria del caos e
teoria della complessità
Ci viene spesso chiesto quale sia la differenza tra
complessità e caos. La risposta più semplice è che il
caos ha a che fare con situazioni come la turbolenza
che diventano rapidamente disordinate e non gestibili.
La complessità, invece, ha a che fare con sistemi
composti di molti agenti interconnessi. Se i sistemi
complessi sono difficili da prevedere, presentano
anche un buon livello di struttura e permettono
miglioramenti in seguito a interventi ragionati (AlelrodCohen, 1999, p. XV, cit. in De Toni-Comello, p, 49).
• Doyne Farmer e a Norman Packard che
avevano studiato sin dagli anni ’70 i sistemi
dinamici collettivi, i comportamenti caotici e
gli attrattori strani, si stancarono della teoria
del caos, che era già ben consolidata, ed
erano desiderosi di mettere le mani su di una
teoria della complessità vera.
→ Le dinamiche del caos erano
complesse, ma ripetitive e quindi
superficiali, non generative. Niente si
modifica e niente si adatta, come una foglia
sospinta caoticamente dal vento.
Il secondo principio della
termodinamica
• La termodinamica studia il comportamento e
le proprietà dei sistemi che scambiano
energia con l’ambiente esterno, scambi che si
manifestano in forma di calore e lavoro.
• Ogni esecuzione di un «lavoro» è possibile
quando c’è uno scambio di calore tra due
sorgenti a temperature differenti (Carnot,
1824).
– Carnot quantificò questo lavoro e introdusse il
concetto di rendimento termodinamico.
• Il secondo principio della
termodinamica stabilisce che ogni
«lavoro» comporta una cessione di
calore all’ambiente.
• Vi sono due formulazioni equivalenti di tale
principio:
– Enunciato di Kelvin-Plank: è impossibile
realizzare una trasformazione il cui unico
risultato sia la conversione in lavoro del calore
fornito da una sorgente a temperatura
uniforme.
→ Quindi, è teoricamente impossibile costruire
una macchina che lavori al 100% di rendimento;
non esiste il motore perfetto!
– Enunciato di Clausius: è impossibile
realizzare una trasformazione il cui unico
risultato sia il passaggio di calore da un corpo
a una data temperatura a un altro a
temperatura maggiore.
→ Ciò nega la possibilità di realizzare il
cosiddetto moto perpetuo
- es. Un pendolo diminuisce nel tempo le sue
oscillazione perché una parte della sua energia
viene «bruciata» negli attriti. Una volta avvenuta
questa cessione di energie, non è possibile
«riestrarre» il calore dall’aria e ridare energia
meccanica al pendolo
• Si usa il termine entropia per riferirsi a
questa degradazione dell’energia, che
viene anche interpretata come una
misura del disordine, intesa come
perdita di energia utilizzabile per il lavoro
ad effetto della sua degradazione in
calore.
• Il concetto di entropia venne introdotto agli
inizi del XIX secolo per descrivere una
caratteristica di tutti i sistemi allora conosciuti,
nei quali si osservava che i fenomeni
spontanei/irreversibili, fra cui compaiono i
fenomeni naturali, avvenivano
invariabilmente in una direzione sola, quella
verso il maggior disordine.
• estensivamente il termine è stato utilizzato anche
in altri ambiti, come nella teoria dell’informazione,
per riferirsi alla degradazione dei segnali
trasmessi
Esempi di fenomeni che causano
l’aumento di entropia
→ ogni trasformazione (spontanea e/o
irreversibile) che avviene in natura comporta un
aumento dell’entropia dell’Universo
→ L’esito finale di tutte queste cessioni di calore
previste dal secondo principio della termodinamica
è un aumento della temperatura dell’universo, che
prima o poi giungerà ad uno stadio in cui si troverà
in condizioni di temperatura uniforme – la
cosiddetta «morte termica dell’Universo» – in cui
non ci sarà più possibilità di compiere lavoro, in
quanto, come aveva stabilito Carnot, ogni
esecuzione di un «lavoro» è possibile quando c’è
uno scambio di calore tra due sorgenti a
temperature differenti.
• Dal principio di aumento di entropia
dell’Universo e dall’irreversibilità dei
fenomeni naturali/spontanei possiamo
ricavare anche la nozione dello scorrere
del tempo: è proprio l’irreversibilità di
alcuni processi che ci evidenzia che le
cose non possono tornare indietro.
La nascita della complessità: le
strutture dissipative di Prigogine
e il problema del tempo
Ilya Prigogine (19172003), chimico e fisico
russo, ricevette nel 1977
il premio Nobel per la
chimica per le sue teorie
riguardanti la
termodinamica applicata
ai sistemi complessi e
lontani dall'equilibrio.
• Prigogine ha voluto sviluppare l’idea di irreversibilità
già contenuta nella termodinamica classica, che egli
definisce termodinamica della «stabilità» con una
termodinamica instabile ed evidenziando che in
quest’ultima si producono strutture complesse e
altamente instabili (che egli chiama «dissipative»)
che generano proprietà nuove: si tratta di strutture
che si creano lontano dall’equilibrio in concomitanza
dei punti di biforcazione e possono assumere diverse
configurazioni, non prevedibili.
• Quale biforcazione «sceglierà» il sistema entra a far
parte della sua «storia» → occorre tenere conto della
«storicità» delle scelte adottate da tali sistemi.
→ per Prigogine occorre pensare al tempo non come
al tempo-illusione della fisica (per Hawking e
Einstein il tempo è un’illusione) ma al tempo-reale
della biologia: le strutture dissipative, a cui poi si è
aggiunto il caos dissipativo, hanno chiarito che
siamo tutti immersi nella corrente del tempo,
siamo costituiti da tempo.
…strutture e caos dissipativi sono figli del secondo principio,
in condizioni lontane dall’equilibrio, e manifestazioni del ruolo
costruttivo dell’irreversibilità. D’altro canto appartengono
entrambi alla nuova scienza dei processi non lineari che
sovverte le categorie tradizionali che associano l’intelligibilità
all’ordine, alla regolarità, alla predicibilità (La nuova alleanza,
p. XI)
Il problema centrale è quello dell’evoluzione temporale
associata alla descrizione statistica. Nel caso dei sistemi
stabili la descrizione statistica può essere ridotta alla
descrizione deterministica di un sistema individuale, ossia
alla definizione della sua traiettoria. La descrizione
statistica è dunque “riducibile”. Per i sistemi dinamici
“caotici” la situazione cambia radicalmente. In questo
caso è possibile costruire una descrizione statistica
irriducibile e il ritorno alla traiettoria è dunque impossibile
(La nuova allenza, XIII)
• Quindi, per Prigogine tutti i sistemi possono essere
considerati instabili.
• Trattarli come stabili può avvenire per approssimazione
e in determinate condizioni. Tale approssimazione è
utile perché consente la “calcolabilità” del sistema in
termini riduzionistici (→ individuare le traiettorie) e il
sistema diventa, pertanto, prevedibile con buona
approssimazione. Questa approssimazione cessa però
di diventare trascurabile nei sistemi lontani
dall’equilibrio. Questi richiedono che si abbandoni il
modello meccanicistico che li descrive in termini di
sommatoria della dinamica delle parti in quanto, in tali
condizioni, manifestano dei comportamenti
“intrinsecamente aleatori”; essi diventano descrivibili
solo probabilisticamente (Prigogine, 1996, tr. it. 1997, p. 35).
• Nei sistemi instabili si generano “fluttuazioni” che
innescano risonanze e correlazioni fra le parti su
distanze macroscopiche: tali risonanze conducono a
comportamenti collettivi che producono nuove
strutture.
• In prossimità dell’equilibrio, come ama ripetere
Prigogine, la materia è “cieca”; lontano dall’equilibrio,
“comincia a vedere” (ibidem, p. 121). Le interazioni fra
le parti del sistema e quelle con il contesto, trascurabili
in sistemi stabili o quasi stabili, diventano fondamentali
per descrivere la dinamica di un sistema lontano
dall’equilibrio. Tali sistemi instabili incontrano dei “punti
di biforcazione” nei quali essi possono assumere
diverse modalità di funzionamento collettivo.
Mi piace dire che la materia in prossimità
dell’equilibrio è “cieca”, perché ogni particella
“vede” soltanto le molecole che la circondano; mentre
lontano dall’equilibrio si producono le
correlazioni di lunga portata che permettono la
costruzione degli stati coerenti e che oggi incontriamo
in numerosi campi della fisica e della chimica
(Prigogine, Il ruolo creativo del tempo, 1984).
• Nozioni come quelle di risonanza, punti di
biforcazione, cambiamento di stato, aggancio di
fase ecc. sono utilizzati dai teorici della complessità
per dar conto di come l’evolvere di strutture
complesse non sia semplicemente spiegabile in
termini di sommatoria del funzionamento delle
parti. I sistemi complessi, a differenza delle
idealizzazioni tratte dalla meccanica classica, sono
sensibili a perturbazioni, “rumori”, processi
intrinseci ed estrinseci (Prigogine & Stengers,
1981, p. 268, n. 1).
• L’ideale della scienza classica è un ideale
universale e atemporale, mentre le scienze
umane sono legate all’idea di uno schema
storico e di strutture che si sovrappongono alle
altre. A parere di Prigogine
…si è verificato un divorzio tra la situazione esistenziale
dell’uomo, nella quale il tempo svolge un ruolo
essenziale, e la visione atemporale, vuota della fisica
classica, pur con le integrazioni e le novità apportate
dalla meccanica quantistica e dalla relatività.
• Ilya Prigogine scrisse con Isabelle Stengers nel 1979 il libro
La nuova alleanza (tr. it. Einaudi 1981) nel quale intendeva
mostrare come la vita non sia frutto del caso e della
necessità, bensì della capacità dei sistemi viventi lontani
dall’equilibrio di auto-organizzarsi.
• Il libro rappresenta una risposta al celebre testo di Jacques
Monod Il caso e la necessità. In esso, con lucido
pessimismo, l’autore proclamava che la scienza aveva
infranto l'antica alleanza tra la natura e l'uomo. L’ideale della
scienza è l’ideale di uno schema universale e atemporale,
mentre le scienze umane sono basate su uno schema storico
legato al concetto di situazioni nuove o strutture nuove che di
sovrappongono ad altre. Monod scriveva:
L’antica alleanza è infranta; l’uomo finalmente sa di essere solo
nell’immensità indifferente dell’universo da cui è emerso per caso.
Il suo dovere, come il suo destino non è scritto in nessun luogo. A
lui la scelta tra il Regno e le tenebre.
• Occorre da un lato non attaccare la scienza come
strumento positivista, né l’arte e la letteratura come
se fossero artifici privi di portata reale. Io credo –
continua Prigogine – che il mio libro La nuova
alleanza esprima una corrente di sintesi molto
radicata nel nostro tempo.
• Prigogine fu insignito del premio Nobel nel 1977 per i suoi
studi su sulle «strutture dissipative».
→ Una struttura dissipativa è sistema
termodinamicamente aperto, instabile e lontano
dall'equilibrio termodinamico, caratterizzato dalla
capacità di formare spontaneamente strutture ordinate
e complesse. Questi sistemi, possono acquisire
energia dall’esterno diminuendo così la propria
entropia (neghentropia) e, passando attraverso fasi di
instabilità, evolvere in strutture di maggiore
complessità.
• Il termine «struttura dissipativa» tende a
sottolineare la stretta associazione fra struttura e ordine
da una parte e perdite e sprechi dall’altra. La
dissipazione dell’energia e della materia diventa, in
condizioni lontane dall’equilibrio, fonte di ordine […] La
dissipazione è all’origine di ciò che si possono
chiamare, a giusto titolo, nuovi stati della materia
(Prigogine, Stenger, 1979, tr it. 1981, p. 148)
Un esempio di struttura dissipativa: le celle di Bénard.
Bénard effettò nel 1900 un esperimento consistente nel riscaldare dal basso un
sottile strato di liquido in modo tale da osservare i moti convettivi che in esso si
generano. Fino a quando la variazione di temperatura è piccola tra l'interno e la
superficie si ha unicamente un fenomeno di conduzione senza trasporto di materia.
Al di sopra di una certa temperatura ha inizio un meccanismo di convezione che
risulta sorprendente: il moto del fluido si struttura in una serie di cellette, chiamate
appunto Celle di Bénard.
http://aulascienze.scuola.zanichelli.it/fisicamente/2009/02/23/dallacqua-tiepida-agli-astronauti
• Prigogine ebbe con il concetto di struttura dissipativa il
merito di evidenziare situazioni fortemente dinamiche e
instabili, diverse da quelle statiche e di equilibrio
generalmente studiate fino ad allora, contribuendo in
maniera fondamentale alla nascita di quella che oggi viene
chiamata epistemologia della complessità.
→ Prigogine è riuscito a risolvere il paradosso delle
due contrapposte visioni dell’evoluzione in fisica e in
biologia: quella di un motore che si esaurisce e quella
di un mondo vivente che si dispiega verso un ordine e
una complessità crescenti (De Toni, Comello, p. 51)
• Per Prigogine tutti i sistemi sono «aperti»,
nel senso della cibernetica.
«I sistemi isolati sono un’astrazione. Ogni
sistema reale è, in pratica, contenuto in un altro
sistema, di cui è sottosistema. In un certo senso
esiste anzi un solo gigantesco sistema,
l’universo. Ogni altro sistema può essere
individuato, ritagliato dal resto dell’universo
(dallo sfondo) ed etichettato con un nome sono
da un osservatore» (Cammarata, 1999, p. 20)
• I sistemi aperti scambiano energia e
informazione con l’ambiente. Per essi la
seconda legge della termodinamica non
vale, perché sono in grado di importare
energia (neghentropia)
↓
(Ciò non è in contraddizione con la seconda
legge della termodinamica, perché l’entropia
dell’intero ambiente aumenterà in modo
corrispondente).
Prigogine, maestro (cattivo?) della complessità
di Fabio Pagan*
Strano destino, quello di Ilya Prigogine, il famoso chimico fisico (e
filosofo) scomparso il 28 maggio 2003 a Bruxelles all'età di 86 anni.
Strano e soprattutto amaro. Perché, ottenuto il premio Nobel per la
chimica nel 1977 per le sue ricerche fondamentali sulla termodinamica
dei sistemi in non-equilibrio, il Prigogine filosofo degli ultimi trent'anni
sembra aver fallito proprio lì dove il Prigogine scienziato aveva invece
avuto successo.
Fino a venire considerato, lui, pioniere degli studi sulla complessità, una
sorta di "cattivo maestro" proprio da coloro che dovrebbero esserne gli
eredi naturali.
*Fabio Pagan, laureato in Scienze Biologiche all'Università di Trieste, è giornalista professionista. Per 25 anni è stato redattore del
quotidiano "Il Piccolo" di Trieste, sul quale scrive articoli di scienza e tecnologia fin dal 1968. Collabora con la RAI dal 1971 per
programmi regionali e nazionali, attualmente è uno dei conduttori della trasmissione "Radio3 Scienza". Per dieci anni è stato
addetto stampa del Centro internazionale di fisica teorica (ICTP) e nel 1993 è stato tra i fondatori del Master in comunicazione
della scienza della SISSA, di cui è stato docente e vicedirettore fino al 2009. Fa parte del comitato scientifico del Museo di storia
naturale e archeologia di Montebelluna-Treviso. Collabora a varie riviste e organizza eventi pubblici di scienza e cultura.
Osserva il fisico Giorgio Parisi, che all'Università di Roma La Sapienza
ha recentemente fondato sotto l'egida dell'INFM un centro di meccanica
statistica e complessità: "Prigogine ha avuto enormi meriti per i suoi
lavori degli anni quaranta e cinquanta. Poi è come inciampato sul
problema dell'irreversibilità di certi fenomeni, della freccia del
tempo. E questo lo ha portato in disaccordo con la quasi totalità
della comunità scientifica, infilandosi in un vicolo cieco. E' un po'
quello che è accaduto a un altro grande scienziato recentemente
scomparso, il matematico René Thom. Il quale ha costruito una
teoria geniale, la teoria delle catastrofi. Ma ha poi cominciato a
voler spiegare tutto secondo questa teoria".
Nato a Mosca nel fatale 1917, portato dai genitori prima in Germania e
poi in Belgio, Prigogine aveva focalizzato i suoi interessi sui fenomeni
irreversibili fin da quando era studente alla Libera Università di
Bruxelles.
E in un paper dato alle stampe nel 1967, intitolato "Structure, Dissipation
and Life", aveva introdotto il concetto di struttura dissipativa. Ovvero un
sistema termodinamico in non-equilibrio in grado di scambiare energia
con l'esterno e di far emergere l'ordine dal disordine. Opponendosi così
a quel secondo principio della termodinamica che prevede per ogni
sistema isolato un progressivo degrado verso uno stato di maggiore
disordine molecolare (e quindi di maggiore entropia). Tipico sistema
dissipativo è il vivente, dalle cellule agli organismi superiori.
Prigogine iniziava così l'ambizioso progetto di portare il concetto di autoorganizzazione spontanea al di fuori del terreno della fisica e della
chimica, invadendo la biologia, i sistemi sociali, la stessa storia umana.
E da queste riflessioni nasceva nel 1979 il suo libro più importante, più
bello e più controverso: "La nuova alleanza", scritto a quattro mani con la
sua collaboratrice Isabelle Stengers (edito in Italia da Einaudi nel 1981).
"La nuova alleanza" fu per Prigogine la risposta a un altro saggio celebre
scritto dal biochimico francese Jacques Monod, "Il caso e la necessità".
Se Monod, nel suo lucido pessimismo esistenziale, proclamava che la
scienza aveva infranto l'antica alleanza tra la natura e l'uomo, Prigogine
voleva ricomporre il dissidio: la vita (e quindi l'uomo) non è frutto del
caso, bensì delle fluttuazioni irreversibili di un sistema capace di autoorganizzarsi. E al tempo illusorio della fisica Prigogine contrapponeva il
tempo reale della biologia, ricapitolando la controversia tra Einstein e
Bergson.
Da qui partì il tentativo di Prigogine di estendere i risultati ottenuti nei
sistemi termodinamici lontani dall'equilibrio a tutti i sistemi complessi, il
cui comportamento è stocastico, aleatorio, affidato a troppi parametri per
poter essere previsto a priori.
Direttore degli Istituti Solvay di Bruxelles, direttore del Centro di
meccanica statistica e termodinamica dell'Università del Texas a Austin,
Prigogine veicolerà le sue idee attraverso numerosi libri e un attivismo
personale quasi incredibile. Convegni, dibattiti, interviste ne faranno un
personaggio privilegiato dai media ma sempre più soggetto alle critiche
dei colleghi scienziati.
Non senza ragione. Dice Miguel Virasoro, tornato all'Università di
Roma dopo aver diretto per sette anni il Centro internazionale di fisica
teorica di Trieste e avervi creato una scuola della complessità:
"Prigogine si è mosso in anticipo sui tempi e con ambizioni eccessive.
Cercava una legge unica che servisse a spiegare fenomeni
diversissimi. E così la sua visione della complessità rischia ora di fare
la stessa fine di altri concetti che in passato pretendevano di spiegare
il mondo: come la cibernetica di Wiener, o la sinergetica di Haken.
Oggi siamo più scettici, perlomeno in Europa. Al massimo possiamo
dire che i paradigmi trovati per certi sistemi complessi possono
aiutarci ad affrontarne altri. Nulla di più. In America, invece, la scuola
di Santa Fe sembra rifarsi esplicitamente a Prigogine. Stuart
Kauffman con i suoi fenomeni al margine del caos, il danese Per Bak
con la sua criticità auto-organizzata... Sembra quasi la ricerca di
metafore vincenti, più che un serio lavoro di ricerca".
E' d'accordo Riccardo Zecchina, esponente di punta della scuola dei
"complessologi" triestini: "L'approccio di Prigogine alla complessità
appare oggi utopistico e paradossalmente poco interdisciplinare.
Voleva ridurre tutti i sistemi complessi a un unico schema, ma senza
successo. Qui a Trieste sperimentiamo invece un approccio
multisciplinare, usando tecniche diverse: la fisica statistica, la teoria
della probabilità, la teoria dei giochi, la computer science. Metodi e
paradigmi diversi a seconda dei tipi di complessità che
studiamo. Esiste infatti una complessità computazionale, legata al
calcolo; una complessità di sistemi che hanno molti agenti che
interagiscono tra loro, come avviene in economia; una complessità
dei sistemi fisici fuori dell'equilibrio, come nei cosiddetti vetri di spin;
una complessità di ispirazione biologica. Usiamo algoritmi, teoremi,
con forte rigore formale. E i risultati cominciano a vedersi".
Scarica

teoria della complessità - alfabetico dei docenti 2009