Sistemi per il governo dei ROBOT
Dalle macchine pensanti di Valentino
Braitenberg ad alcune
considerazioni gnoseologiche
Stefano Minopoli
1
Struttura del seminario
Introduzione
Un esempio ispirato alle macchine
pensanti di Valentino
Braitenberg
A partire dall’esempio alcune
considerazioni personali
2
1. Le due culture: umanistica e scientifica
•La cultura umanistica è tipicamente basata sul considerare gli
eventi come irriproducibili, il tempo della storia come irreversibile,
la relazione di causalità come circolare.
•La cultura scientifica è invece lineare: alla causa corrisponde un
effetto ed il legame di causalità può essere verificato tutte le
volte che si vuole con la sperimentazione.
Da una parte l’approccio umanistico è globale, esamina dei fenomeni complessi
come il comportamento dell’uomo nel suo vivere storico e tenta con l’analisi di
sviluppare delle regole di classificazione dei fenomeni che rimangono complessi.
Dall’altra parte, l’approccio è quello della sintesi, fatta partendo da semplici
blocchi di conoscenza e costruendo su di essi teorie scientifiche del mondo, via
via più complesse, ma ogni volta riconducibili alla spiegazione elementare dei
blocchi costituenti.
3
E’ interessante notare come l’approccio
dello scienziato alla conoscenza del mondo
non è diverso da quello dell’uomo che
costruisce macchine via via più complesse,
ma sempre da lui dominabili perché fatte
di parti e componenti messe assieme
secondo un progetto ben definito.
Tale ipotesi positivistica non ha retto molto, grazie anche allo sviluppo
di alcune branche della scienza, come quella dello studio dei fenomeni
irreversibili, del nascere dell’ordine dal caos.
C’è chi vede ora come unica via di uscita, per procedere nella
comprensione dell’universo, la collaborazione tra le due culture,
preconizzando la nascita di una “Nuova Alleanza”.
4
2. L’intelligenza
Il dibattito si sta ora portando dal campo delle conoscenze
scientifiche a quello più pratico delle macchine prodotte dall’uomo.
Da una parte forse l’uomo dovrà rinunciare al sogno positivista di
ridurre ai suoi componenti elementari la comprensione di “macchine
naturali” così complesse come il cervello: ovvero pur riuscendo a
comprendere tutti gli elementi costituenti ed il loro funzionamento
singolo, non riuscirà a spiegare come nascono le idee, il rapporto tra
l’io ed il cervello.
Dall’altra parte ci si può chiedere: l’uomo
è proprio sicuro di poter sempre
comprendere le macchine artificiali da
lui stesso costruite?
5
Ed ancora:
Ma cosa è una macchina pensante?
Turing propose un test per dire se una “macchina” si comporta come
un uomo.
Egli immagina un gioco svolto da tre persone:
Un interrogante, un uomo ed una donna.
I tre non si conoscono e stanno in tre stanze separate e comunicano
tra di loro solo per mezzo di telescrivente.
L’interrogante vuole scoprire chi dei due è uomo e quest’ultimo
cerca invece di ingannarlo dicendo che lui è donna.
Quest’ultima invece collabora con l’interrogante, il quale pone
domande via via diverse all’uno ed all’altra per cercare di capire chi
dei due dica il vero.
6
Il test di Turing consiste nell’immaginare di sostituire l’uomo con un
computer. Se esso riuscirà a trarre in inganno l’interrogante, possiamo,
secondo Turing, parlare di macchina intelligente.
PRO: Ben si adatta nel caso di macchine che elaborano
informazione senza produrre come conseguenza
dell’elaborazione delle azioni “visibili”.
CONTRO: basta ricordare il termine SITUATEDNESS
riferito ai robot, adoperato durante il corso.
Con questo si vuol dire che è molto diverso esaminare, ad
esempio, il comportamento di un robot dotato di capacità
di vedere la scena attorno a lui e decidere di conseguenza
i propri movimenti.
7
Affiorano immediatamente alla mente alcuni interrogativi:
Quando un robot ha superato la vera soglia
del comportamento intelligente e quale è
tale soglia?
Può la macchina diventare così complessa da
sviluppare comportamenti non predicibili,
comportamenti creativi?
Può ad un certo punto una macchina, dotata
di capacità sensoriali e di elaborazione delle
informazioni dategli dai suoi sensi, una
macchina che per di più si muove, sviluppare
comportamenti tipici di esseri viventi?
8
3. Le macchine pensanti di Braitenberg
Il libro “I veicoli pensanti” di Valentino Braitenberg, neurologo e
psichiatra, fa riflettere al riguardo.
Il problema che si pone Braitenberg è cercare di mostrare come dei
comportamenti psicologici anche complessi possono già venir prodotti
anche da strutture cerebrali semplici.
La fondamentale novità è costituita dal considerare delle macchine che
si muovono, dei veicoli.
Questa è la sostanziale differenza rispetto a Turing:
mentre il test di quest’ultimo è basato sulla capacità di
elaborare informazione – quindi un puro test di
intelligenza – le prove immaginate da Braitenberg
chiudono il circuito informazione-elaborazione-azione.
9
Per il fatto che si muovono, le macchine di Braitenberg incontrano un
ambiente vario e ad esso reagiscono.
I veicoli di Braitenberg sono fatti di componenti semplici come
motorini, ruote e sensori: l’elaborazione dell’informazione è
accuratamente evitata a favore invece di collegamenti diretti
tramite fili tra sensori ed attuatori.
Egli parte da un veicolo molto semplice: due motori , uno per ruota,
due sensori, ad esempio delle fotocellule.
Quando l’intensità di luce aumenta, il motore aumenta la sua potenza.
A questo punto basta già invertire il collegamento tra sensori e ruote
(sensore di sinistra collegato alla ruota di destra e viceversa),
perché il comportamento del veicolo sia molto diverso da prima:
invece di fuggire una sorgente luminosa, vi precipita contro.
10
Braitenberg costruisce veicoli via via più complessi, ma tutti ancora
abbastanza semplici, o almeno così sembra. Aumenta il numero dei
sensori e i relativi segnali si sommano o si differenziano, vengono
ritardati, immagazzinati o servono per fare anticipazioni sul
cambiamento di scena.
Lo straordinario è che, per complessità ancora
modeste della macchina, il suo comportamento
diventa del tutto imprevedibile.
Braitenberg usa addirittura il linguaggio della
psicologia per descrivere il comportamento dei
suoi semplici veicoli: paura, amore, logica,
egoismo ecc.
11
4. Un esempio di sistema cognitivo ispirato dal libro di Braitenberg
Nell’ambito delle macchine di Braitenberg (ed in generale nelle
macchine che seguono il PARADIGMA REATTIVO) gioca un ruolo
fondamentale il concetto di feedback:
“Un comando della macchina sulla base del suo
funzionamento effettivo anziché del suo
comportamento previsto è conosciuto come
retroazione (feedback), e implica che i membri
sensori, messi in azione dai membri motori
svolgano una funzione di rivelatori o
segnalatori, cioè di elementi che indicano il
(Norbert Wiener, Introduzione alle cibernetica, Boringhieri, Torino, 1966 - tit.or.
comportamento”
The Human Use of Human Beings, Houghton Mifflin Company, Boston, 1950)
12
Usiamo un esempio di veicolo ispirato alle macchine di Braitenberg
per mostrare come una forma molto semplice di feedback possa farci
comprendere la natura della conoscenza.
Supponiamo di avere un veicolo costruito con ruote motorizzate e
con il programma schematizzato in figura
13
Analizziamo prima in modo informale il comportamento del veicolo:
ovvero posizionamoci al livello uno dei tre descritti da Marr:
La variabile ruotegirano è binaria e vale uno se le ruote girano,
zero se la rotazione viene interrotta.
Con queste istruzioni il veicolo avanza fino a che non incontra un
ostacolo tale per cui le ruote si fermano. (Specifica del task)
Quando le ruote si fermano si stacca la frizione automaticamente;
ciò ipotizzando condizioni di attrito e di potenza del motore tali
per cui le ruote non slittano. (Specifica ed analisi della nicchia
ecologica)
In tal caso il veicolo effettua una retromarcia per la durata di un
secondo, sterza 90 gradi a sinistra e riparte. (Ancora specifica del
task)
14
Si cerca adesso di dare una descrizione più formale del
comportamento del robot in questione, specificandone i
BEHAVIOUR.
Per fare ciò ci si avvarrà di Schema Teory, Behaviour Table, Automi
a stati finiti e semplici script di “gestione”.
Sarà poi presentata la descrizione del robot implementato con la
tecnica della sussunzione.
Essendo questo un esempio semplice è di conseguenza ugualmente
semplice individuarne i behaviour:
Andare avanti. Il releaser è l’assenza di ostacolo.
Andare indietro per un secondo. Il releaser è la
presenza di ostacolo.
Girare di 90 gradi a sinistra. Il releaser è la fine
della retromarcia.
15
Anche gli altri due behaviour possono ovviamente essere cosi
schematizzati.
I behaviour individuati sono veri e propri behaviour primitivi.
Si sarebbe potuto individuare un unico behaviour astratto,
chiamato per esempio ESPLORA, che contenesse le tre azioni
elementari: andare avanti, fare retromarcia per un secondo in
caso di ostacolo e successivamente girare di 90 gradi a
16
sinistra.
La figura seguente mostra, tramite lo Schema Teory, il
behaviour Andare avanti con i relativi percetti, schema
motorio e schema percettivo: da tale schematizzazione
appare chiara la vicinanza tra behaviour e concetto di
oggetto nella programmazione orientata agli oggetti
oggetti:
17
Il percetto è la variabile binaria RG che, come si è visto in
precedenza, vale uno nel caso in cui le ruote girino (e dunque non vi
sono ostacoli) e zero viceversa.
Lo schema percettivo è costituito dal metodo extractRG che si
occupa appunto di ritornare i valore della variabile RG.
Lo schema motorio è costituito dal metodo move.forward(): l’uso di
un metodo di un altro oggetto (oggetto move) è preferibile perché in
tal modo si può pensare di costruire un modulo a parte, generico, che
si occupi interamente del movimento del robot.
Si noti che schema percettivo e schema motorio operano in modo del
tutto indipendente fra di loro: in effetti vi è una sorta di comunicazione
“indiretta” fra i due schemi, dove è il behaviour che si preoccupa di
passare il percetto dallo schema percettivo allo schema motorio.
Con tale descrizione più formale si è passati al livello due di Marr (in
effetti lo Schema Teory si colloca esattamente a questo livello): ci si
sta preoccupando delle funzioni esplicate dal robot invece del come
queste sono implementate.
18
Per avere un quadro completo dei behaviour, dei rispettivi releaser,
percetti, schemi percettivi e schemi motori, si riassume il tutto in una
BEHAVIOUR TABLE, come in figura:
Il behaviour INDIETRO ha risposta di tipo FIXED ACTION PATTERN.
Il behaviour GIRA è un classico con risposta di tipo TAXED.
19
La BEHAVIUOR TABLE ha il grosso pregio di riassumere
comodamente appunto i vari behaviour del robot.
Tramite tale rappresentazione può però risultare difficile
comprendere come il robot si comporta “sequenzialmente”: ovvero
potrebbe non essere subito chiaro se e quali behaviour vengono
eseguiti prima di altri.
Un modo molto comodo per ovviare a questa “carenza” è utilizzare
descrizione tramite automo a stati finiti, in forma di diagrammi a
bolle o in forma tabellare.
20
La figura seguente mostra l’utilizzo di un BUBBLE DIAGRAM:
21
Dalla visione di questo Bubble Diagram balza subito all’occhio la
potenziale presenza di più stati interni: entrambi strettamente
connessi alla questione del timing.
Quando il robot sta facendo marcia indietro, un orologio
interno deve inizializzarsi ad un secondo e cominciare un
conto alla rovescia.
Successivamente il robot deve girare di 90°, dunque vi è
bisogno di una sorta di memoria che gli “dice” che un istante
di tempo prima stava facendo marcia indietro.
La mia opinione al riguardo è che il countdown può essere visto come
una sorta di Schema Percettivo: al pari del sensore che rileva il
valore della variabile RG, il countdown è un meccanismo che rileva la
fine di un intervallo di tempo.
Di sicuro per fare ciò vi è bisogno di una memoria interna, ma
secondo me questo tipo di informazione memorizzata non può
essere definito un vero e proprio stato interno.
22
Anche il passaggio da INDIETRO a GIRA potrebbe portare alla
individuazione di uno stato interno: ciò perché, come già specificato
prima, il robot, per mettersi nella condizione GIRA, deve in qualche
modo “sapere” che un istante di tempo prima era nella condizione
INDIETRO.
Ma anche in questo caso io credo che si possa superare la visione di
presenza di stato interno considerando semplicemente che lo Schema
Motorio di INDIETRO “rilascia” un percetto elapsed, rilevabile dallo
Schema Percettivo di GIRA.
Tale piccola ambiguità in questo elementare esempio, potrebbe
diventare una grossa ambiguità, nel caso di un oggetto ben più
complesso.
Il primo passo da fare dovrebbe essere quello di
meglio capire dove è la linea di confine che separa il
variare dei valori dei percetti dalla presenza di veri e
propri stati interni.
23
Come già detto, un diagramma a stati può essere rappresentato
anche in forma tabellare.
In figura vi è la tabella della FSM che descrive il robot.
24
Durante il corso si è visto come una architettura reattiva possa
essere implementata utilizzando la sussunzione o i campi di
potenziale.
I campi di potenziale trovano sicuramente la loro naturale
collocazione quando c’è da combinare un qualsiasi tipo di
movimento con la necessità di evitare ostacoli.
Nell’esempio invece il robot non evita affatto l’ostacolo, anzi:
esso lo rileva solo dopo averci urtato.
Per questo è sembrato più naturale svilupparlo con il concetto della
sussunzione, piuttosto che con campi di potenziale.
25
Al livello inferiore dell’architettura, vi è sicuramente il modulo
che gestisce il movimento in avanti del robot: modulo
FORWARD. (Livello zero).
Quando il veicolo incontra un ostacolo, lo schema percettivo
rileva che le ruote sono ferme e che il robot deve fare marcia
indietro: si attiva perciò il modulo BACKWARD che sussume il
modulo di FORWARD.
(Livello uno).
Quando lo schema percettivo del BACKWARD (il countdown)
rileva l’ elapsed, si attiva il modulo TURN che inibisce il modulo
BACKWARD.
(Livello due).
Quando il veicolo ha effettuato una sterzata di 90°, il modulo
TURN non è più attivo e dunque il modulo FORWARD (essendo
stato sussunto e non inibito) riprende il suo lavoro
26
In figura lo schema dell’architettura a sussunzione dell’esempio:
27
4.1 Gli osservatori esterni
Si passa adesso ad analizzare come dei vari ed ipotetici osservatori
esterni attribuiscono diverse capacità (intelligenza) al robot.
In tale analisi risulterà evidente quanto può differire ciò che il
“costruttore” del robot vuole che questo faccia da ciò che invece
un osservatore crede che il robot fa effettivamente.
28
Adesso immaginiamo un osservatore OSS_UNO, che osservi il
veicolo muoversi nel suo ambiente.
In figura è riportato ciò che osserverà in un determinato ambiente:
OSS_UNO potrebbe descrive il 'comportamento' del veicolo,
affermando che questi cerca di evitare gli ostacoli e trovare lo spazio
aperto.
Opera cioè una selezione degli stimoli esterni, che lo porta a ricercare
lo stato di movimento ed evitare lo stato di immobilità.
29
Braitenberg cerca di costruire, un passo dopo
l'altro, veicoli sempre più sofisticati per
dimostrare che l'intelligenza o 'mente' è
costruita sulla base di osservazioni di
comportamenti e delle categorie descrittive
dell'osservatore, e che quello che accade
'dentro' la 'scatola' può avere caratteristiche
molto diverse.
A noi non interessa dimostrare questo.
Vogliamo solo mostrare che non vi è nulla del mondo
esterno che conosciamo 'così com'è', ma che ogni
conoscenza è una rappresentazione, un segno del
mondo così com'è.
30
Immaginiamo adesso un secondo osservatore, OSS_DUE, che sta in
una stanza chiusa e ha di fronte a sé un monitor, collegato al veicolo
(che chiameremo VEIC).
OSS_DUE è un essere molto semplice, dotato solo di funzioni
rudimentali: sa tenere un conto approssimativo del tempo e sa
associare in modo stabile gli eventi che accadono
contemporaneamente e successivamente.
Ha perciò una rudimentale memoria.
Sul monitor sono rappresentate le variabili e gli stati di VEIC:
ruotegirano (RG);
motore-avanti (MA);
motore-indietro (MI);
sterza (90SX).
Ognuna di esse può avere valore ZERO (spento) o UNO (acceso).
OSS_DUE dunque non può sapere cosa corrispondono quei segnali.
31
E' chiaro che quello che sappiamo noi è diverso da quello che sa
OSS_DUE, perché noi abbiamo dei mezzi diversi di conoscenza.
Cerchiamo di capire che cosa ‘sa‘ OSS_DUE:
Esso può stabilire, dopo un'osservazione di qualsivoglia durata, che
tra le luci colorate vi sono delle relazioni associative:
32
RG è 1 se MA è 1 oppure MI = 1.
MI è 1 quando MA è 0 e viceversa;
90SX è sempre 0 e diventa 1 solo in seguito alla sequenza:
RG 1 -> 0; MA 0 -> 1; MI 1 -> 0; RG 0 -> 1; MA 0 -> 1.
E così via.
A quel punto 90SX passa a 1 per un breve periodo e poi torna a zero.
E' chiaro che OSS_DUE deve essere in grado di disporre questi
eventi nel tempo, e verificare i loro stati contemporanei e
successivi.
Questo non richiede facoltà cognitive molto raffinate.
33
OSS_DUE non è in grado di concludere che vi sono rapporti di causa ed
effetto tra le luci.
Si limita a rilevare associazioni e regolarità.
Egli ad un certo punto arriverà a concludere che c'è una sequenza fissa
di stati che si ripete ciclicamente, come riassunto nella tabella.
Fasi
1
2
3
4
5
MA
1
1
0
1
1
MI
0
0
1
0
0
RG
1
0
1
1
1
90SX
0
0
0
1
0
La fase 5 è identica a 1. Poi la sequenza si ripete.
Supponiamo che l'ambiente in cui si muove VEIC sia in questo caso
'adatto' alle sue caratteristiche, cioè supponiamo che non si trovi
dentro una scatola né in uno spazio illimitato, né su un fondo
appiccicoso né su un fondo di ghiaia.
34
Tra le varie conclusioni di OSS_DUE ce n'è una empirica:
OSS_DUE noterà che il tempo che passa tra le varie fasi non è sempre reg
Vediamo la stessa tabella con una misurazione del tempo in un caso empiric
Fasi
1
2
3
4
1
2
3
4
1
Durata fasi
1'20"
0,5"
2"
1"
2'02"
0,5"
2"
1"
2'30"
MA
1
1
0
1
1
1
0
1
1
MI
0
0
1
0
0
0
1
0
0
RG
1
0
1
1
1
0
1
1
1
90SX
0
0
0
1
0
0
0
1
0
35
OSS_DUE noterà che, mentre le fasi da 2 a 4 durano ciascuna
sempre lo stesso tempo, la fase 1 varia in modo imprevedibile.
Ora OSS_DUE si concentra sulla fase 1: è evidente che la
differenza tra la durata regolare del ciclo 2-3-4 e quella
irregolare della fase 1 attrae la sua attenzione.
Noi sappiamo che questo è dovuto al fatto che VEIC sta esplorando
un ambiente molto ampio o che varia di forma (es.: per ostacoli che
spostiamo continuamente).
36
L'altra cosa che OSS_DUE può concludere è che il sistema permane
nella fase 1 finché non cambia la variabile RG.
RG diventa il nuovo fuoco della sua attenzione.
E' lo scatto di RG da 1 a 0 che mette in moto il meccanismo -identico ogni
volta- che porta a una nuova fase 1.
RG diventa il segno della fine della fase 1.
37
4.2 L’esperienza
OSS_DUE può prevedere esattamente tutto ciò che accade nel
sistema, ma non è in grado di prevedere quando inizia e quando finisce
la fase 1.
E' questo ciò che Charles Peirce intende per secondità, e che noi
possiamo chiamare esperienza.
“Whenever we come to know a fact, it is by its resisting us. A man
may walk down Wall Street debating within himself the existence of
an external world; but if in his brown study he jostles up against
somebody who angrily draws off and knocks him down, the sceptic is
unlikely to carry his scepticism so far as to doubt whether anything
beside the ego was concerned in that phenomenon. The resistance
shows him that something independent of him is there. When
anything strikes upon the senses, the mind's train of thought is
always interrupted; for if it were not, nothing would distinguish the
new observation from a fancy”.
Charles Peirce
38
In sostanza, è secondità, cioè esperienza, tutto ciò che non riusciamo
a prevedere o a modificare a nostra volontà.
E di questo ce n'è un'abbondanza enorme nella vita quotidiana. Lo
chiamiamo 'contingente', ma anche, più semplicemente, 'fatto'.
Quindi, le conoscenze 'date' non hanno carattere di 'fatti' perché
hanno un certo contenuto (cioè perché sono in un certo modo), ma
perché il loro accadere ha una certa forma rispetto alla nostra mente,
cioè ai nostri sistemi di attese.
La luce di cui OSS_DUE non riesce a prevedere la durata (cioè
che sfugge ai suoi sistemi di attese o abiti) è uguale alle altre.
Anzi, potremmo cambiarla con un'altra.
Quello che è imprevedibile è il suo stato, cioè il modo con cui
varia.
39
Possiamo anche sapere come sono le nostre esperienze, ma non sappiamo
quando accadono.
Questo esempio vuol far capire che l'esperienza non si distingue per il
contenuto ma per il fatto che accade, cioè si distacca imprevedibilmente
dai sistemi di attese.
Il contenuto è definito dal nostro sistema percettivo, cioè dai sensori,
che reagiscono a certi eventi, in un certo modo (cambiando stato).
I nostri occhi reagiscono alla luce e trasmettono
segnali al nostro cervello. Il cervello elabora gli stati
dei nervi, non il mondo esterno. Possiamo dire che
'ascolta' le orecchie, non i suoni; 'vede' gli occhi e non
la luce; 'tocca' le dita e non gli oggetti; 'gusta' la
lingua e non i cibi, 'annusa' il naso e non gli odori.
Quindi conosciamo solo stati di noi stessi.
40
4.3 L’ambiente
Torniamo ora al punto di vista di OSS_UNO.
La cosa che tende forse a sfuggirci è la complementarità di VEIC e del
suo ambiente.
Nulla infatti vieterebbe che VEIC si trovasse in una scatola tale da
impedirgli ogni movimento, o in un blocco di argilla o ancora in uno spazio
piano illimitato, nel quale non troverebbe alcun ostacolo.
Nell'ultimo caso, l'osservatore non noterebbe nessun comportamento
selettivo.
VEIC apparirebbe piuttosto stupido. In realtà è solo 'fortunato',
perché ha davanti a sé la possibilità di mantenere il proprio obiettivo
all'infinito.
41
Ci rendiamo subito conto che non ha senso immaginare VEIC senza
immaginare un ambiente nel quale collocarlo. Ed è esattamente uno
dei punti fondamentali che dobbiamo tenere in mente: qualsiasi sia la
nostra definizione di 'esperienza' e di soggetto (uomo, animale ecc),
non possiamo neppure pensare che tra i due piani non vi sia una
complementarità.
Oggi questo è un punto di arrivo: l'uomo fa parte della natura e del
mondo e si è sviluppato in interazione (feedback) con l'ambiente.
Perciò i suoi sensi e il suo sistema cognitivo sono adatti a conoscere
l'ambiente e a fare da base a decisioni funzionali ad esso.
42
4.4 Conoscenza e ambiente
Vediamo di capire meglio con un altro esempio.
Possiamo immaginare delle caratteristiche dell'ambiente che sono
intermedie tra una scatola e uno spazio libero.
Queste caratteristiche possono essere divise tra quelle conoscibili da
VEIC_UNO e quelle inconoscibili da VEIC_UNO.
43
Nell'ambiente di fig.4 VEIC_UNO avanza verso il muro A, lo urta,
retrocede e sterza a sinistra, urta B, retrocede e sterza, urta C,
retrocede e sterza, urta D, e a questo punto ripete quanto aveva
fatto.
“E' imprigionato perché non riesce a vedere l'uscita” potrebbe dire
OSS_UNO.
In effetti VEIC non può 'percepire' le vie d'uscita a causa di come è
fatto lui e di come è fatto l'ambiente.
Per OSS_DUE invece, l'universo di figura è diverso da quello che
vede OSS_UNO: egli adesso nota che la fase 1 è di durata
prevedibile.
Se vede solo questo universo, non avrà mai alcuna nozione di
secondità.
44
Se rovesciamo la posizione dei muri, tutto cambia: VEIC, partendo
dalla posizione nella quale è raffigurato, ignorerà per sempre
l'esistenza di B, C e D, e dopo aver urtato A si avvierà felice verso
spazi aperti.
45
OSS_UNO dovrebbe notare che VEIC nel vecchio ambiente non trova
vie di fuga perché non può interagire con esse.
Per OSS_DUE l'universo “nuovo” è completamente diverso:
egli nota che dopo un ciclo la fase 1 si prolunga all'infinito.
Due universi che dall'esterno appaiono quasi identici vengono visti da
OSS_DUE in modo completamente diverso.
Gli ostacoli B, C e D sono inconoscibili per contingenza.
46
Se fossero posti in un altro modo, VEIC potrebbe 'conoscerli', cioè
interagire con essi.
E' il caso dei fatti che non incontriamo. Potremmo conoscerli, ma non li
conosciamo perché non ci imbattiamo in essi.
Possiamo immaginare, oltre ad ambienti con proprietà percepibili che
però OSS_DUE non incontra, ambienti con proprietà del tutto 'invisibili'
per OSS_DUE:
per esempio veicolo può trovarsi su una superficie coperta di ghiaia fine;
in tal caso VEIC continuerà a far girare le ruote, soddisfacendo RG = 1
(se l’attrito della ghiaia delle ruote non è sufficiente a fermarle).
VEIC quindi reagisce alla ghiaia e allo spazio senza ostacoli in modo
identico.
Per OSS_DUE non vi è differenza tra i due ambienti, dunque per il
suo 'sistema percettivo' sono equivalenti.
47
Analogamente, per i sensi di un essere umano l'atmosfera normale e
un'atmosfera radioattiva sono identiche, mentre non lo sono per un
contatore Geiger.
Ci sono molti esempi di eventi e condizioni ambientali non percepibili
dall'uomo, o ambigue.
Per esempio il moto relativo di due treni in
stazione, l'equiparazione di Einstein della
forza di gravità con l'accelerazione.
48
Questo esempio ci fa capire che la forma della secondità non
dipende né dal veicolo (soggetto) né dall'ambiente, ma dal modo
in cui entrano in relazione.
Detto in altre parole, ogni sistema percettivo è in grado di reagire a
certi range di eventi-stimolo e solo ad essi, quindi per quel sistema
l'ambiente consiste in quel range di eventi e nel modo con cui essi
accadono rispetto ai parametri interni del sistema (sequenza,
posizione, ritmo ecc).
I recettori del sistema percettivo non fanno altro che inviare al
sistema nervoso centrale del soggetto le 'forme' con le quali
accadono gli stimoli.
Queste forme, comunque, sono dotate di una qualità specifica che è
proprio quella di essere 'accaduti'.
Questa qualità può essere proprio quella 'interruzione del treno di
pensieri' di cui parla Peirce.
49
I fatti non sono la realtà, la rappresentano, sono
segni del mondo esterno (indici).
Ci possono essere fatti che non abbiamo incontrato e fatti che non
possiamo percepire direttamente.
Quando studiamo la conoscenza in un essere vivente o artificiale,
siamo come OSS_UNO che osserva OSS_DUE.
Ma anche noi siamo come OSS_DUE, e conosciamo attraverso VEIC.
50
4.5 La realtà
Ora immaginiamo che la situazione di OSS_DUE cambi.
Costruiamo il veicolo VEIC2, che è simile a VEIC ma può svoltare sia a
destra sia a sinistra.
OSS_DUE sarà dotato di comandi per azionare VEIC2, cioè può
decidere quando azionare la sequenza MI - 90SX - 90DX - MA
Si tratta di due pulsanti che avviano la sequenza verso destra o verso
sinistra.
51
Ovviamente OSS_DUE non ha nessuna nozione di cosa significano i
diversi segnali che ha davanti né i comandi.
Al comando aggiungiamo però uno stimolatore che, quando la spia RG = 0,
provoca in OSS_DUE una scossa elettrica dolorosa.
Introduciamo VEIC2 nel seguente ambiente:
52
OSS_DUE inizia a percepire la sequenza di accensione delle luci
colorate:
Dopo cinque secondi di MA, RG scatta sullo 0 e OSS_DUE percepisce
una scossa dolorosa. La sola cosa che può fare per porre fine ad essa è
spingere uno dei due pulsanti.
Supponiamo che provi la svolta di 90° a Destra.
Urterà subito contro il muro, provando di nuovo dolore.
A questo punto può ripetere la svolta a Dx: percorrerà il rettilineo in
senso contrario fino a urtare ancora contro il muro.
OSS_DUE percepisce subito la secondità come sofferenza, ovvero ciò
che si oppone ai suoi obiettivi, in questo caso semplicemente di
benessere.
Dopo una serie di tentativi e di scosse, se il rudimentale sistema
cognitivo di OSS_DUE funziona, egli si costruisce una 'sequenza
perfetta', cioè una serie di azioni disposte nel tempo (spingere il
pulsante di svolta a Dx o a Sx) che gli consentono di percorrere il
circuito in modo che RG non scatti mai su 0, e cioè in modo da non
subire la scossa.
53
Dato che l'universo in figura è finito, OSS_DUE potrà vivere senza
sofferenza a patto che spinga il pulsante giusto al momento giusto, cioè
svolti a Sx dopo 5", poi a Dx dopo 2" e così via.
Ma per lui non vi è questa descrizione: semplicemente sa che deve
spingere un pulsante dopo un certo tempo, poi un altro ecc.
Questa sequenza, che possiamo chiamare 'perfetta', avrà il significato
di 'benessere', mentre ogni errore significherà 'dolore'.
Finché OSS_DUE rispetta la sequenza perfetta, riesce a eliminare
apparentemente la secondità.
Ha costruito una regola, una descrizione. La regola rappresenta in
qualche modo anche la secondità della scossa elettrica, ma solo per
assenza.
La regola in qualche modo sta per qualcosa che è nel futuro, cioè un
evento che accadrà se non si spinge il pulsante nel momento giusto.
Ha la forma logica di un se..allora.
54
Se l'ambiente fosse infinito OSS_DUE non potrebbe mai avere delle
sequenze perfette: inevitabilmente ogni tanto prenderebbe la scossa.
Se è sufficientemente intelligente, costruirà delle sequenze
'periodiche', cioè dei modelli di sequenza che ritiene sicuri.
Per esempio, incontrando una regione come in figura:
55
OSS_DUE può scoprire la sequenza che lo porta a girare intorno a H
senza mai ricevere la scossa: tale sequenza (ripetibile attorno a figure
diverse con tempi diversi) è tuttavia una 'forma' universale del circuito
chiuso, cioè di una topologia 'sicura'.
OSS_DUE può costruire la legge dei 360°': quando si possono fare 4
svolte a 90° ciò significa che si possono ripetere all'infinito senza
sorprese.
Ma -ancora una volta- stiamo supponendo che l'ambiente sia come
l'immagine che avete davanti, cioè immutabile.
Nulla impedisce che la forma dell'universo in cui OSS_DUE si muove sia
mutevole. E che la regola dei 360° non sia mai valida per sempre.
Questa è la vera natura dell'ambiente in cui noi viviamo.
56
4.6 Costruire mappe cognitive
Torniamo ora ad OSS_UNO.
Supponiamo che, seguendo i tentativi di OSS_DUE, disegni su un foglio
la mappa del percorso che OSS_DUE ha scoperto.
Su un altro foglio, OSS_UNO copia la sequenza perfetta scoperta da
OSS_DUE, indicando solo i tempi e la direzione delle svolte:
10
sx
2 dx
2 sx
5 sx
10
sx
5 dx
4 sx
4 sx
57
A questo punto OSS_UNO esce dalla stanza.
Un altro osservatore, OSS_TRE, entra nella stanza e vede la mappa
del circuito disegnata da OSS_UNO e le sequenze di azioni scritte
da OSS_DUE.
Se è veramente attento, è in grado di rendersi conto che i due testi
hanno qualcosa in comune.
Infatti, qualunque sia il tipo di unità che OSS_TRE associa ai numeri,
e qualunque sia il tipo di unità che associa ai simboli usati per destra
e sinistra è in grado di vedere che c'è una sequenza simile a quella
della mappa.
Anche se OSS_UNO non ha indicato i numeri, ma solo i simboli per
destra e sinistra (supponiamo siano 0 e 1), OSS_TRE potrà rilevare
che essi si susseguono con lo stesso ordine e sono dello stesso
numero delle svolte di 90° della mappa.
58
Sia pure in modo molto approssimativo, OSS_TRE può ipotizzare che
OSS_UNO e OSS_DUE hanno descritto lo stesso oggetto, o meglio
che c'è un oggetto formale che è descritto sia dalla mappa sia dalla
sequenza di simboli.
Diciamo che i due testi presentano un isomorfismo (cioè stessa forma).
Certamente, per arrivare a questo dobbiamo supporre che OSS_TRE
sia dotato di un apparato cognitivo piuttosto sofisticato.
Quando OSS_DUE confronta le sequenze ripetute nel tempo
dell'accensione dei colori, non fa che costruire una traccia unica per
eventi diversi, cioè un oggetto formale.
Il sistema nervoso è una macchina associativa molto efficiente.
59
4.7 Conclusione
La conoscenza è un comportamento di un organismo vivente che si basa
sulla ricezione di stimoli interni ed esterni da parte del sistema
nervoso e sul controllo delle azioni (feedback).
Gli apparati sensoriali sono parti dell'organismo in grado di mutare di
stato in relazione a stimoli esterni e interni, inviando segnali al sistema
nervoso centrale (SNC).
La percezione è l'elaborazione degli stimoli sensoriali in
rappresentazioni cognitive. Le rappresentazione si formano
dall'interazione tra gli stimoli e gli schemi di organizzazione degli
stimoli, che sono in parte innati in parte appresi e memorizzati dal SNC
come conoscenza.
Gli schemi di organizzazione degli stimoli sono rappresentazioni
cognitive confrontate con gli stimoli in ingresso.
60
La conoscenza di un individuo è il complesso sistematico delle
rappresentazioni cognitive, degli schemi di azione attivabili
dall'organismo, e delle procedure per collegare le rappresentazioni
alle azioni (valutazione, giudizio).
E' un sistema dinamico, cioè deve essere concepita in movimento,
perché cambia continuamente.
Un sistema cognitivo è un apparato in grado di memorizzare forme
di stati derivate dall'esperienza prevedendo stati futuri positivi o
negativi e di azionare i membri motori per evitarli o ricercarli.
I segnali sensoriali, le rappresentazioni cognitive e gli schemi di
azioni dal punto di vista logico sono segni, perché servono a
rappresentare il mondo esterno, l'individuo stesso e le azioni
possibili.
In assenza di segni, un organismo è privo di conoscenza.
61
5. Riflessioni personali ed alcuni interrogativi
“Nella misura in cui le leggi della matematica si
riferiscono alla realtà non sono certe. E nella misura
in cui sono certe non si riferiscono alla realtà”
Albert Einstein – Geometry and Experience
Forse questa frase ha qualcosa a che fare con tutti gli esempi che
abbiamo appena visto.
La matematica è lo strumento “principe” che viene usato per
cercare di descrivere la logica del Creato.
Ma quando usiamo la matematica per descrivere i fenomeni naturali,
altro non stiamo facendo che dare una rappresentazione di quello
che ci circonda.
62
Forse c’è qualcosa di simile fra uno scienziato che elabora una nuova
teoria che “spiega” determinati fenomeni ed un osservatore che tenta
di descrivere il comportamento di un robot:
entrambi non fanno altro che dare una rappresentazione di ciò che i
sensi (propri o di altri strumenti di misura), a partire dalla “cose” dagli
oggetti, inviano al cervello.
Ma quale è la definizione di cosa, di
oggetto?
Se è vero, come diceva Planck, che “tutto ciò che si può misurare
esiste”, ecco che subito ritorna in mente l’esempio visto nella
relazione, quando si confrontano i punti di vista di due osservatori
che alla fine è come se avessero tipologie di sensi diversi l’un l’altro.
63
Per conoscere davvero l’oggetto, dovremmo essere in grado di
coglierlo nel suo puro “in sé” e di separarlo da tutte le
determinazioni che sono in relazione a noi ed in relazione alle altre
cose.
Ma è possibile tale
separazione?
Possiamo separare l’elemento oggettivo
della cosa dall’elemento soggettivo della
percezione?
64
Sembra che qualsiasi proprietà che possiamo riferire agli oggetti
indicano solo gli effetti che essi producono sui nostri sensi o su altri
oggetti naturali.
Sembra che dunque tali proprietà non indichino un qualcosa che sia
proprio in sé e per sé dell’oggetto, ma indicano la relazione con un
secondo oggetto (inclusi i nostri organi di senso).
Dunque l’effetto dipende sia dalle proprietà del corpo in esame che da
quelle del corpo su cui si produce l’effetto.
Ed in questo ultimo concetto è racchiusa una questione classica,
che tutti noi da bambini (e non solo…) ci siamo posti:
immaginiamo due osservatori che vedono lo stesso corpo di un
determinato colore (ad esempio rosso) sotto le stesse condizioni;
i due osservatori concorderanno che il corpo è rosso
Ma il rosso che vedranno, l’immagine che si
formerà nel cervello, sarà uguale per
entrambi?
65
E la questione si può generalizzare:
Quello che vede un osservatore e che dunque il
suo cervello interpreta, ha la stessa
rappresentazione nel cervello di un altro
osservatore che vede la stessa cosa sotto le
stesse condizioni?
Altra domanda che viene fuori quando nell’esempio si posiziona il
veicolo in un certo tipo di ambiente piuttosto che in un altro è:
Abbiamo davvero conoscenza di leggi in senso
stretto, oppure ciò che possiamo acquisire, nel
migliore dei casi, si risolve piuttosto nella
conoscenza di singoli casi?
66
Mi trovo ad essere molto in accordo con l’ “antropomorfismo” a cui
faceva riferimento Goethe:
“Ogni filosofia della natura resta
soltanto antropomorfismo; l’uomo, uno
con sé stesso, partecipa queste unità
a tutto ciò che egli non è, lo trae a sé
nella propria unità, lo fa tutt’uno con
sé stesso (…). Nella natura noi
possiamo osservare, misurare,
calcolare come vogliamo, ma è pur
sempre un nostro misurare, un nostro
pesare, nel senso in cui l’uomo è la
misura delle cose”.
67
Tutto ciò mi porta a pensare che viviamo in un mondo reale che
rappresentiamo a noi stessi come un mondo di teorie che altro non
sono che congetture costruite intorno al mondo reale.
Tutto il discorso fatto, vale anche applicato su noi stessi in
quanto siamo ugualmente oggetti.
Dunque in realtà anche noi siamo solo quello che di
noi stessi percepiamo.
68
Tutto questo dovrebbe dunque portare alla
conclusione che non potremo mai arrivare alla
nostra piena vera comprensione?
E se la risposta fosse affermativa, ovvero che non si potrà mai
arrivare a conoscere veramente noi stessi…
…possiamo concludere che
non arriveremo mai alla
costruzione di macchine che
pensino alla maniera dell’uomo
Fine
?
69
Riferimenti bibliografici
Per l’esempio ispirato alle macchine pensanti di Braitenberg si è fatto
riferimento alle dispense del prof. Gianpaolo Proni scaricate
all’indirizzo internet http://www.infotel.it/fabula/dispense_poli.
La formalizzazione del robot dell’esempio ispirato ai lucidi del corso.
Per la formazione delle osservazioni personali e degli interrogativi
sono stati fondamentali:
Lucidi del corso;
“Teoria della relatività” di Ernst Cassirer;
“Il fuzzy pensiero” di Burt Kosko;
Alcuni articoli di divulgazione scientifica di Antonino Zichichi.
70
Scarica

Dalle macchine pensanti di Valentino Braitenberg ad alcune