Sistemi per il governo dei ROBOT Dalle macchine pensanti di Valentino Braitenberg ad alcune considerazioni gnoseologiche Stefano Minopoli 1 Struttura del seminario Introduzione Un esempio ispirato alle macchine pensanti di Valentino Braitenberg A partire dall’esempio alcune considerazioni personali 2 1. Le due culture: umanistica e scientifica •La cultura umanistica è tipicamente basata sul considerare gli eventi come irriproducibili, il tempo della storia come irreversibile, la relazione di causalità come circolare. •La cultura scientifica è invece lineare: alla causa corrisponde un effetto ed il legame di causalità può essere verificato tutte le volte che si vuole con la sperimentazione. Da una parte l’approccio umanistico è globale, esamina dei fenomeni complessi come il comportamento dell’uomo nel suo vivere storico e tenta con l’analisi di sviluppare delle regole di classificazione dei fenomeni che rimangono complessi. Dall’altra parte, l’approccio è quello della sintesi, fatta partendo da semplici blocchi di conoscenza e costruendo su di essi teorie scientifiche del mondo, via via più complesse, ma ogni volta riconducibili alla spiegazione elementare dei blocchi costituenti. 3 E’ interessante notare come l’approccio dello scienziato alla conoscenza del mondo non è diverso da quello dell’uomo che costruisce macchine via via più complesse, ma sempre da lui dominabili perché fatte di parti e componenti messe assieme secondo un progetto ben definito. Tale ipotesi positivistica non ha retto molto, grazie anche allo sviluppo di alcune branche della scienza, come quella dello studio dei fenomeni irreversibili, del nascere dell’ordine dal caos. C’è chi vede ora come unica via di uscita, per procedere nella comprensione dell’universo, la collaborazione tra le due culture, preconizzando la nascita di una “Nuova Alleanza”. 4 2. L’intelligenza Il dibattito si sta ora portando dal campo delle conoscenze scientifiche a quello più pratico delle macchine prodotte dall’uomo. Da una parte forse l’uomo dovrà rinunciare al sogno positivista di ridurre ai suoi componenti elementari la comprensione di “macchine naturali” così complesse come il cervello: ovvero pur riuscendo a comprendere tutti gli elementi costituenti ed il loro funzionamento singolo, non riuscirà a spiegare come nascono le idee, il rapporto tra l’io ed il cervello. Dall’altra parte ci si può chiedere: l’uomo è proprio sicuro di poter sempre comprendere le macchine artificiali da lui stesso costruite? 5 Ed ancora: Ma cosa è una macchina pensante? Turing propose un test per dire se una “macchina” si comporta come un uomo. Egli immagina un gioco svolto da tre persone: Un interrogante, un uomo ed una donna. I tre non si conoscono e stanno in tre stanze separate e comunicano tra di loro solo per mezzo di telescrivente. L’interrogante vuole scoprire chi dei due è uomo e quest’ultimo cerca invece di ingannarlo dicendo che lui è donna. Quest’ultima invece collabora con l’interrogante, il quale pone domande via via diverse all’uno ed all’altra per cercare di capire chi dei due dica il vero. 6 Il test di Turing consiste nell’immaginare di sostituire l’uomo con un computer. Se esso riuscirà a trarre in inganno l’interrogante, possiamo, secondo Turing, parlare di macchina intelligente. PRO: Ben si adatta nel caso di macchine che elaborano informazione senza produrre come conseguenza dell’elaborazione delle azioni “visibili”. CONTRO: basta ricordare il termine SITUATEDNESS riferito ai robot, adoperato durante il corso. Con questo si vuol dire che è molto diverso esaminare, ad esempio, il comportamento di un robot dotato di capacità di vedere la scena attorno a lui e decidere di conseguenza i propri movimenti. 7 Affiorano immediatamente alla mente alcuni interrogativi: Quando un robot ha superato la vera soglia del comportamento intelligente e quale è tale soglia? Può la macchina diventare così complessa da sviluppare comportamenti non predicibili, comportamenti creativi? Può ad un certo punto una macchina, dotata di capacità sensoriali e di elaborazione delle informazioni dategli dai suoi sensi, una macchina che per di più si muove, sviluppare comportamenti tipici di esseri viventi? 8 3. Le macchine pensanti di Braitenberg Il libro “I veicoli pensanti” di Valentino Braitenberg, neurologo e psichiatra, fa riflettere al riguardo. Il problema che si pone Braitenberg è cercare di mostrare come dei comportamenti psicologici anche complessi possono già venir prodotti anche da strutture cerebrali semplici. La fondamentale novità è costituita dal considerare delle macchine che si muovono, dei veicoli. Questa è la sostanziale differenza rispetto a Turing: mentre il test di quest’ultimo è basato sulla capacità di elaborare informazione – quindi un puro test di intelligenza – le prove immaginate da Braitenberg chiudono il circuito informazione-elaborazione-azione. 9 Per il fatto che si muovono, le macchine di Braitenberg incontrano un ambiente vario e ad esso reagiscono. I veicoli di Braitenberg sono fatti di componenti semplici come motorini, ruote e sensori: l’elaborazione dell’informazione è accuratamente evitata a favore invece di collegamenti diretti tramite fili tra sensori ed attuatori. Egli parte da un veicolo molto semplice: due motori , uno per ruota, due sensori, ad esempio delle fotocellule. Quando l’intensità di luce aumenta, il motore aumenta la sua potenza. A questo punto basta già invertire il collegamento tra sensori e ruote (sensore di sinistra collegato alla ruota di destra e viceversa), perché il comportamento del veicolo sia molto diverso da prima: invece di fuggire una sorgente luminosa, vi precipita contro. 10 Braitenberg costruisce veicoli via via più complessi, ma tutti ancora abbastanza semplici, o almeno così sembra. Aumenta il numero dei sensori e i relativi segnali si sommano o si differenziano, vengono ritardati, immagazzinati o servono per fare anticipazioni sul cambiamento di scena. Lo straordinario è che, per complessità ancora modeste della macchina, il suo comportamento diventa del tutto imprevedibile. Braitenberg usa addirittura il linguaggio della psicologia per descrivere il comportamento dei suoi semplici veicoli: paura, amore, logica, egoismo ecc. 11 4. Un esempio di sistema cognitivo ispirato dal libro di Braitenberg Nell’ambito delle macchine di Braitenberg (ed in generale nelle macchine che seguono il PARADIGMA REATTIVO) gioca un ruolo fondamentale il concetto di feedback: “Un comando della macchina sulla base del suo funzionamento effettivo anziché del suo comportamento previsto è conosciuto come retroazione (feedback), e implica che i membri sensori, messi in azione dai membri motori svolgano una funzione di rivelatori o segnalatori, cioè di elementi che indicano il (Norbert Wiener, Introduzione alle cibernetica, Boringhieri, Torino, 1966 - tit.or. comportamento” The Human Use of Human Beings, Houghton Mifflin Company, Boston, 1950) 12 Usiamo un esempio di veicolo ispirato alle macchine di Braitenberg per mostrare come una forma molto semplice di feedback possa farci comprendere la natura della conoscenza. Supponiamo di avere un veicolo costruito con ruote motorizzate e con il programma schematizzato in figura 13 Analizziamo prima in modo informale il comportamento del veicolo: ovvero posizionamoci al livello uno dei tre descritti da Marr: La variabile ruotegirano è binaria e vale uno se le ruote girano, zero se la rotazione viene interrotta. Con queste istruzioni il veicolo avanza fino a che non incontra un ostacolo tale per cui le ruote si fermano. (Specifica del task) Quando le ruote si fermano si stacca la frizione automaticamente; ciò ipotizzando condizioni di attrito e di potenza del motore tali per cui le ruote non slittano. (Specifica ed analisi della nicchia ecologica) In tal caso il veicolo effettua una retromarcia per la durata di un secondo, sterza 90 gradi a sinistra e riparte. (Ancora specifica del task) 14 Si cerca adesso di dare una descrizione più formale del comportamento del robot in questione, specificandone i BEHAVIOUR. Per fare ciò ci si avvarrà di Schema Teory, Behaviour Table, Automi a stati finiti e semplici script di “gestione”. Sarà poi presentata la descrizione del robot implementato con la tecnica della sussunzione. Essendo questo un esempio semplice è di conseguenza ugualmente semplice individuarne i behaviour: Andare avanti. Il releaser è l’assenza di ostacolo. Andare indietro per un secondo. Il releaser è la presenza di ostacolo. Girare di 90 gradi a sinistra. Il releaser è la fine della retromarcia. 15 Anche gli altri due behaviour possono ovviamente essere cosi schematizzati. I behaviour individuati sono veri e propri behaviour primitivi. Si sarebbe potuto individuare un unico behaviour astratto, chiamato per esempio ESPLORA, che contenesse le tre azioni elementari: andare avanti, fare retromarcia per un secondo in caso di ostacolo e successivamente girare di 90 gradi a 16 sinistra. La figura seguente mostra, tramite lo Schema Teory, il behaviour Andare avanti con i relativi percetti, schema motorio e schema percettivo: da tale schematizzazione appare chiara la vicinanza tra behaviour e concetto di oggetto nella programmazione orientata agli oggetti oggetti: 17 Il percetto è la variabile binaria RG che, come si è visto in precedenza, vale uno nel caso in cui le ruote girino (e dunque non vi sono ostacoli) e zero viceversa. Lo schema percettivo è costituito dal metodo extractRG che si occupa appunto di ritornare i valore della variabile RG. Lo schema motorio è costituito dal metodo move.forward(): l’uso di un metodo di un altro oggetto (oggetto move) è preferibile perché in tal modo si può pensare di costruire un modulo a parte, generico, che si occupi interamente del movimento del robot. Si noti che schema percettivo e schema motorio operano in modo del tutto indipendente fra di loro: in effetti vi è una sorta di comunicazione “indiretta” fra i due schemi, dove è il behaviour che si preoccupa di passare il percetto dallo schema percettivo allo schema motorio. Con tale descrizione più formale si è passati al livello due di Marr (in effetti lo Schema Teory si colloca esattamente a questo livello): ci si sta preoccupando delle funzioni esplicate dal robot invece del come queste sono implementate. 18 Per avere un quadro completo dei behaviour, dei rispettivi releaser, percetti, schemi percettivi e schemi motori, si riassume il tutto in una BEHAVIOUR TABLE, come in figura: Il behaviour INDIETRO ha risposta di tipo FIXED ACTION PATTERN. Il behaviour GIRA è un classico con risposta di tipo TAXED. 19 La BEHAVIUOR TABLE ha il grosso pregio di riassumere comodamente appunto i vari behaviour del robot. Tramite tale rappresentazione può però risultare difficile comprendere come il robot si comporta “sequenzialmente”: ovvero potrebbe non essere subito chiaro se e quali behaviour vengono eseguiti prima di altri. Un modo molto comodo per ovviare a questa “carenza” è utilizzare descrizione tramite automo a stati finiti, in forma di diagrammi a bolle o in forma tabellare. 20 La figura seguente mostra l’utilizzo di un BUBBLE DIAGRAM: 21 Dalla visione di questo Bubble Diagram balza subito all’occhio la potenziale presenza di più stati interni: entrambi strettamente connessi alla questione del timing. Quando il robot sta facendo marcia indietro, un orologio interno deve inizializzarsi ad un secondo e cominciare un conto alla rovescia. Successivamente il robot deve girare di 90°, dunque vi è bisogno di una sorta di memoria che gli “dice” che un istante di tempo prima stava facendo marcia indietro. La mia opinione al riguardo è che il countdown può essere visto come una sorta di Schema Percettivo: al pari del sensore che rileva il valore della variabile RG, il countdown è un meccanismo che rileva la fine di un intervallo di tempo. Di sicuro per fare ciò vi è bisogno di una memoria interna, ma secondo me questo tipo di informazione memorizzata non può essere definito un vero e proprio stato interno. 22 Anche il passaggio da INDIETRO a GIRA potrebbe portare alla individuazione di uno stato interno: ciò perché, come già specificato prima, il robot, per mettersi nella condizione GIRA, deve in qualche modo “sapere” che un istante di tempo prima era nella condizione INDIETRO. Ma anche in questo caso io credo che si possa superare la visione di presenza di stato interno considerando semplicemente che lo Schema Motorio di INDIETRO “rilascia” un percetto elapsed, rilevabile dallo Schema Percettivo di GIRA. Tale piccola ambiguità in questo elementare esempio, potrebbe diventare una grossa ambiguità, nel caso di un oggetto ben più complesso. Il primo passo da fare dovrebbe essere quello di meglio capire dove è la linea di confine che separa il variare dei valori dei percetti dalla presenza di veri e propri stati interni. 23 Come già detto, un diagramma a stati può essere rappresentato anche in forma tabellare. In figura vi è la tabella della FSM che descrive il robot. 24 Durante il corso si è visto come una architettura reattiva possa essere implementata utilizzando la sussunzione o i campi di potenziale. I campi di potenziale trovano sicuramente la loro naturale collocazione quando c’è da combinare un qualsiasi tipo di movimento con la necessità di evitare ostacoli. Nell’esempio invece il robot non evita affatto l’ostacolo, anzi: esso lo rileva solo dopo averci urtato. Per questo è sembrato più naturale svilupparlo con il concetto della sussunzione, piuttosto che con campi di potenziale. 25 Al livello inferiore dell’architettura, vi è sicuramente il modulo che gestisce il movimento in avanti del robot: modulo FORWARD. (Livello zero). Quando il veicolo incontra un ostacolo, lo schema percettivo rileva che le ruote sono ferme e che il robot deve fare marcia indietro: si attiva perciò il modulo BACKWARD che sussume il modulo di FORWARD. (Livello uno). Quando lo schema percettivo del BACKWARD (il countdown) rileva l’ elapsed, si attiva il modulo TURN che inibisce il modulo BACKWARD. (Livello due). Quando il veicolo ha effettuato una sterzata di 90°, il modulo TURN non è più attivo e dunque il modulo FORWARD (essendo stato sussunto e non inibito) riprende il suo lavoro 26 In figura lo schema dell’architettura a sussunzione dell’esempio: 27 4.1 Gli osservatori esterni Si passa adesso ad analizzare come dei vari ed ipotetici osservatori esterni attribuiscono diverse capacità (intelligenza) al robot. In tale analisi risulterà evidente quanto può differire ciò che il “costruttore” del robot vuole che questo faccia da ciò che invece un osservatore crede che il robot fa effettivamente. 28 Adesso immaginiamo un osservatore OSS_UNO, che osservi il veicolo muoversi nel suo ambiente. In figura è riportato ciò che osserverà in un determinato ambiente: OSS_UNO potrebbe descrive il 'comportamento' del veicolo, affermando che questi cerca di evitare gli ostacoli e trovare lo spazio aperto. Opera cioè una selezione degli stimoli esterni, che lo porta a ricercare lo stato di movimento ed evitare lo stato di immobilità. 29 Braitenberg cerca di costruire, un passo dopo l'altro, veicoli sempre più sofisticati per dimostrare che l'intelligenza o 'mente' è costruita sulla base di osservazioni di comportamenti e delle categorie descrittive dell'osservatore, e che quello che accade 'dentro' la 'scatola' può avere caratteristiche molto diverse. A noi non interessa dimostrare questo. Vogliamo solo mostrare che non vi è nulla del mondo esterno che conosciamo 'così com'è', ma che ogni conoscenza è una rappresentazione, un segno del mondo così com'è. 30 Immaginiamo adesso un secondo osservatore, OSS_DUE, che sta in una stanza chiusa e ha di fronte a sé un monitor, collegato al veicolo (che chiameremo VEIC). OSS_DUE è un essere molto semplice, dotato solo di funzioni rudimentali: sa tenere un conto approssimativo del tempo e sa associare in modo stabile gli eventi che accadono contemporaneamente e successivamente. Ha perciò una rudimentale memoria. Sul monitor sono rappresentate le variabili e gli stati di VEIC: ruotegirano (RG); motore-avanti (MA); motore-indietro (MI); sterza (90SX). Ognuna di esse può avere valore ZERO (spento) o UNO (acceso). OSS_DUE dunque non può sapere cosa corrispondono quei segnali. 31 E' chiaro che quello che sappiamo noi è diverso da quello che sa OSS_DUE, perché noi abbiamo dei mezzi diversi di conoscenza. Cerchiamo di capire che cosa ‘sa‘ OSS_DUE: Esso può stabilire, dopo un'osservazione di qualsivoglia durata, che tra le luci colorate vi sono delle relazioni associative: 32 RG è 1 se MA è 1 oppure MI = 1. MI è 1 quando MA è 0 e viceversa; 90SX è sempre 0 e diventa 1 solo in seguito alla sequenza: RG 1 -> 0; MA 0 -> 1; MI 1 -> 0; RG 0 -> 1; MA 0 -> 1. E così via. A quel punto 90SX passa a 1 per un breve periodo e poi torna a zero. E' chiaro che OSS_DUE deve essere in grado di disporre questi eventi nel tempo, e verificare i loro stati contemporanei e successivi. Questo non richiede facoltà cognitive molto raffinate. 33 OSS_DUE non è in grado di concludere che vi sono rapporti di causa ed effetto tra le luci. Si limita a rilevare associazioni e regolarità. Egli ad un certo punto arriverà a concludere che c'è una sequenza fissa di stati che si ripete ciclicamente, come riassunto nella tabella. Fasi 1 2 3 4 5 MA 1 1 0 1 1 MI 0 0 1 0 0 RG 1 0 1 1 1 90SX 0 0 0 1 0 La fase 5 è identica a 1. Poi la sequenza si ripete. Supponiamo che l'ambiente in cui si muove VEIC sia in questo caso 'adatto' alle sue caratteristiche, cioè supponiamo che non si trovi dentro una scatola né in uno spazio illimitato, né su un fondo appiccicoso né su un fondo di ghiaia. 34 Tra le varie conclusioni di OSS_DUE ce n'è una empirica: OSS_DUE noterà che il tempo che passa tra le varie fasi non è sempre reg Vediamo la stessa tabella con una misurazione del tempo in un caso empiric Fasi 1 2 3 4 1 2 3 4 1 Durata fasi 1'20" 0,5" 2" 1" 2'02" 0,5" 2" 1" 2'30" MA 1 1 0 1 1 1 0 1 1 MI 0 0 1 0 0 0 1 0 0 RG 1 0 1 1 1 0 1 1 1 90SX 0 0 0 1 0 0 0 1 0 35 OSS_DUE noterà che, mentre le fasi da 2 a 4 durano ciascuna sempre lo stesso tempo, la fase 1 varia in modo imprevedibile. Ora OSS_DUE si concentra sulla fase 1: è evidente che la differenza tra la durata regolare del ciclo 2-3-4 e quella irregolare della fase 1 attrae la sua attenzione. Noi sappiamo che questo è dovuto al fatto che VEIC sta esplorando un ambiente molto ampio o che varia di forma (es.: per ostacoli che spostiamo continuamente). 36 L'altra cosa che OSS_DUE può concludere è che il sistema permane nella fase 1 finché non cambia la variabile RG. RG diventa il nuovo fuoco della sua attenzione. E' lo scatto di RG da 1 a 0 che mette in moto il meccanismo -identico ogni volta- che porta a una nuova fase 1. RG diventa il segno della fine della fase 1. 37 4.2 L’esperienza OSS_DUE può prevedere esattamente tutto ciò che accade nel sistema, ma non è in grado di prevedere quando inizia e quando finisce la fase 1. E' questo ciò che Charles Peirce intende per secondità, e che noi possiamo chiamare esperienza. “Whenever we come to know a fact, it is by its resisting us. A man may walk down Wall Street debating within himself the existence of an external world; but if in his brown study he jostles up against somebody who angrily draws off and knocks him down, the sceptic is unlikely to carry his scepticism so far as to doubt whether anything beside the ego was concerned in that phenomenon. The resistance shows him that something independent of him is there. When anything strikes upon the senses, the mind's train of thought is always interrupted; for if it were not, nothing would distinguish the new observation from a fancy”. Charles Peirce 38 In sostanza, è secondità, cioè esperienza, tutto ciò che non riusciamo a prevedere o a modificare a nostra volontà. E di questo ce n'è un'abbondanza enorme nella vita quotidiana. Lo chiamiamo 'contingente', ma anche, più semplicemente, 'fatto'. Quindi, le conoscenze 'date' non hanno carattere di 'fatti' perché hanno un certo contenuto (cioè perché sono in un certo modo), ma perché il loro accadere ha una certa forma rispetto alla nostra mente, cioè ai nostri sistemi di attese. La luce di cui OSS_DUE non riesce a prevedere la durata (cioè che sfugge ai suoi sistemi di attese o abiti) è uguale alle altre. Anzi, potremmo cambiarla con un'altra. Quello che è imprevedibile è il suo stato, cioè il modo con cui varia. 39 Possiamo anche sapere come sono le nostre esperienze, ma non sappiamo quando accadono. Questo esempio vuol far capire che l'esperienza non si distingue per il contenuto ma per il fatto che accade, cioè si distacca imprevedibilmente dai sistemi di attese. Il contenuto è definito dal nostro sistema percettivo, cioè dai sensori, che reagiscono a certi eventi, in un certo modo (cambiando stato). I nostri occhi reagiscono alla luce e trasmettono segnali al nostro cervello. Il cervello elabora gli stati dei nervi, non il mondo esterno. Possiamo dire che 'ascolta' le orecchie, non i suoni; 'vede' gli occhi e non la luce; 'tocca' le dita e non gli oggetti; 'gusta' la lingua e non i cibi, 'annusa' il naso e non gli odori. Quindi conosciamo solo stati di noi stessi. 40 4.3 L’ambiente Torniamo ora al punto di vista di OSS_UNO. La cosa che tende forse a sfuggirci è la complementarità di VEIC e del suo ambiente. Nulla infatti vieterebbe che VEIC si trovasse in una scatola tale da impedirgli ogni movimento, o in un blocco di argilla o ancora in uno spazio piano illimitato, nel quale non troverebbe alcun ostacolo. Nell'ultimo caso, l'osservatore non noterebbe nessun comportamento selettivo. VEIC apparirebbe piuttosto stupido. In realtà è solo 'fortunato', perché ha davanti a sé la possibilità di mantenere il proprio obiettivo all'infinito. 41 Ci rendiamo subito conto che non ha senso immaginare VEIC senza immaginare un ambiente nel quale collocarlo. Ed è esattamente uno dei punti fondamentali che dobbiamo tenere in mente: qualsiasi sia la nostra definizione di 'esperienza' e di soggetto (uomo, animale ecc), non possiamo neppure pensare che tra i due piani non vi sia una complementarità. Oggi questo è un punto di arrivo: l'uomo fa parte della natura e del mondo e si è sviluppato in interazione (feedback) con l'ambiente. Perciò i suoi sensi e il suo sistema cognitivo sono adatti a conoscere l'ambiente e a fare da base a decisioni funzionali ad esso. 42 4.4 Conoscenza e ambiente Vediamo di capire meglio con un altro esempio. Possiamo immaginare delle caratteristiche dell'ambiente che sono intermedie tra una scatola e uno spazio libero. Queste caratteristiche possono essere divise tra quelle conoscibili da VEIC_UNO e quelle inconoscibili da VEIC_UNO. 43 Nell'ambiente di fig.4 VEIC_UNO avanza verso il muro A, lo urta, retrocede e sterza a sinistra, urta B, retrocede e sterza, urta C, retrocede e sterza, urta D, e a questo punto ripete quanto aveva fatto. “E' imprigionato perché non riesce a vedere l'uscita” potrebbe dire OSS_UNO. In effetti VEIC non può 'percepire' le vie d'uscita a causa di come è fatto lui e di come è fatto l'ambiente. Per OSS_DUE invece, l'universo di figura è diverso da quello che vede OSS_UNO: egli adesso nota che la fase 1 è di durata prevedibile. Se vede solo questo universo, non avrà mai alcuna nozione di secondità. 44 Se rovesciamo la posizione dei muri, tutto cambia: VEIC, partendo dalla posizione nella quale è raffigurato, ignorerà per sempre l'esistenza di B, C e D, e dopo aver urtato A si avvierà felice verso spazi aperti. 45 OSS_UNO dovrebbe notare che VEIC nel vecchio ambiente non trova vie di fuga perché non può interagire con esse. Per OSS_DUE l'universo “nuovo” è completamente diverso: egli nota che dopo un ciclo la fase 1 si prolunga all'infinito. Due universi che dall'esterno appaiono quasi identici vengono visti da OSS_DUE in modo completamente diverso. Gli ostacoli B, C e D sono inconoscibili per contingenza. 46 Se fossero posti in un altro modo, VEIC potrebbe 'conoscerli', cioè interagire con essi. E' il caso dei fatti che non incontriamo. Potremmo conoscerli, ma non li conosciamo perché non ci imbattiamo in essi. Possiamo immaginare, oltre ad ambienti con proprietà percepibili che però OSS_DUE non incontra, ambienti con proprietà del tutto 'invisibili' per OSS_DUE: per esempio veicolo può trovarsi su una superficie coperta di ghiaia fine; in tal caso VEIC continuerà a far girare le ruote, soddisfacendo RG = 1 (se l’attrito della ghiaia delle ruote non è sufficiente a fermarle). VEIC quindi reagisce alla ghiaia e allo spazio senza ostacoli in modo identico. Per OSS_DUE non vi è differenza tra i due ambienti, dunque per il suo 'sistema percettivo' sono equivalenti. 47 Analogamente, per i sensi di un essere umano l'atmosfera normale e un'atmosfera radioattiva sono identiche, mentre non lo sono per un contatore Geiger. Ci sono molti esempi di eventi e condizioni ambientali non percepibili dall'uomo, o ambigue. Per esempio il moto relativo di due treni in stazione, l'equiparazione di Einstein della forza di gravità con l'accelerazione. 48 Questo esempio ci fa capire che la forma della secondità non dipende né dal veicolo (soggetto) né dall'ambiente, ma dal modo in cui entrano in relazione. Detto in altre parole, ogni sistema percettivo è in grado di reagire a certi range di eventi-stimolo e solo ad essi, quindi per quel sistema l'ambiente consiste in quel range di eventi e nel modo con cui essi accadono rispetto ai parametri interni del sistema (sequenza, posizione, ritmo ecc). I recettori del sistema percettivo non fanno altro che inviare al sistema nervoso centrale del soggetto le 'forme' con le quali accadono gli stimoli. Queste forme, comunque, sono dotate di una qualità specifica che è proprio quella di essere 'accaduti'. Questa qualità può essere proprio quella 'interruzione del treno di pensieri' di cui parla Peirce. 49 I fatti non sono la realtà, la rappresentano, sono segni del mondo esterno (indici). Ci possono essere fatti che non abbiamo incontrato e fatti che non possiamo percepire direttamente. Quando studiamo la conoscenza in un essere vivente o artificiale, siamo come OSS_UNO che osserva OSS_DUE. Ma anche noi siamo come OSS_DUE, e conosciamo attraverso VEIC. 50 4.5 La realtà Ora immaginiamo che la situazione di OSS_DUE cambi. Costruiamo il veicolo VEIC2, che è simile a VEIC ma può svoltare sia a destra sia a sinistra. OSS_DUE sarà dotato di comandi per azionare VEIC2, cioè può decidere quando azionare la sequenza MI - 90SX - 90DX - MA Si tratta di due pulsanti che avviano la sequenza verso destra o verso sinistra. 51 Ovviamente OSS_DUE non ha nessuna nozione di cosa significano i diversi segnali che ha davanti né i comandi. Al comando aggiungiamo però uno stimolatore che, quando la spia RG = 0, provoca in OSS_DUE una scossa elettrica dolorosa. Introduciamo VEIC2 nel seguente ambiente: 52 OSS_DUE inizia a percepire la sequenza di accensione delle luci colorate: Dopo cinque secondi di MA, RG scatta sullo 0 e OSS_DUE percepisce una scossa dolorosa. La sola cosa che può fare per porre fine ad essa è spingere uno dei due pulsanti. Supponiamo che provi la svolta di 90° a Destra. Urterà subito contro il muro, provando di nuovo dolore. A questo punto può ripetere la svolta a Dx: percorrerà il rettilineo in senso contrario fino a urtare ancora contro il muro. OSS_DUE percepisce subito la secondità come sofferenza, ovvero ciò che si oppone ai suoi obiettivi, in questo caso semplicemente di benessere. Dopo una serie di tentativi e di scosse, se il rudimentale sistema cognitivo di OSS_DUE funziona, egli si costruisce una 'sequenza perfetta', cioè una serie di azioni disposte nel tempo (spingere il pulsante di svolta a Dx o a Sx) che gli consentono di percorrere il circuito in modo che RG non scatti mai su 0, e cioè in modo da non subire la scossa. 53 Dato che l'universo in figura è finito, OSS_DUE potrà vivere senza sofferenza a patto che spinga il pulsante giusto al momento giusto, cioè svolti a Sx dopo 5", poi a Dx dopo 2" e così via. Ma per lui non vi è questa descrizione: semplicemente sa che deve spingere un pulsante dopo un certo tempo, poi un altro ecc. Questa sequenza, che possiamo chiamare 'perfetta', avrà il significato di 'benessere', mentre ogni errore significherà 'dolore'. Finché OSS_DUE rispetta la sequenza perfetta, riesce a eliminare apparentemente la secondità. Ha costruito una regola, una descrizione. La regola rappresenta in qualche modo anche la secondità della scossa elettrica, ma solo per assenza. La regola in qualche modo sta per qualcosa che è nel futuro, cioè un evento che accadrà se non si spinge il pulsante nel momento giusto. Ha la forma logica di un se..allora. 54 Se l'ambiente fosse infinito OSS_DUE non potrebbe mai avere delle sequenze perfette: inevitabilmente ogni tanto prenderebbe la scossa. Se è sufficientemente intelligente, costruirà delle sequenze 'periodiche', cioè dei modelli di sequenza che ritiene sicuri. Per esempio, incontrando una regione come in figura: 55 OSS_DUE può scoprire la sequenza che lo porta a girare intorno a H senza mai ricevere la scossa: tale sequenza (ripetibile attorno a figure diverse con tempi diversi) è tuttavia una 'forma' universale del circuito chiuso, cioè di una topologia 'sicura'. OSS_DUE può costruire la legge dei 360°': quando si possono fare 4 svolte a 90° ciò significa che si possono ripetere all'infinito senza sorprese. Ma -ancora una volta- stiamo supponendo che l'ambiente sia come l'immagine che avete davanti, cioè immutabile. Nulla impedisce che la forma dell'universo in cui OSS_DUE si muove sia mutevole. E che la regola dei 360° non sia mai valida per sempre. Questa è la vera natura dell'ambiente in cui noi viviamo. 56 4.6 Costruire mappe cognitive Torniamo ora ad OSS_UNO. Supponiamo che, seguendo i tentativi di OSS_DUE, disegni su un foglio la mappa del percorso che OSS_DUE ha scoperto. Su un altro foglio, OSS_UNO copia la sequenza perfetta scoperta da OSS_DUE, indicando solo i tempi e la direzione delle svolte: 10 sx 2 dx 2 sx 5 sx 10 sx 5 dx 4 sx 4 sx 57 A questo punto OSS_UNO esce dalla stanza. Un altro osservatore, OSS_TRE, entra nella stanza e vede la mappa del circuito disegnata da OSS_UNO e le sequenze di azioni scritte da OSS_DUE. Se è veramente attento, è in grado di rendersi conto che i due testi hanno qualcosa in comune. Infatti, qualunque sia il tipo di unità che OSS_TRE associa ai numeri, e qualunque sia il tipo di unità che associa ai simboli usati per destra e sinistra è in grado di vedere che c'è una sequenza simile a quella della mappa. Anche se OSS_UNO non ha indicato i numeri, ma solo i simboli per destra e sinistra (supponiamo siano 0 e 1), OSS_TRE potrà rilevare che essi si susseguono con lo stesso ordine e sono dello stesso numero delle svolte di 90° della mappa. 58 Sia pure in modo molto approssimativo, OSS_TRE può ipotizzare che OSS_UNO e OSS_DUE hanno descritto lo stesso oggetto, o meglio che c'è un oggetto formale che è descritto sia dalla mappa sia dalla sequenza di simboli. Diciamo che i due testi presentano un isomorfismo (cioè stessa forma). Certamente, per arrivare a questo dobbiamo supporre che OSS_TRE sia dotato di un apparato cognitivo piuttosto sofisticato. Quando OSS_DUE confronta le sequenze ripetute nel tempo dell'accensione dei colori, non fa che costruire una traccia unica per eventi diversi, cioè un oggetto formale. Il sistema nervoso è una macchina associativa molto efficiente. 59 4.7 Conclusione La conoscenza è un comportamento di un organismo vivente che si basa sulla ricezione di stimoli interni ed esterni da parte del sistema nervoso e sul controllo delle azioni (feedback). Gli apparati sensoriali sono parti dell'organismo in grado di mutare di stato in relazione a stimoli esterni e interni, inviando segnali al sistema nervoso centrale (SNC). La percezione è l'elaborazione degli stimoli sensoriali in rappresentazioni cognitive. Le rappresentazione si formano dall'interazione tra gli stimoli e gli schemi di organizzazione degli stimoli, che sono in parte innati in parte appresi e memorizzati dal SNC come conoscenza. Gli schemi di organizzazione degli stimoli sono rappresentazioni cognitive confrontate con gli stimoli in ingresso. 60 La conoscenza di un individuo è il complesso sistematico delle rappresentazioni cognitive, degli schemi di azione attivabili dall'organismo, e delle procedure per collegare le rappresentazioni alle azioni (valutazione, giudizio). E' un sistema dinamico, cioè deve essere concepita in movimento, perché cambia continuamente. Un sistema cognitivo è un apparato in grado di memorizzare forme di stati derivate dall'esperienza prevedendo stati futuri positivi o negativi e di azionare i membri motori per evitarli o ricercarli. I segnali sensoriali, le rappresentazioni cognitive e gli schemi di azioni dal punto di vista logico sono segni, perché servono a rappresentare il mondo esterno, l'individuo stesso e le azioni possibili. In assenza di segni, un organismo è privo di conoscenza. 61 5. Riflessioni personali ed alcuni interrogativi “Nella misura in cui le leggi della matematica si riferiscono alla realtà non sono certe. E nella misura in cui sono certe non si riferiscono alla realtà” Albert Einstein – Geometry and Experience Forse questa frase ha qualcosa a che fare con tutti gli esempi che abbiamo appena visto. La matematica è lo strumento “principe” che viene usato per cercare di descrivere la logica del Creato. Ma quando usiamo la matematica per descrivere i fenomeni naturali, altro non stiamo facendo che dare una rappresentazione di quello che ci circonda. 62 Forse c’è qualcosa di simile fra uno scienziato che elabora una nuova teoria che “spiega” determinati fenomeni ed un osservatore che tenta di descrivere il comportamento di un robot: entrambi non fanno altro che dare una rappresentazione di ciò che i sensi (propri o di altri strumenti di misura), a partire dalla “cose” dagli oggetti, inviano al cervello. Ma quale è la definizione di cosa, di oggetto? Se è vero, come diceva Planck, che “tutto ciò che si può misurare esiste”, ecco che subito ritorna in mente l’esempio visto nella relazione, quando si confrontano i punti di vista di due osservatori che alla fine è come se avessero tipologie di sensi diversi l’un l’altro. 63 Per conoscere davvero l’oggetto, dovremmo essere in grado di coglierlo nel suo puro “in sé” e di separarlo da tutte le determinazioni che sono in relazione a noi ed in relazione alle altre cose. Ma è possibile tale separazione? Possiamo separare l’elemento oggettivo della cosa dall’elemento soggettivo della percezione? 64 Sembra che qualsiasi proprietà che possiamo riferire agli oggetti indicano solo gli effetti che essi producono sui nostri sensi o su altri oggetti naturali. Sembra che dunque tali proprietà non indichino un qualcosa che sia proprio in sé e per sé dell’oggetto, ma indicano la relazione con un secondo oggetto (inclusi i nostri organi di senso). Dunque l’effetto dipende sia dalle proprietà del corpo in esame che da quelle del corpo su cui si produce l’effetto. Ed in questo ultimo concetto è racchiusa una questione classica, che tutti noi da bambini (e non solo…) ci siamo posti: immaginiamo due osservatori che vedono lo stesso corpo di un determinato colore (ad esempio rosso) sotto le stesse condizioni; i due osservatori concorderanno che il corpo è rosso Ma il rosso che vedranno, l’immagine che si formerà nel cervello, sarà uguale per entrambi? 65 E la questione si può generalizzare: Quello che vede un osservatore e che dunque il suo cervello interpreta, ha la stessa rappresentazione nel cervello di un altro osservatore che vede la stessa cosa sotto le stesse condizioni? Altra domanda che viene fuori quando nell’esempio si posiziona il veicolo in un certo tipo di ambiente piuttosto che in un altro è: Abbiamo davvero conoscenza di leggi in senso stretto, oppure ciò che possiamo acquisire, nel migliore dei casi, si risolve piuttosto nella conoscenza di singoli casi? 66 Mi trovo ad essere molto in accordo con l’ “antropomorfismo” a cui faceva riferimento Goethe: “Ogni filosofia della natura resta soltanto antropomorfismo; l’uomo, uno con sé stesso, partecipa queste unità a tutto ciò che egli non è, lo trae a sé nella propria unità, lo fa tutt’uno con sé stesso (…). Nella natura noi possiamo osservare, misurare, calcolare come vogliamo, ma è pur sempre un nostro misurare, un nostro pesare, nel senso in cui l’uomo è la misura delle cose”. 67 Tutto ciò mi porta a pensare che viviamo in un mondo reale che rappresentiamo a noi stessi come un mondo di teorie che altro non sono che congetture costruite intorno al mondo reale. Tutto il discorso fatto, vale anche applicato su noi stessi in quanto siamo ugualmente oggetti. Dunque in realtà anche noi siamo solo quello che di noi stessi percepiamo. 68 Tutto questo dovrebbe dunque portare alla conclusione che non potremo mai arrivare alla nostra piena vera comprensione? E se la risposta fosse affermativa, ovvero che non si potrà mai arrivare a conoscere veramente noi stessi… …possiamo concludere che non arriveremo mai alla costruzione di macchine che pensino alla maniera dell’uomo Fine ? 69 Riferimenti bibliografici Per l’esempio ispirato alle macchine pensanti di Braitenberg si è fatto riferimento alle dispense del prof. Gianpaolo Proni scaricate all’indirizzo internet http://www.infotel.it/fabula/dispense_poli. La formalizzazione del robot dell’esempio ispirato ai lucidi del corso. Per la formazione delle osservazioni personali e degli interrogativi sono stati fondamentali: Lucidi del corso; “Teoria della relatività” di Ernst Cassirer; “Il fuzzy pensiero” di Burt Kosko; Alcuni articoli di divulgazione scientifica di Antonino Zichichi. 70