EPISTEMOLOGIA E SCIENZE COGNITIVE Parte II Corso di Psicologia Clinica II Prof. Marco Castiglioni Corso di Epistemologia Prof. Federico Laudisa CdL Mag. Sc. Pedagogiche - A.A. 2013-2014 Ciclo di lezioni comuni I semestre Parte Seconda COMPUTABILITÀ E SCIENZE COGNITIVE CARTESIO, WATSON, TURING, SEARLE: Presupposti per la lettura del saggio di B.W. Williams “Comprendere l’umanità” Le scienze cognitive: motivazioni e implicazioni • Qual è l’oggetto delle scienze cognitive? • La natura disciplinare della scienze cognitive • Le radici filosofiche delle scienze cognitive: le origini storiche • I problemi fondamentali delle scienze cognitive • Alcune implicazioni filosofiche delle scienze cognitive SCIENZA COGNITIVA Ricerche interdisciplinari finalizzate allo studio scientifico della mente umana PSICOLOGIA LINGUISTICA ANTROPOLOGIA NEUROSCIENZE INTELLIGENZA ARTIFICIALE ESAGONO COGNITIVO FILOSOFIA In tempi più recenti, lo studio scientifico della cognizione, intesa come l’insieme dei processi di acquisizione ed elaborazione di informazioni – sia esterne sia interne – per vari fini (sopravvivenza, adattamento, conoscenza, e così via), è stato esteso dalla mente umana anche a sistemi biologici non umani e a sistemi artificiali. Se ci limitiamo agli esseri umani, le scienze cognitive studiano facoltà cognitive ‘di base’ (percezione, memoria, consapevolezza, attenzione, ecc.) o facoltà cognitive ‘superiori’ (pensiero, coscienza). Tutte queste facoltà rappresentano particolari aspetti della mente: l’attività delle scienze cognitive potrebbe essere considerata come un contributo al programma generale di costruire una teoria scientifica della mente. Ma cosa significa fare una teoria scientifica di un oggetto così particolare come la mente? Come emerge il concetto moderno di mente? Esso emerge a partire da una lunga tradizione filosofica, di cui il concetto moderno di mente è soltanto un particolare aspetto (quello più strettamente 'razionale'). Proprio questo aspetto è al centro della riflessione filosofica sulla mente e la soggettività di Cartesio (1596-1650). Proprio la riflessione filosofica cartesiana sulla mente e la soggettività pone una questione fondamentale per la moderna scienza cognitiva: il ruolo svolto dalla rivoluzione scientifica. Infatti la "mente" come autonomo oggetto di indagine comincia ad avere un senso da quando la natura diventa scientificamente autonoma. Soltanto allora diventa sensato chiedersi: qual è il posto della mente nella natura (se ne ha uno)? Con la rivoluzione scientifica, il mondo naturale è diventato oggetto autonomo di indagine (con metodi propri, teorie proprie, ecc.). Ma lo sviluppo della scienza ha contribuito a fissare anche dei criteri di ‘scientificità’, rispetto ai quali valutare altri oggetti di indagine, in particolare la mente. Cartesio ha svolto un ruolo di primo piano in questa fase, perché ha operato sia sul piano della scienza sia sul piano delle indagini filosofiche sulla "mente". Sul piano della scienza, perché Cartesio ha dato un contributo fondamentale alla cinematica moderna (oltre che alla matematica) e alla visione meccanica (o meccanicistica) del mondo naturale. Sul piano delle indagini sulla ‘mente’, perché Cartesio ha dato la prima formulazione moderna di mente come luogo esclusivo della razionalità (privato di qualsiasi carattere vegetativo/vitalistico/emotivo) e ha affrontato in modo esplicito il rapporto mente/materia. La figura di Cartesio è un riferimento storico fondamentale nella prospettiva delle scienze cognitive anche per una ragione più generale: Cartesio è infatti il filosofo che rifonda l’intera filosofia occidentale moderna, ponendo la giustificazione della conoscenza e dei fondamenti dell’attività razionale tra i massimi obiettivi della riflessione filosofica in generale. Inoltre, si deve a Cartesio l’introduzione del termine stesso di MENTE in un senso vicino alla sensibilità contemporanea. Il termine viene usato nella versione latina di un’opera fondamentale per la filosofia occidentale: le Meditazioni metafisiche (1641). In questo testo (che contiene il celebre argomento del cogito), Cartesio ha come obiettivo la dimostrazione che a) la mente esiste, b) la mente è indipendente dalla materia. Un’altra tappa cruciale è rappresentata dalla nascita di una psicologia ‘scientifica’ all’inizio del XX secolo: si afferma l’indirizzo comportamentista nella psicologia (Watson, Skinner, Thorndike e altri). L’oggetto privilegiato della psicologia non è la ‘mente’ del soggetto, ma l’indagine sul suo comportamento osservabile, analizzato nei termini della relazione stimolo/risposta. Espressione, nel campo della psicologia, di un generale atteggiamento empirista (centralità dell'aspetto empirico e osservativo) sui fondamenti della conoscenza scientifica nella prima metà del XX secolo. “La psicologia come la vede il behaviorista è una scienza naturale puramente oggettiva. Il suo fine teorico è la predizione e il controllo del comportamento. L’introspezione non costituisce una parte essenziale del suo metodo, né il valore scientifico dei suoi dati dipende dalla facilità con cui essi si prestano a essere interpretati in termini di coscienza.” John B. Watson Modello comportamentista di analisi INPUT (stimolo) mente come “scatola nera” OUTPUT (risposta comportamentale) Questo modello si rivela particolarmente inadeguato nell’analisi dell’apprendimento del linguaggio: i comportamentisti non sono infatti in grado di spiegare l’aspetto creativo tipico di ogni fenomeno di apprendimento del linguaggio. La linguistica moderna di Noam Chomsky nasce proprio con l’obiettivo di risolvere problemi come questi: si scopre che non è possibile lasciare la mente come ‘scatola nera’ e che le spiegazioni cognitive devono prendere in considerazione il livello ‘mentale’ (cioè ‘interno’). “La scienza cognitiva viene praticata nella convinzione che sia legittimo – e anzi di fatto necessario – porre un livello di analisi separato, che può essere chiamato il «livello della rappresentazione». Uno scienziato, quando lavora a questo livello, lavora intorno a entità rappresentative, come simboli, regole, immagini – il materiale della rappresentazione, che si trova in una posizione intermedia tra input e output [...] Questo livello è necessario per spiegare la varietà del comportamento umano, del pensiero come delle azioni.” H. Gardner, La nuova scienza della mente. Storia della rivoluzione cognitiva SCIENZE COGNITIVE input (percettivo) livello necessario: ma in che senso? ? rappresentazioni, regole, ... output (comportamentale) Contributo della (allora nascente) informatica per lo sviluppo delle scienze cognitive: la concezione computazionale della mente. Fatto storico (contingente). Le prime prove delle scienze cognitive si rivolgono a compiti cognitivi ‘alti’ (scacchi, logica formale), nei quali disporre di ampie risorse e capacità computazionali è importante. Motivazione concettuale (di principio). I computer sono particolari realizzazioni di un modello di calcolo – la Macchina di Turing (MT) – e la MT soddisfa una proprietà cruciale dal punto di vista delle scienze cognitive: la UNIVERSALITÀ (o VIRTUALITÀ). Esistenza della MT universale (Turing 1936) Esiste una macchina di Turing MTU (detta macchina di Turing universale) tale che, per una generica macchina di Turing MT, la MTU può simulare la computazione di MT con argomento qualsiasi x. In altri termini, SE il nastro di MTU può contenere come argomento la codifica di qualsiasi possibile istruzione di MT, ALLORA per qualsiasi argomento x, il valore della computazione di MTU è identico a quello di MT, cioè MT(x) = MTU(x) MT1 Nastro di MT1 | | possono essere scritte qui Istruzioni di MT1 possono essere scritte qui Nastro di MT2 MT2 | | MT1 Istruzioni di MT1 codifica (effettiva!) delle istruzioni di MT1 sul nastro di MT2 Ora, MT2 può fare tutto ciò che può fare MT1, perché ‘incorpora’ le istruzioni di MT1 (naturalmente i ruoli di MT1 e MT2 possono essere invertiti). In questo caso MT2 opera ‘da Macchina Universale’ rispetto a MT1. Di fatto, MT2 si comporta come se fosse MT1. “Qualunque calcolatore reale, se è fornito di una memoria abbastanza capiente da svolgere il ruolo di nastro per la manipolazione dei simboli, può recitare la parte della macchina universale di Turing. Per esempio, se un microcalcolatore domestico fosse programmato per funzionare come una macchina universale di Turing e se, come dati in ingresso, ricevesse una descrizione codificata di un grande calcolatore mainframe, esso simulerebbe il funzionamento del grande calcolatore su qualunque successione di simboli di dati. “ (J. Hopcroft) MT1 codifica MT2 Conseguenza per la teoria della computabilità: è irrilevante quale sia la particolare MT che calcola! Implicazione epistemologica per i fondamenti delle scienze cognitive (un'implicazione fondamentale per la caratterizzazione computazionale delle ‘prime’ scienze cognitive): SE la mente ha una struttura computazionale, ALLORA la spiegazione delle sue proprietà è indipendente (in linea di principio) dalle sue basi materiali Due tesi fondamentali alle origini delle scienze cognitive: 1. La natura computazionale della cognizione 2. Il carattere astratto delle computazioni 1. La natura COMPUTAZIONALE della cognizione I processi cognitivi possono essere interpretati come elaborazioni computazionali di informazioni. 2. Il carattere ASTRATTO delle computazioni L’elaborazione computazionale delle informazioni non dipende in modo essenziale dal supporto materiale nel quale l’elaborazione stessa si realizza. La tesi 2 implica il cosiddetto principio di realizzabilità multipla (PRM): un processo cognitivo può essere realizzato da molteplici sistemi cognitivi, sia umani sia artificiali. Il PRM favorisce il programma di ricerca dell’IA (INTELLIGENZA ARTIFICIALE) cioè di quel filone delle scienze cognitive che si propone di ‘riprodurre’ mediante adeguati programmi le capacità cognitive di una mente. Slogan delle prime scienze cognitive hardware: software = cervello:mente Universalità delle MT (quale sia l’hardware che realizza il software è indifferente) Indipendenza della mente dalla sua struttura materiale Dimensione filosofica dell’approccio computazionale alla scienza cognitiva e all’IA: il funzionalismo come tesi sulla natura degli stati mentali, considerati come stati funzionali di un processo computazionale. Se la mente è una sorta di programma’ per il cervello, allora possiamo evitare di ridurre la mente alla sua base materiale, senza per questo doversi impegnare su quale sia la natura autentica (se ce n’è una) della mente. In questo senso, il funzionalismo 'aggira' la disputa tra materialismo e dualismo sulla natura della mente. “L’approccio ‘behavioristico’ [...] mira a fornire una descrizione fisicalistica completa del comportamento umano. Ciò corrisponde alla descrizione che un ingegnere o un fisico farebbe di una macchina di Turing realizzata fisicamente. Ma sarebbe anche possibile perseguire una descrizione più astratta dei processi mentali umani, in termini di ‘stati mentali’ (la cui realizzazione fisica, se c’è, non è specificata) e di ‘impressioni’ (che hanno il ruolo dei simboli sul nastro della macchina).” H. Putnam, Minds and Machines (1960) Alan Turing e l'IA Alan Turing, ideatore di uno dei principali modelli di calcolo (chiamati in suo onore Macchine di Turing), ha svolto anche un ruolo filosofico importante nello sviluppo dell’IA. Egli infatti ha scritto un articolo ‘qualitativo’ intitolato Macchine calcolatrici e intelligenza (1950), nel quale il problema del rapporto tra menti e macchine è analizzato mediante un esperimento ideale (il ‘gioco dell’imitazione’). A. Turing, Macchine calcolatrici e intelligenza (1950) Domanda M “Possono pensare le macchine?” Invece di tentare di rispondere dopo un’analisi del significato dei termini “macchina” e “pensiero”, Turing propone di sostituire questa domanda con un’altra, che presuppone un esperimento ideale (detto gioco dell’imitazione). Gioco dell’imitazione Test di Turing A C (“interrogante”) B A e B sono un uomo e una donna. C non sa qual’è l’uomo e quale la donna: lo scopo del gioco consiste nell’indovinare mediante una serie di domande adeguate. Ora la domanda M “Possono pensare le macchine?” può essere sostituita dalla domanda M* “Cosa accade se una macchina prende il posto di A?” C “interrogante” B “Sarà dato per scontato che la migliore strategia per la macchina sia quella di provare a formulare le risposte che sarebbero date istintivamente da un uomo.” (p. 169) Approccio cognitivo “classico” (della prima scienza cognitiva) alla mente: Teoria computazionale-rappresentazionale della mente Cognizione: elaborazione di rappresentazioni Le rappresentazioni sono il materiale minimale dei processi cognitivi, intesi come information processing. Il processo di elaborazione delle rappresentazioni è guidata da regole. Approccio cognitivo “classico” (della prima scienza cognitiva) alla mente Teoria computazionale e rappresentazionale della mente (cognizione come elaborazione computazionale di rappresentazioni) Questo approccio risulta fecondo per aspetti importanti - filosoficamente neutrale (niente problema mente-corpo) - concettualmente economico - fondato sul potente apparato formale della teoria della computazione ma solleva anche vari problemi, sia 'tecnici' sia 'fondazionali'. Due classi di problemi determinati dall'approccio computazionale, funzionalista e e simbolico allo studio della mente e della cognizione: - Problemi tecnici, legati alla limitata efficacia dell'approccio computazionale nei confronti di determinati problemi cognitivi (questi problemi sono stati accentuati dallo sviluppo delle conoscenze neuroscientifiche sulle proprietà e comportamento del cervello); - Problemi filosofici, legati a una serie di implicazioni discutibili dell'approccio funzionalista alla mente e alla cognizione. Problemi tecnici per una concezione funzionalista (computazionale) della mente e della cognizione La metafora della mente come computer è efficace rispetto a compiti cognitivi 'difficili' e astratti, ma è in estrema difficoltà rispetto a compiti cognitivi che per un essere umano sono semplici e quasi banali (riconoscimento di oggetti, capacità di coordinazione sensomotoria, …). Non di rado, questo sembra dipendere dalle differenze molto rilevanti tra la struttura di elaborazione di un calcolatore e la struttura di elaborazione rappresentata dal sistema nervoso (di cui il cervello è una parte). Problemi filosofici per una concezione funzionalista (computazionale) della mente e della cognizione Qualunque prospettiva funzionalista sulla mente è principalmente sintattica e simbolica: ma in che modo le ‘rappresentazioni’ – che sarebbero il materiale di base dei processi cognitivi – assumono un significato? È il cosiddetto symbol grounding problem (l'espressione è dello scienziato cognitivo Stevan Harnad): come e dove nasce la semantica delle rappresentazioni? Si tratta di un problema molto difficile per le scienze cognitive, in particolare per quelle che si occupano di costruire sistemi cognitivi artificiali. In una prospettiva computazionale e funzionalista, il symbol grounding problem è una questione difficile da risolvere: l’elaborazione di rappresentazioni viene concepito come un processo in larga parte simbolico, e come tale indifferente al piano dei significati. In questo senso, il symbol grounding problem rappresenta un punto critico dell’approccio computazionale e funzionalista, accanto ad almeno altri due punti: - il problema della coscienza - l’argomento della stanza cinese Il problema della coscienza Problema della natura degli stati qualitativi e fenomenici della soggettività. Scrive il filosofo della mente David Chalmers nel saggio Come affrontare il problema della coscienza (1995): "La coscienza pone i problemi più sconcertanti nella scienza della mente. Nulla conosciamo più intimamente dell'esperienza conscia, ma non c'è nulla che sia più difficile da spiegare." [Agostino diceva analogamente – ma con riferimento al problema del tempo: "Quando non me lo chiedono, io so cos'è il tempo, ma quando me lo chiedono, non lo so più."] Secondo Chalmers, "non c'è un unico problema della coscienza. Il termine coscienza è ambiguo, perché si riferisce a molti fenomeni differenti e ciascuno di essi richiede una spiegazione, sebbene alcuni siano più facili da spiegare che altri." Esistono in realtà, sempre secondo Chalmers, due categorie di problemi della coscienza: i problemi "facili" e i problemi "difficili". "I problemi facili della coscienza sembrano direttamente soggetti ai metodi correnti della scienza cognitiva, attraverso i quali un fenomeno viene spiegato mediante meccanismi computazionali o neurali." Esempi: - capacità di discriminare stimoli ambientali e di reagire - capacità di accedere ai propri stati interni - controllo del comportamento - differenza tra veglia e sonno - capacità di riferire i propri stati interni …….. Definire "facili" i problemi in questa categoria significa che possiamo avere un'idea chiara di cosa vorrebbe dire poterli spiegare. Abbiamo cioè un'idea ragionevole di una possibile spiegazione di questi problemi, anche se magari per molti di essi non abbiamo già di fatto una simile spiegazione. "Il problema davvero difficile della coscienza è quello dell’esperienza. Quando pensiamo e percepiamo c’è un frullio di elaborazioni dell’informazione, ma c’è anche un aspetto soggettivo. Come ha detto Nagel, c’è il com’è [what it is like] essere un organismo conscio. Questo aspetto soggettivo è l’esperienza." [D. Chalmers, Come affrontare il problema della coscienza, in Mente e corpo. Dai dilemmi della filosofia alle ipotesi della neuroscienza, Bollati Boringhieri pp. 237-239] Per (tentare di) affrontare il problema difficile, esistono svariate strategie possibili che si collocano all'interno di due estremi: L'idea che non soltanto la coscienza (fenomenica) esiste ma è di natura non materiale ( dualismo di origine cartesiana) L'idea che la coscienza (fenomenica) non esiste e che quando abbiamo spiegato il problema che Chalmers definisce "facile" abbiamo spiegato tutto quello che c'è da spiegare. Tra questi estremi esiste una grande varietà di concezioni, tra cui vale la pena di ricordarne almeno due. La concezione misterica della coscienza, secondo cui la coscienza è un fenomeno perfettamente naturale, ma di una complessità che eccede le nostre capacità cognitive. Queste capacità possono cioè formulare il problema della coscienza ma non possono risolverlo: secondo l'espressione di Colin McGinn – il filosofo che ha difeso questa concezione – la nostra mente è cognitivamente chiusa rispetto al problema della coscienza. La concezione – difesa dallo stesso Chalmers – secondo cui la coscienza è un fenomeno perfettamente naturale, nel senso che il suo aspetto fenomenico è un aspetto fondamentale della realtà stessa. Se questo è vero, allora deve essere possibile indagare l'aspetto fenomenico della realtà in modi non troppo diversi da quelli usati per indagare altri aspetti della realtà che riteniamo fondamentali (e Chalmers cita come esempi lo spazio, il tempo, la massa,….). L’argomento della stanza cinese (John R. Searle, Menti, cervelli e programmi, 1980) Distinzione IA debole/IA forte IA debole “Secondo l’IA debole, il pregio principale del calcolatore nello studio della mente sta nel fatto che esso ci fornisce uno strumento potentissimo: ci permette ad esempio di formulare e verificare le ipotesi in un modo più preciso e rigoroso.” IA forte “Secondo l’IA forte, invece, il calcolatore non è semplicemente uno strumento per lo studio della mente ma piuttosto, quando sia programmato opportunamente, è una vera mente: è cioè possibile affermare che i calcolatori, una volta corredati dei programmi giusti, capiscono letteralmente e posseggono altri stati cognitivi.” Test di Turing? LA STANZA CINESE F1 = scrittura F1 = ideogrammi F2 = storia F2 = ideogrammi F3 = domande F3 = ideogrammi R1 = regole per legare F1 e F2 R2 = regole per scrivere ideogrammi in risposta a ideogrammi in F3 [R1 e R2 sono ‘programmi’] “Dal punto di vista esterno, cioè dal punto di vista di qualcuno che legga le mie ‘risposte’, le risposte alle domande in cinese e a quelle in inglese sono altrettanto buone. Ma nel caso del cinese, a differenza dell’inglese, io do le risposte manipolando simboli formali non interpretati. Per quanto riguarda il cinese, mi comporto né più né meno che come un calcolatore: eseguo operazioni di calcolo su elementi specificati per via formale.” “Ora, l’IA forte sostiene che il calcolatore programmato capisce le storie e che il programma in un certo qual senso spiega la capacità di comprendere dell’uomo. [....] Ciò che l’esempio lascia intendere è che, finché il programma è definito in termini di operazioni di calcolo su elementi definiti per via puramente formale, questi elementi non hanno di per sé alcun legame interessante con la comprensione. [....] “Il fatto è che quali che siano i princìpi puramente formali introdotti nel calcolatore, essi non saranno sufficienti per il comprendere, poiché un essere umano sarà capace di seguire quei princìpi formali senza per questo capire nulla.” Searle, Menti, cervelli e programmi