FILOSOFIA DELLA MENTE Giacomo Romano a. a. 2007/2008: II° Quarto, Modulo 2 Ipotesi scientifiche sulla coscienza II 11/01/08 L’atteggiamento di Penrose • L’IA forte non è sostenibile (i processi mentali e quelli cerebrali NON sono computazioni) • L’IA debole non è sostenibile (i processi mentali e quelli cerebrali NON sono SIMULABILI a livello computazionale) • I processi mentali/cerebrali sono spiegabili scientificamente La dimostrazione di Penrose • Come è possibile provare che i processi coscienti non sono simulabili mediante delle operazioni computazionali? • Secondo Penrose occorre dimostrare che almeno alcuni processi umani coscienti non sono computabili • Quale può essere un processo umano cosciente che non è computabile? La caratterizzazione umana del Problema dell’Arresto • Come possiamo stabilire se una computazione si arresta? • Le dimostrazioni logico/matematiche relative ad una procedura computazionale sono dimostrabili con metodi computabili • Eppure sappiamo che ci sono delle procedure computazionali inarrestabili, ma la loro inarrestabilità non è dimostrabile in termini computazionali Procedure Algoritmiche non Computabili • Se la nostra mente, grazie alla quale siamo in grado di sapere che ci sono delle procedure computazionali non dimostrabili computazionalmente, fosse simulabile da un computer, il computer dovrebbe essere in grado di simulare anche questa nostra capacità cosciente • Ma siccome un computer opera soltanto con procedure algoritmiche computabili, non sarà in grado di simulare questa capacità Implicazioni dell’Ipotesi di Penrose • Se un computer non può simulare la nostra capacità di sapere che una computazione non si arresta, allora la nostra capacità non ha natura algoritmica • Se la nostra capacità di sapere che una computazione non si arresta non ha natura algoritmica, allora si fonda su procedure diverse [Obiezioni al ragionamento di Penrose] • Non necessariamente se conosciamo l’inarrestabilità di una procedura dobbiamo conoscere anche l’(eventuale) algoritmo che ci consente questa conoscenza • Nulla impedisce che si possa simulare la base di implementazione della nostra conoscenza in termini algoritmici e che da questa simulazione emerga una capacità simile alla coscienza (Searle) La base quantistica della conoscenza non algoritmica (I) • Ma allora come è possibile render conto di una conoscenza umana (cosciente) analoga a quella dell’inarrestabilità di una computazione? • Secondo Penrose una capacità del genere, non ha una natura algoritmica (computabile), quindi occorre capire i principi per cui è realizzabile: grazie ad una meccanica quantistica non computabile La base neurofisiologica della conoscenza di natura quantistica • La conoscenza cosciente è localizzabile all’interno dei neuroni, nel citoscheletro e soprattutto nei microtubuli • I microtubuli sono strutture proteiche della dimensione di ca. 25 nanometri* di diametro che costituiscono l’impalcatura della cellula • Se si spiegherà (auspicabilmente con una nuova fisica quantistica) la relazione tra l’attività (quantisticamente caratterizzabile) interna ai microtubuli e l’attività (ad un livello di grandezza superiore e computabile) dei neuroni, si riuscirà a comprendere il fenomeno della coscienza Citoscheletro e Microtubuli La disputa tra Searle e Dennett • Searle attacca con particolare veemenza la teoria della coscienza e della mente di D. Dennett: “… un misto di IA forte e di un’estensione del comportamentismo tradizionale di Gilbert Ryle …” (p. 102) • Secondo Searle, Dennett nega l’aspetto qualitativo e soggettivo della coscienza: quello che la rende ontologicamente esclusiva rispetto ad altre entità Il problema filosofico della coscienza • L’analisi filosofica deve poter risolvere il paradosso della spiegazione di un fenomeno ontologicamente soggettivo, come la coscienza • Dennett, nella versione di Searle, nega l’esistenza di dati come quelli in base ai quali possiamo constatare di avere una esperienza cosciente L’esempio del dolore • Il dolore è un esempio tipico di entità fenomenica che deve la sua esistenza solamente al fatto che è esperita da un soggetto; il dolore, in quanto dolore, esiste perché è avvertito da un individuo • Come tale il dolore è una sensazione interiore e qualitativa del soggetto che ne avverte la presenza Dennett e la negazione della realtà soggettiva delle sensazioni • Per Dennett gli stati coscienti qualitativi sono solamente il risultato di una illusione nella percezione delle sensazioni • Dennett (nella versione di Searle) identifica gli stati qualitativamente coscienti con disposizioni comportamentali (che possono essere caratterizzate funzionalmente) La critica del “Teatro Cartesiano” • Per Dennett le intuizioni che abbiamo della coscienza sono il risultato dell’illusione del modello del “Teatro Cartesiano” • In realtà non c’è una dimensione della coscienza che sintetizza le esperienze vissute in un flusso unitario (“Modello delle Molteplici Versioni”) • Dennett offre, nell’ambito dell’IA forte, una spiegazione evolutiva della coscienza Coscienza e IA forte • Per Dennett “… l’essere coscienti è solo una questione di implementazione di un certo tipo di programma o di programmi, in una macchina parallela che si sviluppa in natura” (p. 85) • Siamo tutti degli zombie che hanno l’illusione di avere un’esperienza cosciente, derivante dalla complessità dell’organizzazione della materia di cui siamo fatti • Non c’è bisogno di postulare qualità interne e/o private Dennett e la critica della Stanza Cinese • Dal momento che Dennett accetta il programma dell’IA forte, rifiuta l’argomento della Stanza Cinese • Ma l’unica strategia a sua disposizione per opporsi alla Stanza Cinese dovrebbe presupporre l’accettazione di una semantica degli stati mentali (che Dennett esplicitamente rifiuta) considerati intrinseci Computazione e Coscienza • Per Searle si può fornire una descrizione della coscienza in termini funzionali, ma questa non renderebbe conto degli stati qualitativi • Gli stati qualitativi infatti, secondo Searle devono essere causati da processi neurobiologici: per Dennett invece gli stati coscienti sono processi neurobiologici Plausibilità dell’illusione della coscienza • Secondo Searle non è plausibile che la coscienza sia un’illusione, come sostiene Dennett, perché la coscienza ha la particolarità di essere l’apparenza con cui si identifica: “… dove è coinvolta la coscienza, l’esistenza dell’apparenza corrisponde alla realtà.” (p. 90) • Dennett invece è convinto di poter studiare la coscienza con una prospettiva scientifica, che ‘smaschera’ l’aspetto apparente dei fenomeni: anche quello della coscienza Senso epistemico e ontologico della prima persona • Dennett intende spiegare la coscienza in una prospettiva alla terza persona, perché sostiene che non esistono fenomeni che non possano essere accertati così • Ma ci sono casi in cui la dimensione epistemica soggettiva, alla prima persona, determina lo status ontologico di un determinato processo: gli stati coscienti Critica al presupposto oggettivo ontologico del metodo scientifico • La prospettiva scientifica ha una natura metodologica di carattere oggettivo • Questa però non deve presupporre la natura ontologica oggettiva dell’oggetto della ricerca scientifica: per es. uno stato cosciente, che deve necessariamente essere uno stato soggettivo, non cambia la sua natura, anche se vi si può accedere solamente con approccio soggettivo Modalità soggettive e oggettive • Ma come può un soggetto provare uno stato soggettivo senza accedervi e allo stesso tempo facendo in modo tale che quello stato sia ontologicamente determinato dal suo essere esperito epistemicamente a livello soggettivo? • Non è chiaro cosa Searle intenda per “modalità” di esistenza di una esperienza