FILOSOFIA DELLA MENTE
Giacomo Romano
a. a. 2007/2008: II° Quarto, Modulo 2
Ipotesi scientifiche sulla coscienza II
11/01/08
L’atteggiamento di Penrose
• L’IA forte non è sostenibile (i processi
mentali e quelli cerebrali NON sono
computazioni)
• L’IA debole non è sostenibile (i processi
mentali e quelli cerebrali NON sono
SIMULABILI a livello computazionale)
• I processi mentali/cerebrali sono spiegabili
scientificamente
La dimostrazione di Penrose
• Come è possibile provare che i processi
coscienti non sono simulabili mediante
delle operazioni computazionali?
• Secondo Penrose occorre dimostrare che
almeno alcuni processi umani coscienti
non sono computabili
• Quale può essere un processo umano
cosciente che non è computabile?
La caratterizzazione umana del
Problema dell’Arresto
• Come possiamo stabilire se una
computazione si arresta?
• Le dimostrazioni logico/matematiche
relative ad una procedura computazionale
sono dimostrabili con metodi computabili
• Eppure sappiamo che ci sono delle
procedure computazionali inarrestabili, ma
la loro inarrestabilità non è dimostrabile in
termini computazionali
Procedure Algoritmiche
non Computabili
• Se la nostra mente, grazie alla quale siamo in
grado di sapere che ci sono delle procedure
computazionali non dimostrabili
computazionalmente, fosse simulabile da un
computer, il computer dovrebbe essere in grado
di simulare anche questa nostra capacità
cosciente
• Ma siccome un computer opera soltanto con
procedure algoritmiche computabili, non sarà in
grado di simulare questa capacità
Implicazioni dell’Ipotesi di Penrose
• Se un computer non può simulare la
nostra capacità di sapere che una
computazione non si arresta, allora la
nostra capacità non ha natura algoritmica
• Se la nostra capacità di sapere che una
computazione non si arresta non ha
natura algoritmica, allora si fonda su
procedure diverse
[Obiezioni
al ragionamento di Penrose]
• Non necessariamente se conosciamo
l’inarrestabilità di una procedura dobbiamo
conoscere anche l’(eventuale) algoritmo
che ci consente questa conoscenza
• Nulla impedisce che si possa simulare la
base di implementazione della nostra
conoscenza in termini algoritmici e che da
questa simulazione emerga una capacità
simile alla coscienza (Searle)
La base quantistica della
conoscenza non algoritmica (I)
• Ma allora come è possibile render conto di
una conoscenza umana (cosciente) analoga
a quella dell’inarrestabilità di una
computazione?
• Secondo Penrose una capacità del genere,
non ha una natura algoritmica (computabile),
quindi occorre capire i principi per cui è
realizzabile: grazie ad una meccanica
quantistica non computabile
La base neurofisiologica della
conoscenza di natura quantistica
• La conoscenza cosciente è localizzabile
all’interno dei neuroni, nel citoscheletro e
soprattutto nei microtubuli
• I microtubuli sono strutture proteiche della
dimensione di ca. 25 nanometri* di diametro che
costituiscono l’impalcatura della cellula
• Se si spiegherà (auspicabilmente con una nuova
fisica quantistica) la relazione tra l’attività
(quantisticamente caratterizzabile) interna ai
microtubuli e l’attività (ad un livello di grandezza
superiore e computabile) dei neuroni, si riuscirà
a comprendere il fenomeno della coscienza
Citoscheletro e Microtubuli
La disputa tra Searle e Dennett
• Searle attacca con particolare veemenza
la teoria della coscienza e della mente di
D. Dennett: “… un misto di IA forte e di
un’estensione del comportamentismo
tradizionale di Gilbert Ryle …” (p. 102)
• Secondo Searle, Dennett nega l’aspetto
qualitativo e soggettivo della coscienza:
quello che la rende ontologicamente
esclusiva rispetto ad altre entità
Il problema filosofico
della coscienza
• L’analisi filosofica deve poter risolvere il
paradosso della spiegazione di un
fenomeno ontologicamente soggettivo,
come la coscienza
• Dennett, nella versione di Searle, nega
l’esistenza di dati come quelli in base ai
quali possiamo constatare di avere una
esperienza cosciente
L’esempio del dolore
• Il dolore è un esempio tipico di entità
fenomenica che deve la sua esistenza
solamente al fatto che è esperita da un
soggetto; il dolore, in quanto dolore, esiste
perché è avvertito da un individuo
• Come tale il dolore è una sensazione
interiore e qualitativa del soggetto che ne
avverte la presenza
Dennett e la negazione della
realtà soggettiva delle sensazioni
• Per Dennett gli stati coscienti qualitativi
sono solamente il risultato di una illusione
nella percezione delle sensazioni
• Dennett (nella versione di Searle)
identifica gli stati qualitativamente
coscienti con disposizioni comportamentali
(che possono essere caratterizzate
funzionalmente)
La critica del “Teatro Cartesiano”
• Per Dennett le intuizioni che abbiamo della
coscienza sono il risultato dell’illusione del
modello del “Teatro Cartesiano”
• In realtà non c’è una dimensione della
coscienza che sintetizza le esperienze
vissute in un flusso unitario (“Modello delle
Molteplici Versioni”)
• Dennett offre, nell’ambito dell’IA forte, una
spiegazione evolutiva della coscienza
Coscienza e IA forte
• Per Dennett “… l’essere coscienti è solo una
questione di implementazione di un certo tipo di
programma o di programmi, in una macchina
parallela che si sviluppa in natura” (p. 85)
• Siamo tutti degli zombie che hanno l’illusione di
avere un’esperienza cosciente, derivante dalla
complessità dell’organizzazione della materia di
cui siamo fatti
• Non c’è bisogno di postulare qualità interne e/o
private
Dennett e la critica della
Stanza Cinese
• Dal momento che Dennett accetta il
programma dell’IA forte, rifiuta l’argomento
della Stanza Cinese
• Ma l’unica strategia a sua disposizione per
opporsi alla Stanza Cinese dovrebbe
presupporre l’accettazione di una
semantica degli stati mentali (che Dennett
esplicitamente rifiuta) considerati intrinseci
Computazione e Coscienza
• Per Searle si può fornire una descrizione
della coscienza in termini funzionali, ma
questa non renderebbe conto degli stati
qualitativi
• Gli stati qualitativi infatti, secondo Searle
devono essere causati da processi
neurobiologici: per Dennett invece gli stati
coscienti sono processi neurobiologici
Plausibilità dell’illusione
della coscienza
• Secondo Searle non è plausibile che la
coscienza sia un’illusione, come sostiene
Dennett, perché la coscienza ha la particolarità
di essere l’apparenza con cui si identifica: “…
dove è coinvolta la coscienza, l’esistenza
dell’apparenza corrisponde alla realtà.” (p. 90)
• Dennett invece è convinto di poter studiare la
coscienza con una prospettiva scientifica, che
‘smaschera’ l’aspetto apparente dei fenomeni:
anche quello della coscienza
Senso epistemico e ontologico
della prima persona
• Dennett intende spiegare la coscienza in
una prospettiva alla terza persona, perché
sostiene che non esistono fenomeni che
non possano essere accertati così
• Ma ci sono casi in cui la dimensione
epistemica soggettiva, alla prima persona,
determina lo status ontologico di un
determinato processo: gli stati coscienti
Critica al presupposto oggettivo
ontologico del metodo scientifico
• La prospettiva scientifica ha una natura
metodologica di carattere oggettivo
• Questa però non deve presupporre la
natura ontologica oggettiva dell’oggetto
della ricerca scientifica: per es. uno stato
cosciente, che deve necessariamente
essere uno stato soggettivo, non cambia
la sua natura, anche se vi si può accedere
solamente con approccio soggettivo
Modalità soggettive e oggettive
• Ma come può un soggetto provare uno
stato soggettivo senza accedervi e allo
stesso tempo facendo in modo tale che
quello stato sia ontologicamente
determinato dal suo essere esperito
epistemicamente a livello soggettivo?
• Non è chiaro cosa Searle intenda per
“modalità” di esistenza di una esperienza
Scarica

II_FILOSOFIA_DELLA_MENTE_19