Giuseppe O. Longo
Università di Trieste
Il mostro di Frankestein nella maschera di Boris Karloff
Mary Shelley (1797-1851)
Frankenstein ovvero il Prometeo Moderno, 1818
Il Golem
Il Golem nel film di Paul Wegener (1915)
Il robot Maria del film Metropolis di Fritz Lang (1927)
L’anatra digerente di Vaucanson
Vaucanson (1709-1782) illustra i suoi
sonatori meccanici – Cartolina illustrata
Il “Turco”, automa scacchista
Un robot del
dramma R.U.R.
Helena: Perché li fabbricate, allora?
Busman: Ahahah! Questa è bella!
Perché si fabbricano i Robot!
Fabry: Per il lavoro, signorina. Un
Robot sostituisce due operai e mezzo.
La macchina umana, signorina, era
molto imperfetta. Un giorno occorreva
eliminarla definitivamente.
Karel Čapek, R.U.R. (1921)
Dottor Gall: I Robot quasi non avvertono i
dolori fisici. Ciò non ha dato buoni risultati.
Dobbiamo introdurre la sofferenza.
Helena: E sono più felici se sentono il dolore?
Dottor Gall: Al contrario. Però sono
tecnicamente più perfetti.
Karel Čapek, R.U.R.
Machina Dolens
Racconto, da Il fuoco completo, Mobydick, Faenza, 2000
Il cervello nudo
Dramma teatrale
Charles Babbage
(Teignmouth 1791- Londra 1871)
Ada Augusta King
Contessa di Lovelace (Londra 1815-1852)
Alan Turing ( 1912-1954)
Le macchine possono
pensare?
Il “gioco dell’imitazione”
(1950)
Konrad Zuse (1910-1995)
John von Neumann (1903-1957)
Il filosofo John Searle (1932)
Il pensiero umano
non è solo
esecuzione di
algoritmi
John Searle contro l’IA forte: i computer
hanno la sintassi ma non la semantica
L’esperimento concettuale della “stanza cinese”
Sto manipolando scarabocchi cinesi per produrre risposte in cinese, ma io non capisco il cinese. Il
registro delle regole è in inglese - Chiunque sia nella stanza è un madrelingua cinese.
Supponendo che l’uscita abbia senso per un cinese, la persona
dentro la stanza capisce il cinese?
this
John Searle rinchiuso nella stanza cinese
Joseph Weizenbaum (1923-2008)
Il programma
Eliza imitava
uno psicologo
(1964)
Un esempio di colloquio con
Eliza
Gli uomini sono tutti uguali.
In che senso?
In un modo o nell'altro ci tormentano sempre.
Può farmi un esempio?
Be', è stato il mio ragazzo a farmi venire qui.
E' stato il suo ragazzo a farla venire qui.
Dice che sono sempre depressa.
Continuazione
Mi dispiace sentire che è depressa.
E' vero. Sono infelice.
Pensa che venire qui l'aiuterà a non essere
infelice?
Ho bisogno di aiuto, questo è sicuro.
Che cosa cambierebbe per lei se ricevesse
aiuto?
Continuazione
Forse imparerei a sopportare mia madre.
Mi dica qualcosa della sua famiglia.
Mia madre si occupa di me.
Chi altri della sua famiglia si occupa di lei?
Mio padre.
Suo padre.
Per certi versi lei somiglia a mio padre.
Che somiglianze vede?
Continuazione
Lei non è molto aggressivo, ma penso che non
voglia farmelo capire.
Perché pensa che non sia molto aggressivo?
Lei non litiga con me.
Perché pensa che io non litighi con lei?
Perché ha paura di me.
Le fa piacere pensare che ho paura dei lei?
Mio padre ha paura di tutti.
Continuazione
Che cos'altro le viene in mente quando pensa
a suo padre?
I prepotenti.
Questo ha a che fare con il fatto che il suo
ragazzo l'ha fatta venire qui?
Sconvolto dal successo di Eliza, Weizenbaum
ritirò il programma
J. Weizenbaum
ricevette nel 1988
il premio Norbert
Wiener per la
responsabilità
sociale dei
ricercatori
Il cane Aibo
Valerie, una
andreide
Forse, in realtà, stiamo assistendo
a una graduale fusione della
natura generale delle attività e
delle funzioni umane con le
attività e le funzioni di ciò che noi
umani abbiamo costruito e di cui
ci siamo circondati.
Philip Dick, Mutazioni
Che siamo fatti di carbonio o di
silicio non ha importanza:
ciascuno di noi dev’essere trattato
col giusto rispetto
Arthur C. Clarke, 2010
Isaac Asimov
a) L’etica robot -> umani.
b) L’etica umani -> robot.
Le leggi della
ROBO(E)TICA
• 1) Un robot non può recar danno a un
essere umano e non può permettere
che, a causa di un suo mancato
intervento, un essere umano riceva
danno.
• 2) Un robot deve obbedire agli ordini
impartiti dagli esseri umani, purché
tali ordini non contravvengano alla
Prima Legge.
• 3) Un robot deve proteggere la propria
esistenza, purché la sua autodifesa non
contrasti con la Prima o con la Seconda
Legge.
Isaac Asimov (1942)
• 0) Un robot non può recar danno
all’umanità e non può permettere
che, a causa di un suo mancato
intervento,
l’umanità
riceva
danno.
• 1) Un robot non può recar danno a un essere umano e
non può permettere che, a causa di un suo mancato
intervento, un essere umano riceva danno.
• 2) Un robot deve obbedire agli ordini impartiti dagli
esseri umani, purché tali ordini non contravvengano
alla Prima Legge.
• 3) Un robot deve proteggere la propria esistenza,
purché la sua autodifesa non contrasti con la Prima o
con la Seconda Legge.
Robot soldato
Una scultura di
robot soldato
Una scena del film AI: artificial intelligence di Spielberg
Il robot
Asimo
Il robot Krio
Il robot Krio e il cane Aibo
Il grafico dell’avvallamento del «perturbante» di Masahiro Mori
Il robot CB2 costruito all’università di Osaka
I
Un robot «emotivo»
Kobian, robot emotivo
Phillip K. Dick: un robot umanoide della Hanson
Kevin Warwick (Università di Reading, GB)
con il chip inserito nel braccio
Robocop (1987, Paul Verhoeven)
Avatar di James Cameron, 2009
Un insetto sociale:
le api manifestano un’intelligenza distribuita
Un altro insetto sociale: anche le formiche nel
loro piccolo manifestano un’intelligenza collettiva
Arthur Rimbaud (1871)
Gli Stoici (III sec. aC – III sec. dC)
Lingua
Intelligenza
Vita
Realtà
Etica
Raymond Kurzweil (New York 1948)
Le sei fasi dell’evoluzione secondo Kurzweil
Pierre Teilhard de Chardin S.I. (1881-1955)
La visione del Punto Omega di Teilhard de Chardin (1955)
Scarica

scarica in versione ppt