I Robot Soldati
Unmanned Vehicles
•
•
•
•
•
Droni radio/tele guidati
Ampiamente diffusi
Nessuna autonomia
Ancora pochi gli esemplari dotati di armi
Eye-on-target
Unmanned Aerial Vehicles
Unmanned Aerial Vehicles
Unmanned Ground Vehicles
Unmanned Ground Vehicles
Unmanned Undersea Vehicles
Unmanned Surface Vehicles
Dispositivi autonomi (CIWS)
Progetti avanzati
• Ancora allo stadio prototipale
• Primi sistemi con alto grado di autonomia
• Impieghi in contesti peculiari
Progetti avanzati - Crusher
Progetti avanzati – SGR-A1
Progetti avanzati - RoboSnake
Progetti avanzati - BigDog
Autonomous Military Agent
Pro
•
•
•
•
•
•
•
Minimizzazione delle perdite umane
Diminuzione dei costi della guerra
Il basso numero di perdite favorisce il consenso
Missioni dull, dirty and dangerous
Immuni a emozioni e bisogni umani
Non inclini a commettere atrocità inutili
Proiettati ad avere prestazioni migliori
dell’uomo (?)
Autonomous Military Agent
Contro
•
•
•
•
•
Ricorso più facile all’azione militare
Progressivo abbandono della diplomazia
Maggiori perdite e danni per il nemico
I civili possono divenire obiettivi militari
Riskless war
▫ Il reciproco rischio giustifica moralmente i
contendenti
▫ Il rischio asimmetrico è proprio delle operazioni di
polizia (buoni vs. cattivi)
▫ Il contendente più debole deve trovare altri modi di
colpire (terrorismo)
Etica
Teoria deontologica
• Valuta l’azione a priori
▫ Moralità di intenzione o norma da cui origina
l’azione
▫ Un’azione è morale se è prodotta da “buona”
intenzione
▫ I mezzi ed i fini sono strettamente correlati
• Imperativo categorico (Kant)
▫ “agisci solo secondo la massima per la quale puoi e
allo stesso tempo vuoi che questo diventi una
legge universale” (universalismo)
• Leggi della Robotica (Asimov)
Etica
Teoria teleologica
• Valuta gli effetti dell’azione
▫ Un’azione è morale se produce effetti aumento del “bene” o
diminuzione del “male”
▫ Il fine giustifica i mezzi
• Consequenzialismo
▫ Criteri razionali per giudicare positività o negatività delle azioni
• Utilitarismo
▫
▫
▫
▫
“Utilità” è la misura di felicità/piacere/benessere
Dolore/piacere (Bentham)
Benessere sociale è somma del piacere individuale
Giustizia è massimizzazione del benessere sociale
Etica e guerra
Leggi di Guerra (L.O.W.)
• Suddivisione giurisprudenziale
▫ Jus ad bellum – entrata in guerra ed uso della forza militare
▫ Jus in bello – condotta durante i conflitti
▫ Jus post bellum – trattamento prigionieri, occupazione territori
• Convenzioni internazionali
▫ Convenzioni dell’Aia (1899-1907)
▫ Convenzioni di Ginevra (1949-1977)
• In Italia “Legge di Guerra e Neutralità”
▫ R.D. 8 luglio 1938
Etica e guerra
Regole d’Ingaggio (R.O.E.)
• Emanate dai vertici militari
▫ Applicazione pratica dello jus in bello
▫ Derivano dalle leggi internazionali e nazionali
▫ Dipendenti dalla tipologia e dall’andamento del
conflitto
▫ Variano secondo la necessità militare
• Indirizzate ai soldati sul campo
▫ Condizioni e modalità di impiego della forza
▫ Norme imperative più che descrittive
Etica e robotica
• Roboethics
▫ Etica di progettisti, costruttori ed utenti di sistemi
robotici
▫ Diversi progetti internazionali (Ethicbots)
• Aspetti sociali
▫ Ricadute sulla società umana
▫ Robot come agente morale? (Floridi, Sullins)
Responsabilità
Attribuzione
• Il robot attuale non può essere portatore di
responsabilità
▫ Morale: assenza di intenzionalità e consapevolezza
▫ Oggettiva: impossibile un sistema sanzionatorio
• La responsabilità va ascritta a una persona
(fisica o giuridica)
▫ Progettisti, programmatori, produttori
▫ Venditori, certificatori, assicuratori
▫ Utilizzatori
Responsabilità
Jus in bello
• Discriminazione
▫ I bersagli militari vanno individuati con precisione
• Proporzionalità
▫ La forza impiegata deve essere adeguata al bersaglio
• Necessità di responsabilità oggettiva
▫ Bisogna poter identificare gli autori delle azioni
militari
Un’architettura robotica
Arkin (2007)
Behaviour based/deliberativa
Critiche
• Molti aspetti sono trattati in modo superficiale
• Per alcune componenti vengono solo indicate delle
alternative off-the-shelf senza ulteriori specifiche
• Nessun dettaglio sulla formalizzazione dei vincoli
▫ Sistema DEAL (Van den Hoven, et. al. 2002)
 Basato su logiche modali e action logic
 Nessuna implementazione disponibile
 Mancano studi sulle interazioni tra i vari operatori
▫ Framework Athena (Arkoudas, Bringsjord, 2005)
 Logica utilitaristica multi-agente (Horty, 2001)
 Può impiegare diversi ATP
 Complessità computazionale ignota.
Ipotesi di teoria logica
Scelte preliminari
•
•


Regole basate su ROE (Desert Storm)
1)
2)
3)
4)
5)
Non attaccare chiunque sia ferito, si sia arreso o non sia un combattente.
Considera un bersaglio valido chiunque punti un’arma e non sia un commilitone.
Considera un bersaglio valido chiunque ti attacchi.
Restringi l’attacco solo al bersaglio valido correttamente identificato.
Se il bersaglio è valido e tracciato con certezza, devi attaccare.
▫
▫
Operatori di obbligo ( ) e permesso ( )
Assiomi
Logica deontica TD (von Wright)


T : p→p
D : p→ p
Predicati dipendenti dalla sensoristica
Un unico grado di libertà (Fire)
Ipotesi di teoria logica
Assiomatizzazione
•
Teoria logica iniziale
▫
▫
▫
▫
▫
▫
▫
1.1. x (Frd(x)→
(Trg(x))
1.2. x (Wou(x)→ (Trg(x))
1.3. x (Sur(x)→
(Trg(x))
2.1. x ((Aim(x)
Frd(x))→ Trg(x))
2.2. x ((Atk(x) Frd(x))→ Trg(x))
3. x (Trg(x)→ Fire(x))
4. x ( Fire(x) Clr(x))
Fire(x))
Ipotesi di teoria logica
Programma logico
1.
2.
3.
4.
5.
6.
7.
8.
9.
ONot_Trg(x) Frd(x)
ONot_Trg(x) Wou(x)
ONot_Trg(x) Sur(x)
Not_Trg(x) ONot_Trg(x)
OTrg(x) Aim(x) Not_Frd(x)
OTrg(x) Atk(x) Not_Frd(x)
Trg(x) OTrg(x)
PFire(x) Trg(x)
OFire(x) PFire(x) Clr(x)





Eliminate le negazioni
Eliminati gli operatori
deontici
Clausole per realizzare
l’assioma T
Dimostrata
l’equivalenza tra la
teoria ed il programma
Complessità comp. è
polinomiale [Vardi
1996, Immerman 1986,
Dantsin 2001]
Percezione
Risultati di benchmark
Test M-ELROB






Riconosciuto dal consorzio EURON
Ricognizione, individuazione bersagli,
controllo perimetro
Ambiente urbano ed extra-urbano
Nessun sistema ottiene buoni risultati
nella target detection
Solo due sistemi non ottengono un
punteggio nullo nella prova diurna
Nella prova notturna, tutti i sistemi
ottengono punteggio nullo
Percezione
Gesture recognition
Prestazioni di un sistema di esempio (Kai, Stiefelhagen,
2006)
 Analisi di gesti di puntamento basati su movimento di testa e
mani
 Combinazione di HMM (mani) e reti neurali (testa)
 Ambiente indoor, valutazione off-line

Testa-mano
Avambraccio
Orientamento testa
Errore angolare medio
25°
39°
22°
Bersagli identificati
90%
73%
75%
Recall (%)
Precision (%)
Error (°)
Senza orientamento testa
79.8
73.6
19.4
Orientamento testa con sensore
78.3
86.3
16.8
Orientamento testa con ANN
78.3
87.1
16.9
Conclusioni
• La questione dei vincoli non appare intrattabile
• Il ragionamento deve basarsi su dati veri e certi
• I sistemi percettivi non forniscono attualmente le
prestazioni richieste
• Senza correttezza della percezione e del ragionamento
nessun vincolo morale potrà dirsi correttamente
soddisfatto
• Riteniamo immorale la costruzione e l’utilizzazione in
guerra di robot autonomi basati su queste tecnologie
“Il mondo del futuro sarà una battaglia sempre più impegnativa
contro le limitazioni della nostra intelligenza, non un’amaca
confortevole su cui distenderci, serviti dai nostri schiavi
meccanici.
Aiutarci possono, ma chiedendo moltissimo alla nostra onestà ed
intelligenza. Il mondo del futuro sarà una battaglia sempre più
impegnativa contro le limitazioni della nostra intelligenza, non
un’amaca confortevole su cui distenderci, serviti dai nostri schiavi
meccanici”.
Norbert Wiener
Scarica

I Robot Soldati