I Robot Soldati Unmanned Vehicles • • • • • Droni radio/tele guidati Ampiamente diffusi Nessuna autonomia Ancora pochi gli esemplari dotati di armi Eye-on-target Unmanned Aerial Vehicles Unmanned Aerial Vehicles Unmanned Ground Vehicles Unmanned Ground Vehicles Unmanned Undersea Vehicles Unmanned Surface Vehicles Dispositivi autonomi (CIWS) Progetti avanzati • Ancora allo stadio prototipale • Primi sistemi con alto grado di autonomia • Impieghi in contesti peculiari Progetti avanzati - Crusher Progetti avanzati – SGR-A1 Progetti avanzati - RoboSnake Progetti avanzati - BigDog Autonomous Military Agent Pro • • • • • • • Minimizzazione delle perdite umane Diminuzione dei costi della guerra Il basso numero di perdite favorisce il consenso Missioni dull, dirty and dangerous Immuni a emozioni e bisogni umani Non inclini a commettere atrocità inutili Proiettati ad avere prestazioni migliori dell’uomo (?) Autonomous Military Agent Contro • • • • • Ricorso più facile all’azione militare Progressivo abbandono della diplomazia Maggiori perdite e danni per il nemico I civili possono divenire obiettivi militari Riskless war ▫ Il reciproco rischio giustifica moralmente i contendenti ▫ Il rischio asimmetrico è proprio delle operazioni di polizia (buoni vs. cattivi) ▫ Il contendente più debole deve trovare altri modi di colpire (terrorismo) Etica Teoria deontologica • Valuta l’azione a priori ▫ Moralità di intenzione o norma da cui origina l’azione ▫ Un’azione è morale se è prodotta da “buona” intenzione ▫ I mezzi ed i fini sono strettamente correlati • Imperativo categorico (Kant) ▫ “agisci solo secondo la massima per la quale puoi e allo stesso tempo vuoi che questo diventi una legge universale” (universalismo) • Leggi della Robotica (Asimov) Etica Teoria teleologica • Valuta gli effetti dell’azione ▫ Un’azione è morale se produce effetti aumento del “bene” o diminuzione del “male” ▫ Il fine giustifica i mezzi • Consequenzialismo ▫ Criteri razionali per giudicare positività o negatività delle azioni • Utilitarismo ▫ ▫ ▫ ▫ “Utilità” è la misura di felicità/piacere/benessere Dolore/piacere (Bentham) Benessere sociale è somma del piacere individuale Giustizia è massimizzazione del benessere sociale Etica e guerra Leggi di Guerra (L.O.W.) • Suddivisione giurisprudenziale ▫ Jus ad bellum – entrata in guerra ed uso della forza militare ▫ Jus in bello – condotta durante i conflitti ▫ Jus post bellum – trattamento prigionieri, occupazione territori • Convenzioni internazionali ▫ Convenzioni dell’Aia (1899-1907) ▫ Convenzioni di Ginevra (1949-1977) • In Italia “Legge di Guerra e Neutralità” ▫ R.D. 8 luglio 1938 Etica e guerra Regole d’Ingaggio (R.O.E.) • Emanate dai vertici militari ▫ Applicazione pratica dello jus in bello ▫ Derivano dalle leggi internazionali e nazionali ▫ Dipendenti dalla tipologia e dall’andamento del conflitto ▫ Variano secondo la necessità militare • Indirizzate ai soldati sul campo ▫ Condizioni e modalità di impiego della forza ▫ Norme imperative più che descrittive Etica e robotica • Roboethics ▫ Etica di progettisti, costruttori ed utenti di sistemi robotici ▫ Diversi progetti internazionali (Ethicbots) • Aspetti sociali ▫ Ricadute sulla società umana ▫ Robot come agente morale? (Floridi, Sullins) Responsabilità Attribuzione • Il robot attuale non può essere portatore di responsabilità ▫ Morale: assenza di intenzionalità e consapevolezza ▫ Oggettiva: impossibile un sistema sanzionatorio • La responsabilità va ascritta a una persona (fisica o giuridica) ▫ Progettisti, programmatori, produttori ▫ Venditori, certificatori, assicuratori ▫ Utilizzatori Responsabilità Jus in bello • Discriminazione ▫ I bersagli militari vanno individuati con precisione • Proporzionalità ▫ La forza impiegata deve essere adeguata al bersaglio • Necessità di responsabilità oggettiva ▫ Bisogna poter identificare gli autori delle azioni militari Un’architettura robotica Arkin (2007) Behaviour based/deliberativa Critiche • Molti aspetti sono trattati in modo superficiale • Per alcune componenti vengono solo indicate delle alternative off-the-shelf senza ulteriori specifiche • Nessun dettaglio sulla formalizzazione dei vincoli ▫ Sistema DEAL (Van den Hoven, et. al. 2002) Basato su logiche modali e action logic Nessuna implementazione disponibile Mancano studi sulle interazioni tra i vari operatori ▫ Framework Athena (Arkoudas, Bringsjord, 2005) Logica utilitaristica multi-agente (Horty, 2001) Può impiegare diversi ATP Complessità computazionale ignota. Ipotesi di teoria logica Scelte preliminari • • Regole basate su ROE (Desert Storm) 1) 2) 3) 4) 5) Non attaccare chiunque sia ferito, si sia arreso o non sia un combattente. Considera un bersaglio valido chiunque punti un’arma e non sia un commilitone. Considera un bersaglio valido chiunque ti attacchi. Restringi l’attacco solo al bersaglio valido correttamente identificato. Se il bersaglio è valido e tracciato con certezza, devi attaccare. ▫ ▫ Operatori di obbligo ( ) e permesso ( ) Assiomi Logica deontica TD (von Wright) T : p→p D : p→ p Predicati dipendenti dalla sensoristica Un unico grado di libertà (Fire) Ipotesi di teoria logica Assiomatizzazione • Teoria logica iniziale ▫ ▫ ▫ ▫ ▫ ▫ ▫ 1.1. x (Frd(x)→ (Trg(x)) 1.2. x (Wou(x)→ (Trg(x)) 1.3. x (Sur(x)→ (Trg(x)) 2.1. x ((Aim(x) Frd(x))→ Trg(x)) 2.2. x ((Atk(x) Frd(x))→ Trg(x)) 3. x (Trg(x)→ Fire(x)) 4. x ( Fire(x) Clr(x)) Fire(x)) Ipotesi di teoria logica Programma logico 1. 2. 3. 4. 5. 6. 7. 8. 9. ONot_Trg(x) Frd(x) ONot_Trg(x) Wou(x) ONot_Trg(x) Sur(x) Not_Trg(x) ONot_Trg(x) OTrg(x) Aim(x) Not_Frd(x) OTrg(x) Atk(x) Not_Frd(x) Trg(x) OTrg(x) PFire(x) Trg(x) OFire(x) PFire(x) Clr(x) Eliminate le negazioni Eliminati gli operatori deontici Clausole per realizzare l’assioma T Dimostrata l’equivalenza tra la teoria ed il programma Complessità comp. è polinomiale [Vardi 1996, Immerman 1986, Dantsin 2001] Percezione Risultati di benchmark Test M-ELROB Riconosciuto dal consorzio EURON Ricognizione, individuazione bersagli, controllo perimetro Ambiente urbano ed extra-urbano Nessun sistema ottiene buoni risultati nella target detection Solo due sistemi non ottengono un punteggio nullo nella prova diurna Nella prova notturna, tutti i sistemi ottengono punteggio nullo Percezione Gesture recognition Prestazioni di un sistema di esempio (Kai, Stiefelhagen, 2006) Analisi di gesti di puntamento basati su movimento di testa e mani Combinazione di HMM (mani) e reti neurali (testa) Ambiente indoor, valutazione off-line Testa-mano Avambraccio Orientamento testa Errore angolare medio 25° 39° 22° Bersagli identificati 90% 73% 75% Recall (%) Precision (%) Error (°) Senza orientamento testa 79.8 73.6 19.4 Orientamento testa con sensore 78.3 86.3 16.8 Orientamento testa con ANN 78.3 87.1 16.9 Conclusioni • La questione dei vincoli non appare intrattabile • Il ragionamento deve basarsi su dati veri e certi • I sistemi percettivi non forniscono attualmente le prestazioni richieste • Senza correttezza della percezione e del ragionamento nessun vincolo morale potrà dirsi correttamente soddisfatto • Riteniamo immorale la costruzione e l’utilizzazione in guerra di robot autonomi basati su queste tecnologie “Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici. Aiutarci possono, ma chiedendo moltissimo alla nostra onestà ed intelligenza. Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici”. Norbert Wiener