Human factor faq Perché in inglese? Factor o Factors? A che serve? A chi è rivolto? Come spiegarlo? La curva degli incidenti Causa: Perdita di controllo. Soluzione: ingegneria 20 0,5 per milione di tratte Causa: perdita di controllo. Causa: CFIT Soluzione: CRM 10 60 70 Soluzione: ergonomia 80 90 00 Il progetto 1. sicurezza ed errore umano 2. prestazioni e limitazioni umane 3. il lavoro di gruppo 4. il rapporto uomo-macchina Se qualcosa puo’ andare storto…. lo fara’ (legge di Murphy) sicurezza SAFETY: Si riferisce alla prevenzione contro eventi causati da atti non intenzionali (es: errori, omissioni, coincidenze) SECURITY: Prevenzione contro pericoli derivanti da atti illeciti (es: attentati) EMERGENCY: Attività volta a limitare i danni derivanti da un evento critico già accaduto. (Es: Pompieri, Pronto soccorso) Definizioni PERICOLO (HAZARD): È in relazione stretta alla gravità della conseguenza Più pericolo = più danno possibile RISCHIO (RISK): È la probabilità a priori che un evento accada, correlando la sua frequenza con il danno potenziale. MINACCIA (THREAT) Precursore del rischio pericolo I – Trascurabile: assenza di ferite o danni; II – Minore: piccoli danni occupazionali, ambientali e sistemici; III – Maggiore: gravi danni occupazionali, ambientali e sistemici IV – Pericoloso: Ferite severe, danni gravi V – Catastrofico: morte o perdita del sistema. Matrice di rischio Severità Frequenza Frequente: E ≥10-3 Ragionevolmente probabile: 10-3≤E≤ 10-5 Remoto: 10-5≤ E ≤ 10-7 Estremamente remoto: 10-7 ≤ E ≤ 10-9 Estremamente Improbabile: 10-9 > E Trascurabile Minore Maggiore Pericoloso Catastrofico Accident 1) Incidente che causa morte o ferite gravi; 2) Danno all’aeromobile sostanziale, oppure; 3) L’aeromobile è disperso o inaccessibile; Seriousincident Un serious incident è un incidente in cui le circostanze indicano che ci si è avvicinati alla possibilità di un ‘ACCIDENT’. incident E’ un accadimento associato con le operazioni di un aeromobile che incide o potrebbe incidere sul livello atteso di sicurezza delle operazioni. I sistemi ultra-safe Eventualità di un incidente inferiore a un evento per milione Aviazione Volo commerciale di linea: 10-7 Volo Charter: 10-6 Volo acrobatico:10-4 Volo militare: 10-3 Anni ’60: loss of control prestazioni e limitazioni umane Soluzione: ingegneria Autopilota Auto-throttle Simulatori di volo Radar meteo ILS Radar di controllo atc Anni ’70: CFIT Problemi di integrazione all’interno dell’equipaggio Soluzione: Psicologia Corsi C.R.M. Anni ’90: Loss ofcontrol Interazione uomo-macchina Soluzione: ergonomia di progettazione Esperti human factor entrano nel momento del disegno degli impianti e strumenti di bordo sicurezza Reattiva Proattiva Evoluzione della sicurezza Diffidenza, scetticismo; Mancanza di approccio sistemico; Approccio burocratico; Difficoltà nell’accettare l’errore e riportarlo come esperienza; Nessuna analisi degli eventi; Inconsapevolezza delle prestazioni e limitazioni umane; La sicurezza è un problema dei piloti, non del sistema; Regolamentazione di difficile applicazione pratica; Assenza di presidi organizzativi dedicati; Impatto limitato sulla riduzione degli incidenti. Dopo molti anni….. Approccio sistemico (Safety Management System) Ampia regolamentazione Forte commitment Investimenti culturali (Just Culture – No Blame) Consapevolezza dello Human Factor Efficaci sistemi di reporting Trend/threat analysis Presidi organizzativi di alto livello I modelli della sicurezza Detto giapponese: Se hai un martello in mano, tutti i problemi avranno forma di chiodo Modelli della sicurezza Modello lineare (effetto domino) Modello sistemico (Swiss cheese) Modelli complessi (NAT, HRO, Resilience Engineering) Modello lineare Modello sistemico Swiss cheese model SHELL Software: norme, simbologie, procedure Hardware: macchine, computer, strumenti Environment: ambiente fisico (temperatura, comfort, luminosità) e ambiente organizzativo Liveware: elemento umano, stili comunicativi- relazionali, cognitivi, emotivi (Human Factor) L’incidente di Tenerife Dal Modello SHEL (Edwards) al modello shell(Hawkins): tenerife Sistemi complessi NAT (Normal Accident Theory) HRO (High Reliable Organization) Resilience Engineering Normal Accident Theory HRO Il primo errore potrebbe essere l’ultimo Preoccupazione per i fallimenti Approcci eterogenei Rispetto per l’esperienza Condivisione delle informazioni No news, good news? Resilience engineering Anticipare gli eventi Monitorare l’attività Reagire alle perturbazioni Imparare dall’esperienza E.t.t.o. HUMAN FACTOR • • • • • • • • • • Capacità non tecniche (No-techs) Leadership Assertività Critica Iniziativa Flessibilità Disciplina operativa Auto-controllo Processo decisionale Gestione dello stress Qualità della comunicazione Il CRM: Crew resourcemanagement Che cos’è A che serve Come è stato recepito Come si è evoluto Evoluzione del CRM I generazione: arrivano gli psicologi II generazione: da nice to know a need to know III generazione: da cockpit a crew IV generazione: integrazione del CRM nelle procedure (es. briefing) V generazione: il TEM Errore Fallimento nella pianificazione e/o nell’esecuzione di una sequenza di azioni che determina il mancato raggiungimento, non attribuibile al caso, dell’obiettivo desiderato Tipi di errore indotto dal progetto Errori indotti dall’operatore Operator-inducederrors Limiti fisici (dimensioni, forza) Limiti fisiologici (illusioni ottiche) Limiti psicologici (capacità di calcolo, attenzione, trappole cognitive) Le illusioni ottiche Le illusioni della mente Errori sporadici, costanti o random Skill Rule knowledge Approccio individualistico • • • • Errare non è ammissibile Di chi è la colpa Fallimento individuale Atteggiamento difensivo dei singoli Controllo e gestione dei contenziosi Gli errori degli operatori di front-line causano la maggior parte degli incidenti; I sistemi, di per sé, sono sicuri. È l’uomo che introduce la variabile che può portare il sistema a collassare; in pratica, la tecnologia è sicura e l’uomo è la minaccia. Approccio sistemico • • • • Errare è umano Cosa è successo Fallimento del sistema Atteggiamento proattivo del sistema Prevenzione e gestione del rischio Gli errori sono dei sintomi di falle che si trovano a differenti livelli dell’organizzazione; I sistemi non sono sicuri di per sé; è l’essere umano che crea la sicurezza. C’è una relazione costante tra l’uomo e gli strumenti, i compiti e l’ambiente operativo. I progressi della sicurezza derivano dalla migliore comprensione di questi elementi e nel disegno di sistemi caratteristiche umane. che prendano in considerazione le La cultura organizzativa Cultura patologica Cultura burocratica Cultura proattiva Non si vuole sapere Si può non venire a sapere Si ricerca attivamente l’informazione Chi riferisce è sotto tiro Si ascolta se non si può evitare Si educa a riferire La responsabilità è elusa Responsabilità a compartimenti stagni La responsabilità è condivisa Chi sbaglia viene ignorato o punito Gli sbagli portano a rimedi provvisori Gli sbagli provocano riforme attive Le nuove idee vengono attivamente represse Le nuove idee rappresentano un problema Le nuove idee sono benvenute Violazione Deliberata inosservanza delle regole Sempre nociva? Non si vuole Non si sa Non si può Non è saggio Non si impone Causa Indisciplina Incompetenza Impedimento Inopportunità insignificante effetto Rischio Pericolo Unica alternativa Male minore indifferente Threat and errormanagement • EVITARE - (briefing, procedure, prassi, critica costruttiva, disciplina operativa, standard) • ACCORGERSI - (strumenti, check list, team work, call-out, controllo incrociato) • MITIGARE - (procedure, conoscenza) Safetyreportingsystem 1. Politica della sicurezza con i relativi obiettivi; 2. Analisi e gestione del rischio; 3. Valutazione dei pericoli e assessment del reale livello di sicurezza nel sistema; 4. Promozione della sicurezza all’interno del sistema considerato. Politica di sicurezza Impegno dell’alta dirigenza Safety manager (competenze, qualifiche, committment) Piani di emergenza Documentazione Analisi e gestione del rischio Identificare i pericoli Valutazione quantitativa (risk assessment) Sviluppo misure di mitigazione Valutazione dei pericoli Misurazione e monitoraggio Aggiornamento norme e procedure Promozione della sicurezza Formazione del personale Informazioni di sicurezza Verifica Q1: LA SICUREZZA PROATTIVA: A. Capitalizza la lezione delle esperienze passate per migliorare standard e procedure, affinché il numero di incidenti diminuisca; B. Attraverso l’analisi, la valutazione dei rischi e delle minacce, interviene sul sistema complessivamente per minimizzare il rischio di incidenti; C. E’ una metodologia obsoleta, utile solo a stabilire colpe e responsabilità. Q2: nel modello SHELL la coppia S/H riguarda le interazioni tra: a. Operatore e computer b. Operatore e ambiente c. Operatore e norme Q3.loswisscheesemodelsibasasull’assuntoche: A. solo attraverso l’analisi degli incidenti si possono evitarne altri B. Ogni livello organizzativo rappresenta una barriera difensiva contro l’errore, ma ogni barriera è fallace C. La maggior parte degli incidenti avviene per via del fattore umano Q.4:La safety miraaproteggerecontroattacchiintenzionali A. Vero B. Falso Q5: UN SISTEMA DIRACCOLTA E ANALISI DEGLI EVENTI CORRELATI CON LA SICUREZZA: A. Serve a stabilire in maniera corretta l’attribuzione di responsabilità; B. Aiuta l’organizzazione ad identificare tempestivamente rischi e minacce latenti nel sistema; C. E’ impossibile da applicare al sistema medico-sanitario. Q6: L’INCIDENTE DI TENERIFE A. Ha stimolato la necessità di una maggiore preparazione tecnica dei piloti; B. Ha sottolineato l’importanza del fattore umano; C. Ha evidenziato come causa primaria l’inadeguatezza delle strutture aeroportuali. Q7: L’ERRORE DITIPO ‘MISTAKE’: A. Deriva da scarse capacità tecniche; B. Riguarda un’ errata applicazione di regole; C. Contraddistingue scarsa capacità decisionale e di processo metodologico. Q.8:unaviolazioneèunattoinvolontario A. Vero B. Falso Linate 8 ottobre 2001 In una mattina nebbiosa, un MD 87 della SAS viene autorizzato al decollo mentre un Cessna, credendo di essere su un altro raccordo, entra in pista. La ricostruzione della dinamica degli eventi ha permesso di dimostrare che gli errori degli operatori in prima linea (i piloti del Cessna) si sono intrecciati con una serie di errori gestionali, normativi, progettuali e procedurali BESTA\LINATE\MAPPA LINATE.tiff BESTA\LINATE\R200_dietro_MD-87_PP4.avi Happy landing!