Human factor
faq
 Perché in inglese?
 Factor o Factors?
 A che serve?
 A chi è rivolto?
 Come spiegarlo?
La curva degli incidenti
Causa: Perdita di controllo.
Soluzione: ingegneria
20
0,5 per milione di tratte
Causa: perdita di
controllo.
Causa: CFIT
Soluzione: CRM
10
60
70
Soluzione: ergonomia
80
90
00
Il progetto
 1. sicurezza ed errore umano
 2. prestazioni e limitazioni umane
 3. il lavoro di gruppo
 4. il rapporto uomo-macchina
Se qualcosa puo’
andare storto….
lo fara’
(legge di Murphy)
sicurezza
 SAFETY:
 Si riferisce alla prevenzione contro eventi
causati da atti non intenzionali (es: errori,
omissioni, coincidenze)
 SECURITY:
 Prevenzione contro pericoli derivanti da atti
illeciti (es: attentati)
 EMERGENCY:
 Attività volta a limitare i danni derivanti da
un evento critico già accaduto. (Es:
Pompieri, Pronto soccorso)
Definizioni
 PERICOLO (HAZARD):
 È in relazione stretta alla gravità della conseguenza
 Più pericolo = più danno possibile
 RISCHIO (RISK):
 È la probabilità a priori che un evento accada, correlando la sua frequenza
con il danno potenziale.
 MINACCIA (THREAT)
 Precursore del rischio
pericolo
 I – Trascurabile: assenza di ferite o danni;
 II – Minore: piccoli danni occupazionali, ambientali e sistemici;
 III – Maggiore: gravi danni occupazionali, ambientali e sistemici
 IV – Pericoloso: Ferite severe, danni gravi
 V – Catastrofico: morte o perdita del sistema.
Matrice di rischio
Severità
Frequenza
Frequente:
E ≥10-3
Ragionevolmente
probabile:
10-3≤E≤ 10-5
Remoto:
10-5≤ E ≤ 10-7
Estremamente
remoto:
10-7 ≤ E ≤ 10-9
Estremamente
Improbabile:
10-9 > E
Trascurabile
Minore
Maggiore
Pericoloso
Catastrofico
Accident
1) Incidente che causa morte o ferite gravi;
2) Danno all’aeromobile sostanziale, oppure;
3) L’aeromobile è disperso o inaccessibile;
Seriousincident
Un serious incident è un incidente in cui le circostanze indicano che ci si è
avvicinati alla possibilità di un ‘ACCIDENT’.
incident
 E’ un accadimento associato con le operazioni di un
aeromobile che incide o potrebbe incidere sul livello
atteso di sicurezza delle operazioni.
I sistemi ultra-safe
Eventualità di un incidente inferiore a un evento per milione
Aviazione
 Volo commerciale di linea: 10-7
 Volo Charter: 10-6
 Volo acrobatico:10-4
 Volo militare: 10-3
Anni ’60: loss of control
 prestazioni e limitazioni umane
 Soluzione: ingegneria
 Autopilota
 Auto-throttle
 Simulatori di volo
 Radar meteo
 ILS
 Radar di controllo atc
Anni ’70: CFIT
 Problemi di integrazione all’interno dell’equipaggio
 Soluzione: Psicologia
 Corsi C.R.M.
Anni ’90: Loss ofcontrol
 Interazione uomo-macchina
 Soluzione: ergonomia di progettazione
 Esperti human factor entrano nel momento del disegno degli
impianti e strumenti di bordo
sicurezza
 Reattiva
 Proattiva
Evoluzione della sicurezza
Diffidenza, scetticismo;
Mancanza di approccio sistemico;
Approccio burocratico;
Difficoltà nell’accettare l’errore e riportarlo come
esperienza;
Nessuna analisi degli eventi;
Inconsapevolezza delle prestazioni e limitazioni
umane;
La sicurezza è un problema dei piloti, non del
sistema;
Regolamentazione di difficile applicazione pratica;
Assenza di presidi organizzativi dedicati;
Impatto limitato sulla riduzione degli incidenti.
Dopo molti anni…..
Approccio sistemico (Safety Management System)
Ampia regolamentazione
Forte commitment
Investimenti culturali (Just Culture – No Blame)
Consapevolezza dello Human Factor
Efficaci sistemi di reporting
Trend/threat analysis
Presidi organizzativi di alto livello
I modelli della sicurezza
 Detto giapponese: Se hai un martello in mano, tutti i problemi
avranno forma di chiodo
Modelli della sicurezza
 Modello lineare (effetto domino)
 Modello sistemico (Swiss cheese)
 Modelli complessi (NAT, HRO, Resilience Engineering)
Modello lineare
Modello sistemico
 Swiss cheese model
SHELL
 Software: norme, simbologie, procedure
 Hardware: macchine, computer, strumenti
 Environment: ambiente fisico (temperatura,
comfort, luminosità) e ambiente organizzativo
 Liveware: elemento umano, stili comunicativi-
relazionali, cognitivi, emotivi (Human
Factor)
L’incidente di Tenerife
Dal Modello SHEL (Edwards) al modello shell(Hawkins): tenerife
Sistemi complessi
 NAT (Normal Accident Theory)
 HRO (High Reliable Organization)
 Resilience Engineering
Normal Accident Theory
HRO
 Il primo errore potrebbe essere l’ultimo
 Preoccupazione per i fallimenti
 Approcci eterogenei
 Rispetto per l’esperienza
 Condivisione delle informazioni
 No news, good news?
Resilience engineering
 Anticipare gli eventi
 Monitorare l’attività
 Reagire alle perturbazioni
 Imparare dall’esperienza
 E.t.t.o.
HUMAN FACTOR
•
•
•
•
•
•
•
•
•
•

Capacità non tecniche (No-techs)
Leadership
Assertività
Critica
Iniziativa
Flessibilità
Disciplina operativa
Auto-controllo
Processo decisionale
Gestione dello stress
Qualità della comunicazione
Il CRM: Crew resourcemanagement
 Che cos’è
 A che serve
 Come è stato recepito
 Come si è evoluto
Evoluzione del CRM
 I generazione: arrivano gli psicologi
 II generazione: da nice to know a need to know
 III generazione: da cockpit a crew
 IV generazione: integrazione del CRM nelle procedure (es.
briefing)
 V generazione: il TEM
Errore
 Fallimento nella pianificazione e/o nell’esecuzione di una
sequenza di azioni che determina il mancato raggiungimento,
non attribuibile al caso, dell’obiettivo desiderato
Tipi di errore
indotto dal progetto
Errori indotti dall’operatore
Operator-inducederrors
 Limiti fisici (dimensioni, forza)
 Limiti fisiologici (illusioni ottiche)
 Limiti psicologici (capacità di calcolo, attenzione, trappole
cognitive)
Le illusioni ottiche
Le illusioni della mente
Errori sporadici, costanti o random
Skill
Rule
knowledge
Approccio individualistico
•
•
•
•
Errare non è ammissibile
Di chi è la colpa
Fallimento individuale
Atteggiamento difensivo dei singoli
 Controllo e gestione dei contenziosi
 Gli errori degli operatori di front-line causano la maggior parte degli incidenti;
 I sistemi, di per sé, sono sicuri. È l’uomo che introduce la variabile che può portare il
sistema a collassare; in pratica, la tecnologia è sicura e l’uomo è la minaccia.
Approccio sistemico
•
•
•
•
Errare è umano
Cosa è successo
Fallimento del sistema
Atteggiamento proattivo del sistema

Prevenzione e gestione del rischio

Gli
errori
sono
dei
sintomi
di
falle
che
si
trovano
a
differenti livelli dell’organizzazione;

I sistemi non sono sicuri di per sé; è l’essere umano che crea
la sicurezza.

C’è
una
relazione
costante
tra
l’uomo
e
gli
strumenti,
i
compiti e l’ambiente operativo. I progressi della sicurezza
derivano dalla migliore comprensione di questi elementi e nel
disegno
di
sistemi
caratteristiche umane.
che
prendano
in
considerazione
le
La cultura organizzativa
Cultura patologica
Cultura burocratica
Cultura proattiva
Non si vuole sapere
Si può non venire a sapere
Si ricerca attivamente
l’informazione
Chi riferisce è sotto tiro
Si ascolta se non si può
evitare
Si educa a riferire
La responsabilità è elusa
Responsabilità a
compartimenti stagni
La responsabilità è
condivisa
Chi sbaglia viene ignorato
o punito
Gli sbagli portano a rimedi
provvisori
Gli sbagli provocano
riforme attive
Le nuove idee vengono
attivamente represse
Le nuove idee
rappresentano un
problema
Le nuove idee sono
benvenute
Violazione
 Deliberata inosservanza delle regole
 Sempre nociva?
 Non si vuole
 Non si sa
 Non si può
 Non è saggio
 Non si impone
Causa
 Indisciplina
 Incompetenza
 Impedimento
 Inopportunità
 insignificante
effetto
 Rischio
 Pericolo
 Unica alternativa
 Male minore
 indifferente
Threat and errormanagement
• EVITARE - (briefing, procedure, prassi,
critica costruttiva, disciplina operativa,
standard)
• ACCORGERSI - (strumenti, check list, team
work, call-out, controllo incrociato)
• MITIGARE - (procedure, conoscenza)
Safetyreportingsystem
 1. Politica della sicurezza con i relativi
obiettivi;
 2. Analisi e gestione del rischio;
 3. Valutazione dei pericoli e assessment del
reale livello di sicurezza nel sistema;
 4. Promozione della sicurezza all’interno del
sistema considerato.
Politica di sicurezza
 Impegno dell’alta dirigenza
 Safety manager (competenze, qualifiche, committment)
 Piani di emergenza
 Documentazione
Analisi e gestione del rischio
 Identificare i pericoli
 Valutazione quantitativa (risk assessment)
 Sviluppo misure di mitigazione
Valutazione dei pericoli
 Misurazione e monitoraggio
 Aggiornamento norme e procedure
Promozione della sicurezza
 Formazione del personale
 Informazioni di sicurezza
Verifica
 Q1:
 LA SICUREZZA PROATTIVA:
 A. Capitalizza la lezione delle esperienze passate per migliorare standard e
procedure, affinché il numero di incidenti diminuisca;
 B. Attraverso l’analisi, la valutazione dei rischi e delle minacce, interviene sul
sistema complessivamente per minimizzare il rischio di incidenti;
 C. E’ una metodologia obsoleta, utile solo a stabilire colpe e responsabilità.
Q2: nel modello SHELL la coppia S/H riguarda le interazioni tra:
a. Operatore e computer
b. Operatore e ambiente
c. Operatore e norme
Q3.loswisscheesemodelsibasasull’assuntoche:
 A. solo attraverso l’analisi degli incidenti si possono evitarne
altri
 B. Ogni livello organizzativo rappresenta una barriera
difensiva contro l’errore, ma ogni barriera è fallace
 C. La maggior parte degli incidenti avviene per via del
fattore umano
Q.4:La safety miraaproteggerecontroattacchiintenzionali
 A. Vero
 B. Falso
Q5: UN SISTEMA DIRACCOLTA E ANALISI DEGLI EVENTI CORRELATI CON LA SICUREZZA:
 A. Serve a stabilire in maniera corretta l’attribuzione
di responsabilità;
 B. Aiuta l’organizzazione ad identificare tempestivamente
rischi e minacce latenti nel sistema;
 C. E’ impossibile da applicare al sistema medico-sanitario.
Q6:
L’INCIDENTE
DI
TENERIFE
A. Ha stimolato la necessità di una maggiore preparazione
tecnica dei piloti;
B. Ha sottolineato l’importanza del fattore umano;
C. Ha evidenziato come causa primaria l’inadeguatezza delle
strutture aeroportuali.
Q7: L’ERRORE DITIPO ‘MISTAKE’:
A. Deriva da scarse capacità tecniche;
B. Riguarda un’ errata applicazione di regole;
C. Contraddistingue scarsa capacità decisionale e di processo
metodologico.
Q.8:unaviolazioneèunattoinvolontario
 A. Vero
 B. Falso
Linate 8 ottobre 2001
 In una mattina nebbiosa, un MD 87 della SAS viene autorizzato al decollo
mentre un Cessna, credendo di essere su un altro raccordo, entra in pista.
 La ricostruzione della dinamica degli eventi ha permesso di dimostrare
che gli errori degli operatori in prima linea (i piloti del Cessna) si sono
intrecciati con una serie di errori gestionali, normativi, progettuali e
procedurali
 BESTA\LINATE\MAPPA LINATE.tiff
 BESTA\LINATE\R200_dietro_MD-87_PP4.avi
Happy landing!
Scarica

Pericoloso