SVILUPPO DI TECNICHE DI AUGMENTED REALITY PER LA MANUTENZIONE
AERONAUTICA
F. De Crescenzio, F. Persiani
DIEM - University of Bologna, V.le Risorgimento, 2, 40136 Bologna
[email protected]
1. Introduzione
Elaborata allo scopo di superare alcuni dei limiti legati ai sistemi di Realtà Virtuale
immersivi, l’Augmented Reality (AR) ne ha notevolmente ampliato lo spettro di
applicabilità in diversi settori che vanno dall’ industria alla ricerca scientifica. In
particolare questa nuova tecnologia è stata di recente proposta per introdurre nuove
potenzialità nell’ambito di attività quali la manutenzione di sistemi complessi.
L’approccio grafico ed interattivo, infatti, rivela la possibilità di snellire la gestione ed i
processi di manutenzione, spesso gravati dalla necessità di consultare manuali voluminosi
o cercare la procedura di intervento appropriata.
L’applicazione di nuove metodologie in questo campo potrebbe avere una doppia
ricaduta. Da un lato essa porterebbe, unita ad una riprogettazione dei flussi di
manutenzione ordinaria, ad un aumento della disponibilità della flotta aerea. Dall’altro, si
propone come strumento di guida e supporto per lo svolgimento di operazioni da parte di
personale sì qualificato, ma allo stesso tempo soggetto alla possibilità di commettere
errori, come del resto dimostrato dalle statistiche. Gli errori umani sono stati indicati,
infatti, tra le cause principali fra quelle che possono compromettere la riuscita di un
intervento di manutenzione. A confermarlo la crescente attenzione verso il miglioramento
delle tecniche di manutenzione e l’addestramento del personale focalizzati sulle
prestazioni e sugli “Human Factors”.
In questa relazione verrà presentato un sistema di AR che intende snellire il processo di
manutenzione migliorandone, allo stasso tempo, le prestazioni e, quindi, riducendo la
probabilità del verificarsi di errori dovuti a fattori umani. In particolare questa tecnologia
è basata sulla realizzazione di un ambiente combinato in cui Computer Graphics e realtà
si fondono per fornire una visione ricca di informazioni aggiuntive. Tali informazioni
sono presentate sotto forma di modelli tridimensionali o messaggi di testo che,
sovrapposti al componente in manutenzione, guidano l’operatore in un semplice
approccio step by step. Dotato di un computer portatile e di una telecamera, l’operatore
non deve fare altro che
inquadrare le singole parti
dell’aeromobile. Le immagini
acquisite
vengono
successivamente processate ed
inviate al monitor del computer
dopo essere state integrate con
l’ambiente virtuale. Utilizzando
delle immagini bidimensionali
(pattern)
preregistrate
è
possible risalire, attraverso il
Fig.1 Lo spazio “amplificato”
calcolo della prospettiva inversa della telecamera, alla posizione della stessa rispetto
all’oggetto reale da identificare. Grazie a questo sistema, quando la telecamera si sposta,
l’immagine virtuale viene aggiornata per consentire la corretta collimazione tra i due
ambienti.
La tecnica di riconoscimento dei pattern è stata implementata anche per migliorare e
facilitare la consultazione dei manuali, nonchè per l’aggiornamento dello scadenziario
legato alla pianificazione degli interventi.
2. Applicazioni
Per le sue caratteristiche l’Augmented Reality, come già accennato, è stata proposta in
numerosi settori. La Bell Helicopters, in particolare, già nel 1967 provò per la prima volta
un sistema formato da visori collegati ad una telecamera a raggi infrarossi installata
sull’elicottero e solidale alle rotazioni della testa del pilota. Lo scopo di questo apparato
era di permettere ed aumentare il livello di sicurezza degli atterraggi in zone impervie.
Successivamente, l’Augmented Reality ha trovato applicazione nel campo
dell’intrattenimento, della simulazione e del training nel settore militare, del supporto
grafico per la costruzione e fabbricazione industriale, come strumento di supporto per
valutazione di impatto ambientale, per gli automatismi, ecc. Tra le applicazioni che
maggiormente si avvicinano a quella proposta in questa relazione, si trovano le cosidette
“annotating the real world applications”. Esse si basano sull’idea di associare
un’annotazione grafica ad ogni oggetto all’interno di uno scenario.
Oltre che per il “Real-time maintenance instruction”, la Boeing ha applicato con
successo l’Augmented Reality al processo di definizione ed ottimizazione del lay-out di
parti flessibili (cavi, tubi, etc.) all’interno di spazi ridotti (Wire bundle lay-up assembly).
3. Il flusso di lavoro
1.EQUIPAGGIAMENTO DELL’OPERATORE
2.VISUALIZZAZIONE DEL PERCORSO DI LAVORO E DELLA
SEQUENZA DEGLI INTERVENTI
La reingegnerizzazione del processso di
manutenzione
in
un
approccio
Augmented
Reality
prevede
la
suddivisione
nelle
quatto
fasi
schematizzate in Fig.2.
3.APPLICAZIONE DELLE TECNICHE DI AUGMENTED REALITY E
CONSULTAZIONE AUTOMATICA DEI MANUALI
4.CHIUSURA SESSIONE E REGISTRAZIONE AUTOMATICA
DEGLI INTERVENTI EFFETTUATI
Fig.2
3.1 Equipaggiamento
Nella scelta dell’hardware si è tenuto conto di
diversi fattori. In primo luogo è necessario fornire
strumenti non ingombranti e facilmente trasportabili,
tenuto conto della mobilità di un operatore attorno
all’aeromobile. Inoltre, è molto importante avere uno
strumento in grado di gestire la visualizzazione
Fig.3 La fase di equipaggiamento
grafica tridimensionale e particolarmente flessibile per potere essere facilmente
aggiornato. L’operatore è quindi dotato di un computer portatile e di una telecamera web
come mostrato in Fig.3.
3.1 Percorso di lavoro
La
prima
schermata
riguarda
la
visualizzazione animata del percorso di
lavoro. Una volta portatosi in prossimità
dell’area indicata dalla vista, in pianta o
laterale, dell’aeromobile, l’operatore passa
alla fase 3, descritta in dettaglio nei paragrafi
seguenti. Infine, si registrano i dati relativi
agli interventi eseguiti.
Fig.4
4. L’Augmented Reality
Come precedentemente accennato, i sistemi di Realtà Virtuale immersiva, ovvero quelli
che mirano a creare un ambiente virtuale che sostituisca completamente quello reale, si
sono rivelati in alcuni casi inadeguati. In primo luogo, essi necessitano di strumenti
hardware capaci di gestire pesanti modelli 3D. Inoltre, possono generare la sensazione di
irreale da parte dell’utente, essendo basati sulla creazione di ambienti del tutto sintetici.
La misura di quanto un utente del sistema percepisca reale un ambiente virtuale risulta,
del resto, fondamentale per garantire le prestazioni di una simulazione. Diversamente
l’Augmented Reality, da alcuni tradotta come Realtà Amplificata, si propone di arricchire
lo spazio reale con informazioni aggiuntive, arricchendone la percezione da parte di un
utente attraverso la corretta correlazione tra i due ambienti. Il risultato finale è, in
definitiva, un ambiente combinato risultante dalla fusione di oggetti reali con oggetti
virtuali.
Lo sviluppo dell’Augmented Reality è stato, fino ad oggi, basato su due temi
fondamentali. Il primo riguarda le tecniche di visualizzazione, ovvero i sistemi per
Fig. 5 Video see-through AR
Fig.6 Optical see-throug AR
sovrapporre, o combinare, i due ambienti. Il secondo si riferisce alla ricerca di una
tecnica efficiente per il riconoscimento delle diverse parti che compongono uno scenario
reale, allo scopo di correlarvi dei modelli tridimensionali in maniera dinamica (video
merging).
Gli strumenti (virtual devices) attualmente disponibili permettono una percezione visiva
combinata attraverso due tipi di schemi: Video See-Trough e Optical See-Trough.
L’immagine risultante, infatti, può essere visualizzata sul monitor del PC o, mediante
l’uso di speciali occhiali semitrasparenti detti See-through HMD (Head Mounted
dispaly). Questo dispositivo è in grado di visualizzare su un display l’immagine virtuale
senza precludere all’utente la vista dell’ambiente reale circostante.
Immagine reale
Web-cam
Ricerca del
marker
Calcolo della
posizione relativa
della camera
Generazione
dell’ambiente
virtuale
Visualizzazione dell’ambiente
combinato reale-virtuale sul monitor
del computer portatile
data base
markers
Fig.7 Schema dell’algoritmo
Il funzionamento del sistema si basa sull’uso di una telecamera collegata ad un computer
portatile. Le immagini acquisite dalla telecamera si combinano con i modelli
tridimensionali precedentemente elaborati e tarati sui componenti. Si rende necessario,
dunque, che il computer riconosca, in ogni istante, quale particolare è stato inquadrato, e,
se previsto, qual’è la procedura da seguire in base all’usura, ai danni, alle fratture o altro
visibili sul componente in esame. E’ facile intuire che il successo dell’applicazione è
stretamente legato alla capacità di riconoscere le singole parti, nonchè la posizione e
l’orientamento che queste occupano rispetto alla telecamera. Quello che tra i diversi
metodi ha fino ad ora mostrato il maggior grado di affidabilità si basa sul riconoscimento
di immagini bidimensionali denominate “pattern”. Ciascuno di questi pattern è associato
ad una parte dell’ambiente reale ed il computer è in grado, grazie ad un algoritmo di
pattern recognition, di calcolare la posizione della prospettiva inversa della telecamera
(Fig.7).
5. Implementazione
La prima applicazione pratica del sistema di manutenzione per aeromobili è stata
sviluppata sulla reingegnerizzazione del programma di manutenzione di un P-180
AVANTI. In primo luogo, è stata generata una struttura dati articolata per realizzare il
passaggio di informazioni dal computer all’operatore attraverso due canali: il browsing
elettronico dei manuali e dei libretti di volo e manutenzione, e la visualizzazione di
modelli tridimensionali. Le informazioni fornite dal sistema si classificano in:
1. Modelli e messaggi di testo tridimensionali
2. Manuali multimediali
3. Time scheduling interattivo ed aggiornato
Svitare nei punti evidenziati
dai markers rossi
Fig.8 a) La web-cam inquadra il nose; b) Le immagini vengono analizzate;c) Indicazioni per lo
smontaggio del nose
Inizialmente l’operatore si avvicina area indicata in pianta da una schermata di percorso.
Come mostrato in Fig.4, il primo check deve essere fatto alla parte anteriore
dell’aeromobile. Una volta inquadrato il nose, dalla sequenza video l’algoritmo ricava,
attraverso il riconoscimento del pattern, la posizione di alcuni markers rossi che indicano
i punti e quindi le viti da rimuovere. A
questo punto l’operatore passa
all’avionics disassembly procedure. I
punti critici possono essere evidenziati
attraverso l’impiego di markers
colorati, come nel caso della Fig.9. Si
noti come punti di vista differenti
generano immagini virtuali differenti,
al fine di mostrare i modelli
tridimensionali
perfettamente
e collimati all’ambiente
Fig.9 La posizione e la scala dei modelli virtuali si adattano registrati
reale.
agli spostamenti relativi tra la telecamera e il maker
Fig.10 Avvio automatico dello scadenzario
Oltre ai markers tridimensionali l’immagine può errere
corredata da brevi ma incisivi messaggi di testo in
modo da ridurre le incertezze.
Ogni pattern può essere associato, dunque, o alla
struttura virtuale che dovrà sovrapporsi all’immagine
reale, oppure all’indirizzo di memoria di un file di
documentazione.
Al pannello del combustibile sono associate, ad
esempio, tutte le informazioni riguardanti le norme di
sicurezza da rispettare durante la fase di rifornimento,
la procedura da seguire, i controlli imposti dalla Piaggio
inerenti il Fuel System. In Fig.11 è rappresentata , a
titolo d’esempio, la semplice procedura per la
connessione degli spinotti alla presa esterna del Ground
Power. Ogni spinotto deve essere connesso
precisamente all’unità esterna pena il danneggiamento
irreversibile del sistema. Grafica e documentazione
possono essere gestite per fornire un quadro semplice e
completo delle operazioni in ogni istante del check.
Fig. 11 Istruzioni per il
Battery panel
6. Conclusioni e sviluppi futuri
L’applicazione di tecniche di Augmented Reality ha permesso, in conclusione, di creare
un “simulatore virtuale” in grado di presentare direttamente all’operatore, in tempo reale,
tutte le informazioni necessarie attraverso l’impiego di strumenti innovativi. Tale
approccio consente di ridurre l’incidenza di errori legati ai fattori umani, le difficoltà di
interpretazione dovute alla complessità dei manuali tecnici, l’errata installazione dei
componenti, dimenticanze o distrazioni dovuti alla pressione del tempo che spesso
caratterizza questo tipo di lavoro. Oltre che come supporto on line, il sistema proposto
potrebbe essere impiegato come strumento di formazione, elevando il livello pratico di
apprendimento delle singole operazioni.
D’altra parte è necessario considerare che la tecnica di pattern recognition presenta dei
limiti, primi tra i quali il fallimento dell’algoritmo per la parziale occlusione dei markers
ed il notevole incremento del numero di markers necessario per ottenere una mappatura
dettagliata dell’ambiente. Attualmente sono in esame alcune metodologie che mirano al
riconoscimento diretto delle parti eliminando la necessità di utilizzare immmagini
bidimensionali esterne. Tra le possibili soluzioni è stato sviluppato un sistema di
riconoscimento degli oggetti che accoppia alle tecniche puramente vision-based un
sistema di tracciamento magnetico a sei gradi di libertà (Polhemus Fastrack). Inoltre, si
sta analizzando la possibilità di sfruttare le tecniche di ingegneria inversa, mediante le
quali si ricostruiscono i modelli tridimensionali delle parti, da confrontare con i modelli
contenuti in un data-base dell’ambiente in esame.
7. References
[1] M. Billinghurst, and H. Katu, Collaborative Mixed Reality , Proceedings of first Symposium on Mixed
Reality (ISMR 99) Merging Real and Virtual Words, Berlin, 1999, 261-284.
[2] H. Kato, M. Billinghurst, S. Weghorst and T. Furness, A Mixed Reality 3D Conferencing Application,
(Technical Report R-99-1), 1999, Seattle: Human Interface Technology Laboratory, University of
Washington.
[3] R.T. Azuma, A Sourvey of Augmented Reality, Teleoperators and Virtual Environments 6, 4, August
1997, pp. 355-385.
[4]Y.Cho, J.Park and U.Neumann, Fast Color Fiducial Detection and Dynamic Workspace Extension in
Video see-through Self-Tracking Augmented Reality, Proceedings of the Fifth Pacific Conference on
Computer Graphics and Applications, 1997, 168-177.
[5] J.Park, Bolan Jiang, and U. Neumann, Video –based Pose Computation: Robust and Accurate
Augmented Reality Tracking, Proceedings of the 2nd IEEE and ACM International Workshop on
Augmented Reality, October 20-21, 1999, San Francisco, p.3-12
[6] L. Balis Crema, and A. Castellani, Il ruolo della ricerca nel miglioramento della sicurezza del volo, Atti
del XVI Congresso Nazionale dell’Associazione di Aeronautica e Astronautica Palermo, 24-28 settembre
2001
[7] F. De Crescenzio, F. Persiani, I. Pelliconi “VISION-BASED AUGMENTED REALITY FOR AIRCRAFT
MAINTENANCE” Atti del XVI CONGRESSO NAZIONALE AIDAA 24-28 settembre 2001 PALERMO.
[8] A. Liverani, and F. De Crescenzio “A combined tracking-rendering method for 3D object recognition
in Augmented Reality environment”, Proceedings of the Twentieth IASTED International Conference on
Modelling, Identification and Control (MIC 2001) February 19-22, 2001 Innsbruck, Austria.
Scarica

visualizzazione