7:46
Pagina 1
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
ANNO XV
N. 04 ƒ
2 013
GRUPPO MISURE ELETTRICHE
ED ELETTRONICHE
EDITORIALE
Buone feste (compatibilmente)!
IL TEMA:
IL FUTURO DELLE MISURE
Intervista ai Presidenti GMEE e GMMT
ISSN 2038-6974 - Poste Italiane s.p.a. - Sped. in Abb. Post. - D.L. 353/2003 (conv. in L. 27/02/2004 n° 46) art. 1, comma 1, NO / Torino - nr 4 - Anno 15 - Dicembre 2013
In caso di mancato recapito, inviare al CMP di Torino R. Romoli per restituzione al mittente, previo pagamento tariffa resi
29-11-2013
TUTTO_MISURE - ANNO 15, N. 04 - 2013
COPER TM 4-2013
ALTRI TEMI
Vibrometri Laser
Metrologia fondamentale:
Incertezza di misura - parte 2
Progetto MisuraInternet - parte 1
ARGOMENTI
Metrologia forense in Italia
Compatibilità elettromagnetica
La norma 17025:
Non conformità - parte IX
AFFIDABILITÀ
& TECNOLOGIA
TUTTO_MISURE
ANNO XV
N. 04 ƒ
2013
IN QUESTO NUMERO
Strumentazione laser per la misura
delle vibrazioni con tecniche
di retro iniezione
Laser instruments
for vibration
measurements
M. Benedetti,
G. Capelli, M. Norgia,
G. Giuliani
263
Progetto MisuraInternet: indicatori
di qualità e architettura
del sistema di misura
The “MisuraInternet”
Project: quality Indicators
and measurement system
architecture
L. Angrisani, F. Flaviano
267
Dalla conformità all’efficacia:
parte 6 – Assicurazione
qualità dei dati
Data quality
assurance
T. Miccoli
287
La metrologia delle radiazioni
ionizzanti
nella radioterapia molecolare
Metrology of ionizinzg radiations in molecular
radiation therapy
M. D’Arienzo,
M. Capogni,
P. De Felice
305
Editoriale: Buone feste (compatibilmente)! (F. Docchio)
245
Comunicazioni, Ricerca e Sviluppo,
dagli Enti e dalle Imprese
Notizie nel campo delle misure e della strumentazione
251
Il tema: Presente e futuro delle misure in Italia
Intervista ai nuovi Presidenti dei Gruppi Universitari
255
di Misure: GMME e GMMT (a cura della Redazione)
Gli altri temi: Misure Ottiche
Strumentazione laser per la misura delle vibrazioni
263
(M. Benedetti, G. Capelli, M. Norgia, G. Giuliani)
Gli altri temi: Misure per le Telecomunicazioni
Progetto MisuraInternet: indicatori di qualità e architettura
267
del sistema di misura (L. Angrisani, F. Flaviano)
Gli altri temi: Metrologia fondamentale
Incertezza di misura: teoria coerente o edificio da ricostruire?
Parte 2: due approcci rivali (N. Giaquinto)
271
Campi e compatibilità elettromagnetica
Strumentazione di base nelle misure di CEM:
Modello del Circuito Equivalente del Generatore di Impulsi
Combinato 1,2/50 – 8/20 µs secondo la futura norma IEC
61000-4-5 ed. 3 (C. Carobbi, A. Bonci, M. Cati)
277
I Seriali di T_M: Misure e Fidatezza
Tecniche di analisi della fidatezza: FMEA Failure Modes and Effects Analysis
(M. Catelani, L. Cristaldi, M. Lazzaroni)
281
I Seriali di T_M: Conformità ed Efficacia
Dalla conformità all’efficacia: Parte 6
Assicurazione qualità dei dati (T. Miccoli)
287
Le Rubriche di T_M: Lettere al Direttore
La Misura del consumo di suolo in Italia: ovvero
“La misura dell’autolesionismo”...? (a cura di F. Docchio)
293
Le Rubriche di T_M: Metrologia legale
La Metrologia Forense in Italia (V. Scotti)
295
La realizzazione del Mercato Unico (M.C. Sestini)
297
Spazio Associazioni Universitarie di Misuristi
Dalle Associazioni Universitarie di Misuristi
299
Spazio delle altre Associazioni
Notizie dalle altre Associazioni
303
Lo Spazio degli IMP
La metrologia delle radiazioni ionizzanti nella radioterapia
molecolare (M. D’Arienzo, M. Capogni, P. De Felice)
305
Manifestazioni, eventi e formazione
2014: eventi in breve
309
Commenti alle norme: la 17025
Non conformità, azioni correttive, azioni preventive,
reclami e miglioramento – Parte nona (N. Dell’Arena)
311
Storia e curiosità
Segnali pneumatici nella metrologia: il TUBO,
grande incompreso (M.F. Tschinke)
313
Misurazioni “particolari”: tartarughe, laser show
317
e windsurf... (a cura della Redazione)
Abbiamo letto per voi
240
News
261-280-284-286-291-294-302-308310-312-315-316-319
T_M
N.
4/13 ƒ 243
NEL MENABÒ HAI SCRITTO NUOVA CORRETTA - DOV É
Franco Docchio
EDITORIALE
■
Buone feste (compatibilmente)!
Happy holidays (if possibile)!
Cari lettori!
Sono in treno sulla linea
Roma-Brescia, di ritorno
dalla sede centrale del
CNR dove, con i maggiori rappresentanti della
Fotonica Italiana, abbiamo dato il via alla costituzione di una Piattaforma Italiana della Fotonica, che rispecchi la Piattaforma Europea Photonics21 per un accesso
più accreditato, strutturato e organizzato alle
“call” di Horizon 2020. Stiamo cercando di
rimediare all’ormai tradizionale abitudine,
tutta italiana, di giocare divisi su tutti i tavoli,
perdendo sistematicamente la partita rispetto
ai Paesi più agguerriti e coesi (e non stiamo
parlando della solita Germania: oggi ci si
mettono anche i Paesi più piccoli, e anche
quelli di più recente annessione alla UE).
Tutto ciò in un assordante silenzio dei nostri
Ministeri (MIUR, MISE), che non appoggiano
le iniziative di ricercatori e imprese con la
loro presenza in Europa.
Richiamo alla vostra attenzione questa iniziativa perché la vedo (fortunatamente) controcorrente, in un’epoca in cui in Italia sembra
proprio che nessuno riesca a stare insieme a
nessun altro: partiti che si scindono, movimenti nuovi e minuscoli che si creano, diaspore, in una frammentazione drammatica
da tutti contro tutti.
Eppure non tutto va male, almeno sul fronte
delle imprese se non su quello politico: nei
giorni scorsi ero in visita a un’impresa storica
di Lumezzane, fornitrice di componenti automotive per tutti i major players italiani ed
europei, e i miei interlocutori mi dicevano che
la produzione va a gonfie vele, con ordinativi fino al 2020 (tranne qualche “piccola” difficoltà a essere pagati dai clienti italiani…), e
che stavano aumentando le isole di lavoro
per far fronte alle esigenze di produzione. Ho
collegato questa esperienza a quanto mi
diceva oggi il più grosso produttore italiano
di strumenti e sistemi laser: “Questo non è un
periodo di crisi… è un periodo di riassesta-
mento: se sei in grado di cogliere il cambiamento e di adeguarti a esso (e in fretta), riparti, altrimenti sei perduto. Non ha senso stare a
guardare aspettando che il peggio sia passato”.
Questo numero “prenatalizio” ha come tema
una chiacchierata con i neopresidenti dei due
maggiori gruppi di ricercatori nel settore delle
misure, i colleghi Dario Petri e Michele Gasparetto. È un’occasione per toccare tutti i principali temi d’interesse per Università e Imprese:
il futuro della Ricerca, le luci e ombre della sua
valutazione, il ruolo dei Dottorati di ricerca e
gli sbocchi dei suoi studenti nelle imprese, lo
“sfinimento” dei nostri colleghi di ogni età,
costretti a occuparsi valutazioni di corsi di studio e qualità di didattica e ricerca (compiti
sacrosanti, per carità, ma in assenza di personale adeguato a supporto…). Buona lettura
e… mi interessano i vostri commenti: se ne
avete, lo spazio delle lettere al Direttore è a
vostra disposizione! Oppure scrivetemi una
mail!
Si stanno scaldando i motori per la prossima
edizione di Affidabilità & Tecnologie, di cui
trovate un’ampia anticipazione nelle prime
pagine del numero. Aprile è alle porte, e le
innovazioni promesse dagli organizzatori dell’evento sono significative. Il numero 1/2014
vi aspetterà all’ingresso della manifestazione!
Con gennaio inizierà il mio quinto anno di
direzione: sembra ieri che ho cominciato ed è
già quasi un lustro. Spero che anche l’anno
prossimo vi avrò come compagni di viaggio:
ancora una volta esprimo il mio desiderio di
avere riscontri da voi, su come migliorare la
rivista e renderla più gradevole e degna di
essere letta. Scrivete a me o all’editore: faremo
tesoro dei vostri suggerimenti e delle vostre critiche.
E, soprattutto, anche per quest’anno un fervido
augurio di serene festività (compatibilmente
con le difficoltà, i dubbi e le incertezze di questi tempi) da parte della Proprietà, dell’Editore,
e mia personale.
Franco Docchio
T_M
N.
4/13 ƒ 245
La manifestazione specialistica n° 1 in Italia:
Soluzioni Innovative o non Convenzionali
concretamente applicabili per la crescita aziendale
I protagonisti dell’Innovazione Competitiva in ambito manifatturiero
si danno appuntamento all’ottava edizione di AFFIDABILITÀ & TECNOLOGIE
(Torino, 16/17 aprile 2014)
3 aree specialistiche
■
■
■
Progettazione
Produzione
Testing e Metrologia
5 zone speciali
Z1: Testing - Banchi prova - Acquisizione dati - Sensori
Z2: Metrologia - Prove di laboratorio - Caratterizzazione materiali - Taratura
Z3: Robot - Visione artificiale - Tracciabilità - Controlli in produzione - Manutenzione
Z4: Lavorazioni materiali speciali - Trattamenti speciali
Z5: Simulazione - Fabbricazione additiva - CAD/CAM/CAE - Analisi e calcoli
Tecfo®
Tecnologie Fotoniche, Sensori e Sorgenti laser
Seconda edizione 16-17 aprile 2014, evento collegato con A&T 2014
Dopo il successo della scorsa edizione 2013, TecFo cresce ulteriormente e dedica ampio spazio alle tecnologie fotoniche,
sempre più utilizzate nell’industria e nella ricerca per affrontare le attuali sfide tecnologiche.
Tra le novità da segnalare, è prevista una forte crescita espositiva di sensori ottici e componentistica, soluzioni e tecnologie di image processing, sorgenti laser. Un focus di particolare attenzione sarà dedicato alle micro lavorazioni e alle saldature speciali, applicazioni funzionali a risolvere le sfide tecnologiche delle filiere industriali automotive, elettronica, aerospazio, robotica, e non solo.
T_M ƒ 247
Le sfide tecnologiche di A&T 2014
www.affidabilita.eu
Filippo Trifiletti, direttore generale
ACCREDIA: I servizi di Certificazione, Prova, Taratura sono
strumenti sempre più fondamentali nel percorso di sviluppo di
ogni azienda proiettata verso l’Innovazione Competitiva.
Accredia parteciperà alla prossima edizione di A&T in modo
ancora più attivo rispetto alle precedenti edizioni, che anno
dopo anno hanno visto la crescita della manifestazione e,
nello stesso tempo, il consolidamento della presenza dell’Ente quale partner organizzativo nell’ambito delle specifiche
tematiche d’interesse: stiamo preparando sia un grande convegno sul “valore dei servizi di certificazione per le imprese
innovative” e un importante programma di eventi dedicati alla
taratura strumenti e alla caratterizzazione dei materiali, sia
una postazione espositiva in grado di offrire non soltanto informazioni, bensì un vero e proprio “sportello” nel quale autorevoli esperti saranno a disposizione dei visitatori interessati a
sottoporre specifici quesiti inerenti ai temi citati.
HBM ITALIA: La
prossima edizione ci
vedrà presenti con
molte novità, tra le
quali hardware e
software di acquisizione e gestione dati, le soluzioni nCode
di virtual testing, le
nostre tecnologie di
analisi sperimentale
delle sollecitazioni e
l’ampia gamma di
estensimetri,
da
quelli tradizionali a
quelli in fibra ottica
di ultima generazione. Nel controllo dei
processi produttivi,
ambito nel quale siamo leader mondiali, proporremo soluzioni tecnologiche che garantiscono zero difetti, miglioramento dell’efficienza di produzione, alta qualità e tempi di
passaggio ridotti, prove di qualità al 100% senza incrementare il tempo del ciclo di produzione. Esporremo, ad
esempio, la catena di misura completa per monitorare
macchinari di vario tipo e in diverse applicazioni, così
come innovative soluzioni per la misurazione della coppia
torcente, grandezza di misura particolarmente importante
(ad esempio, nei banchi prova automobilistici, nelle
costruzioni navali, nell’industria dell’energia eolica e nel
controllo dei processi industriali) e, infine, le soluzioni
eDrive per le prove, per il miglioramento del rendimento
dei veicoli a trazione elettrica.
T_M ƒ 248
HEXAGON METROLOGY: La società, appartenente al gruppo Hexagon, presenterà ad A&T 2014 le più recenti innovative soluzioni di misura, frutto di un tradizionale impegno nell’ambito di importanti progetti di ricerca, dedicati principalmente ai settori automobilistico e aeronautico, volti a integrare sensori di misura di elevata efficienza e precisione su robot
industriali tradizionalmente utilizzati per operazioni di assemblaggio e manipolazione. I metodi e le tecnologie sviluppate
per il rilievo dimensionale sono tali da ovviare alla naturale
incompatibilità alle operazioni di misura dei robot industriali,
causata dalla loro insufficiente accuratezza di posizionamento e movimentazione. I sensori utilizzati, principalmente scanner laser ad alta velocità di acquisizione e sistemi fotogrammetrici a luce bianca, consentono il rilievo di grandissime
quantità di punti in tempi estremamente brevi e l’immediata
verifica rispetto al modello matematico del pezzo.
KISTLER ITALIA: Partecipiamo ad A&T sin dalla prima edizione, l’abbiamo vista crescere costantemente nel tempo e ci
fa piacere che questa manifestazione sia diventata l’evento di
riferimento in Italia, sia per i fornitori sia per i fruitori di strumentazioni e tecnologie dedicate al Testing. Le novità proposte con entusiasmo dagli organizzatori, (che hanno scelto di
utilizzare un nuovo padiglione, più grande del 50% rispetto
alla scorsa edizione e con 5 Zone Speciali) ci hanno positivamente impressionato e quindi abbiamo optato per una
postazione centrale, situata nella Zona Speciale dedicata al
Testing, zona dove presumibilmente si collocheranno anche
altre Società leader del settore. Porteremo in fiera le nostre
più innovative tecnologie e strumentazioni, confermando la
nostra posizione di leader nei sistemi piezoelettrici e nei
Le sfide tecnologiche di A&T 2014
www.affidabilita.eu
sistemi di misura dinamica, prestando come sempre grande
attenzione alle esigenze dei clienti più esigenti (automotive,
aerospazio, meccatronica, stampaggio plastica).
KEYENCE:
La
caratterizzazione
dei materiali e
delle prove è
sempre più strategica nel contesto
del processo produttivo e rappresenterà uno dei
focus principali di
A&T 2014. Un
progetto di cui Centro Ricerche Fiat/Group Materials Labs
vuole essere parte attiva, non solo portando il contributo
della propria innovativa esperienza in quest’ambito specifico ma anche con un coinvolgimento diretto nel comunicare
efficacemente i dettagli dell’iniziativa durante tutto il suo sviluppo organizzativo, in modo da favorire l’aggregazione di
tutti i possibili interlocutori e consentire loro di conoscere le
opportunità di fare network e di crescere. Credendo fortemente nella validità di una piattaforma in cui contenuti innovativi vengano sviluppati, promossi, confrontati e trasferiti,
valorizzando le caratteristiche di distintività e competitività
delle eccellenze italiane.
Grande successo
per il
Main Partners’ Board,
il network di
Affidabilità & Tecnologie
Il MPB è il network portante della manifestazione,
demandato a orientarne la struttura in funzione dei
reali bisogni dell’utenza e a collaborare direttamente al continuo miglioramento contenutistico attraverso la proposta di testimonianze, risultati di progetti
di ricerca, innovazioni tecnologiche e metodologiche, nuovi programmi strategici di sviluppo, ecc.
Obiettivo del MPB: promuovere la cultura dell’Innovazione e il trasferimento tecnologico presso l’industria italiana e nel contempo creare sinergie tra
gli stessi membri del Board. Criteri di appartenenza: primarie aziende che investono in R&D (ad
esempio: appartenenti a Cluster Tecnologici Nazionali, Poli dell’Innovazione, ecc.), Centri di Ricerca e
Università, primari produttori di tecnologie e sistemi
innovativi.
Daniele Bisi, Group Material Labs,
Lab NDT CENTRO RICERCHE FIAT
CENTRO RICERCHE FIAT: La caratterizzazione dei materiali e delle prove è
sempre più strategica nel contesto del
processo produttivo e rappresenterà uno
dei focus principali di A&T 2014. Un progetto di cui Centro Ricerche Fiat/Group
Materials Labs vuole essere parte attiva,
non solo portando il contributo della propria innovativa esperienza in quest’ambito specifico ma anche con un coinvolgimento diretto nel comunicare efficacemente i dettagli dell’iniziativa durante tutto il suo sviluppo organizzativo, in modo da
favorire l’aggregazione di tutti i possibili interlocutori e consentire loro di conoscere le opportunità di fare network e di crescere. Credendo fortemente nella validità di una piattaforma in
cui contenuti innovativi vengano sviluppati, promossi, confrontati e trasferiti, valorizzando le caratteristiche di distintività e
competitività delle eccellenze italiane.
A&Tnews: l’house-organ
di Affidabilità & Tecnologie
È il principale strumento informativo sulle attività della Manifestazione, dal progetto iniziale
fino alla sua realizzazione finale, e ospita
articoli e interviste ai
Membri del MPB, ai
relatori dei convegni,
alle società espositrici
fornitrici di tecnologie,
servizi o strumenti.
Attraverso una distribuzione mensile massiva e mirata, che
impiega vari importanti strumenti, il magazine è un appuntamento periodico di rilevanza strategica inter-istituzionale (imprese, università, enti di ricerca, istituzioni) e valenza inter-disciplinare, finalizzato a favorire
l’integrazione fra industria, ricerca, formazione, innovazione.
Decisori aziendali, operatori industriali e ricercatori saranno costantemente informati sui contenuti della manifestazione fieristica A&T 2014, sulle novità presentate
dalle Aziende, sui nuovi progetti di Ricerca.
Per ricevere gratuitamente il magazine nella vostra casella
di posta elettronica, basta inviare richiesta a:
[email protected]
T_M ƒ 249
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
▲
La Redazione di Tutto_Misure ([email protected])
Notizie nel campo delle misure
e della strumentazione
dell’Università degli Studi di Perugia e
dell’Università di Oulu (Finlandia), è
stato sponsorizzato dalla IEEE Sezione Italia, dalla IEEE Instrumentation &
Measurement Society, dai Chapter Italiani della IEEE I&M Society e del IEEE
Systems Council, e naturalmente dalle
due Università.
L’obiettivo del workshop è stato quello
di riunire scienziati di livello internazionale, che, confrontandosi, hanno
discusso lo stato dell’arte dei TDC in
tutti gli aspetti che vanno da quello
realizzativo a quello di modellizzazione numerico-matematica. Il convegno, presieduto dal Prof. Paolo Carbone dell’Università degli Studi di Perugia e dal Prof. Timo Erkki Rahkonen
dell’Università di Oulu (Finlandia) si è
rivelato un buon momento d’incontro
per i partecipanti, consentendo un
proficuo scambio d’idee e la presentazione di risultati scientifici innovativi
sulle architetture dei TDC e le relative
applicazioni.
NEWS IN MEASUREMENT AND INSTRUMENTATION
This section contains an overview of the most significant news from Italian
R&D groups, associations and industries, in the field of measurement science
and instrumentation, at both theoretical and applied levels.
RIASSUNTO
L’articolo contiene una panoramica delle principali notizie riguardanti risultati scientifici, collaborazioni, eventi, Start-up, dei Gruppi di R&S Italiani nel
campo della scienza delle misure e della strumentazione, a livello sia teorico che applicato. Le industrie sono i primi destinatari di queste notizie,
poiché i risultati di ricerca riportati possono costituire stimolo per attività di
Trasferimento Tecnologico.
CONVEGNI DI MISURE
E METROLOGIA
energie, si è rivelata un fattore abilitante per varie applicazioni commerciali, scientifiche e industriali, anche
Il Nordic Mediterranean Work- in virtù della comparsa sul mercato di
shop (IEEE NoMe TDC 2013) sui chip TDC integrati dal costo contenuconvertitori Tempo-Digitali
to. I campi di utilizzo dei TDC incluGuido De Angelis, Alessio De Angelis, dono ad esempio, oltre alla fisica
Antonio Moschitta e Paolo Carbone, delle alte energie, i sistemi di posizioUniversità degli Studi di Perugia, Di- namento, di monitoraggio ambientapartimento di Ingegneria Elettronica e le, e di elaborazione delle immagini,
dell’Informazione
con applicazioni anche in
ambito biomedicale e
automotive. Tale contesto ha stimolato negli
ultimi anni una crescente attività di ricerca,
testimoniata dal grafico
di Fig. 1, incentrata sullo sviluppo di nuove architetture efficienti, in
grado di garantire prestazioni metrologiche
elevate contenendo al
Figura 1 – Articoli pubblicati sui convertitori
tempo stesso l’utilizzo
tempo-digitali dal 1969 a oggi (fonte: database
di area del chip.
Scopus, chiave di ricerca: “time-to-digital”)
Il Workshop IEEE
NoMe TDC 2013
Il convertitore tempo-digitale (Time to (IEEE International Nordic-MediterraDigital Converter, TDC) è un dispositi- nean Workshop on Time-to-Digital
vo in grado di fornire la rappresenta- Converters), tenutosi a Perugia il 3
zione numerica della durata di un in- ottobre 2013, è il primo evento intetervallo, delimitato da due eventi. Tale ramente centrato sul tema della concapacità, sviluppata originariamente versione tempo-digitale. L’evento, coper applicazioni di fisica delle alte organizzato da due gruppi di ricerca
I partecipanti al IEEE NoMe TDC 2013!
T_M
Il programma del workshop è stato
organizzato in tre sezioni, rispettivamente dedicate alla progettazione,
alle applicazioni, e alle attività di modellazione e caratterizzazione dei
TDC.
Le attività di misurazione, pur al mo-
N.
4/13 ƒ 251
N. 04ƒ
; 2013
▲
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
mento non standardizzate, si sono rivelate un tema di notevole importanza.
È emersa infatti una rilevante attività
sperimentale, volta a validare le architetture proposte e realizzate, estrinsecata in diverse procedure di misura.
In particolare, sono stati presentati
approcci orientati alla valutazione
della accuratezza, dei consumi energetici, della frequenza di misurazione,
e dell’efficienza nell’utilizzo dell’area a
disposizione. Ulteriori informazioni
sono reperibili nel sito internet del
workshop, all’indirizzo http://www.
nometdc2013.unipg.it/.
Abbiamo più volte evidenziato quanto, per la sicurezza in auto, la corretta pressione di gonfiaggio degli pneumatici rappresenti un fattore fondamentale. A volte però verificarne il
valore non basta, in quanto gli strumenti potrebbero fornire un valore
erroneo se tarati male.
E purtroppo questa è una grande realtà nelle aree di servizio pubbliche.
esaminate, i manometri sono o non
funzionanti o completamente indisponibili, mentre in 10 punti sono stati trovati sotto chiave. In 3 aree di servizio
è necessario pagare un euro per effettuare il controllo della pressione dei
pneumatici, e addirittura nella Capitale, in viale Marconi, per effettuare la
stessa operazione vengono richiesti
due euro.
(Fonte: SicurAUTO.it)
ENTI E ISTITUZIONI
I.N.Ri.M. – Premio Impact di
EURAMET ad Andrea Merlone
DALLE IMPRESE
Antares Vision di Brescia:
importante riconoscimento
La Società Antares Vision
srl di Brescia,
degli Ingg. Bonardi e Zorzella,
è stata selezionata per rappresentare l’Italia come Campione Nazionale nel
prestigioso “Innovation Awards programme” di Business Awards Europe.
Antares Vision ha sbaragliato una
agguerrita concorrenza ed è stata
selezionata come uno dei 50 Campioni Nazionali. Concorrerà ora per
lo status di Ruban d’Honneur nella
fase finale della competizione. I vincitori saranno proclamati nell’Aprile
2014.
Antares Vision srl (ex Semtec srl) è la
prima società di Startup del Laboratorio di Optoelettronica dell’Università
di Brescia, e produce sistemi sofisticati di visione industriale per applicazioni al mondo dell’ispezione farmaceutica e agroalimentare.
www.antaresvision.com
SicurAUTO – Pressione dei
pneumatici: 9 manometri su 10
segnano il valore sbagliato
Nove stazioni di servizio su dieci in
Italia sono dotate di manometri tarati
male. A rilevarlo è stata un’indagine
condotta da SicurAUTO che ha esaminato 298 stazioni di servizio.
T_M ƒ 252
Nove manometri su dieci nelle stazioni urbane, extraurbane e autostradali
italiane non funzionano, o presentano
comunque un grande margine di errore.
È quanto ha fatto emergere un’indagine condotta da SicurAUTO.it e dall’Automobile Club d’Italia in collaborazione con Goodyear-Dunlop Italia e
Wonder spa sui manometri utilizzati
per misurare la pressioni degli pneumatici.
Su un totale di 298 dispositivi esaminati – nell’arco di 3.051 chilometri di
viaggio – è emerso che il 39% di questi lascia gli pneumatici sgonfi pur
indicando una pressione conforme a
quella indicata sul libretto di manutenzione dell’auto, mentre il 36% li gonfia più del dovuto. Solo il 10% del
campione esaminato è preciso e affidabile.
La maggior concentrazione di dispositivi tarati male si registra al Centro
Italia (86,5%) e al Sud (75,8%). In
Campania è stato trovato un manometro il cui errore di misurazione è
stato pari a –1,95 bar, mentre nel
Lazio un altro è stato trovato in errore
pari di +1,2 bar e la scorretta taratura media italiana è invece risultata
essere pari a 0,3 bar.
L’indagine congiunta di SicurAUTO.it
e dell’ACI, in collaborazione con
Goodyear-Dunlop Italia e Wonder
spa, ha inoltre messo in evidenza
anche altre assurdità: in 47 stazioni
di servizio, ovvero il 16% di quelle
Andrea Merlone, Coordinatore del
Progetto di Ricerca Congiunto of
EMRP Joint Research Project “Metrology for pressure, temperature, humidity and airspeed in the atmosphere”
(MeteoMet), nonché Ricercatore Senior all’I.N.Ri.M., è risultato vincitore
del Premio Impact dell’EURAMET per
il 2013.
Dal sito EURAMET: “… Metrologia e
meteorologia sono due termini spesso
confusi. Il primo riguarda la scienza
delle misure, il secondo lo studio dell’atmosfera. Il Progetto MeteoMet riunisce oggi queste due discipline per
fornire misure più accurate di temperatura, pressione, umidità e velocità
dell’aria, che sono vitali per la migliore comprensione del tempo e del clima terrestri”.
Joörn Stenger, Vice Presidente EURAMET (EMRP), ha così spiegato l’attribuzione del premio: “Fin dall’inizio
Andrea ha integrato competenze da
tutta Europa, e le ha combinate con
stakeholders chiave, quali la World
Meteorological Organization (WMO).
Ha compiuto un significativo passo
nell’aumentare il valore aggiunto e
un’accresciuta visibilità mediante la
N. 04ƒ
;2013
ACCREDIA
È stato pubblicato il materiale didattico presentato in occasione degli
incontri annuali di ACCREDIA con i
Laboratori di prova accreditati, che si
sono svolti a Verona e a Roma nel
mese di ottobre 2013.
www.accredia.it/extsearch_
press.jsp?area=6&ID_LINK=
100&page=88&IDCTX=3908&id_
context=3908
Nuovo gruppo di Discussione
“Tutto_Misure” su LinkedIn
Facendo seguito a iniziative divulgative quali la Pagina Facebook di T_M,
nei giorni scorsi è stato aperto il
nuovo Gruppo di Discussione LinkedIn
“Tutto_Misure”.
Il Gruppo offre a tutti i partecipanti
al Network sociale professionale LinkedIn un’occasione per discutere su
questioni che riguardano Misure,
Università, Imprese, Trasferimento
Tecnologico, e tanti altri argomenti.
Contribuite!
Storia e formazione
nelle misure – Riapre
il laboratorio di scienze
della Scuola di Cossignano
(AP). Vecchi strumenti
che tornano a dare valore
a giovani generazioni
di aspiranti scienziati!
Riceviamo dal collaboratore e simpatizzante GMEE Oronzo Mauro:
Le scuole di Cossignano (AP) vantano
una lunga storia radicata al primo
quarto del ’900, come testimoniato
dai registri scolastici datati a partire
dal 1924 custoditi presso l’archivio
storico dell’Istituto Comprensivo Statale di Ripatransone. La scuola, nel
corso degli ultimi anni, a seguito del
calo demografico e delle necessità di
sinergie tra piccole scuole, ha perso
la scuola secondaria, migrata presso
l’ISC di Ripatransone.
A prescindere dagli accadimenti certe
volte inesorabili, il corpo docente e la
scuola di Cossignano presentano sempre uno spiccato interesse verso la
scienza e la tecnologia come testimoniato dai vari cartelloni didattici ove
sono relazionate le attività fatte in
▲
ricerca metrologica congiunta, sotto
l’EMRP. Ciò, unitamente al suo entusiasmo personale, è veramente degno
di nota”.
Leggi il documento esteso su:
www.inrim.it/events/docs/
2013/EURAMET_NL_08_JUL_
2013_web.pdf
A nome della Redazione, ci complimentiamo con il Dott. Merlone, collaboratore della nostra Rivista, per l’importante premio ricevuto!
COMUNICAZIONI, RICERCA E SVILUPPO
DA ENTI E IMPRESE
occasione di eventi divulgativi provinciali a carattere scientifico. In virtù di
questa positiva inclinazione, nel corso
del mese di ottobre del 2013 è stato
restaurato il laboratorio di Scienze
della scuola. Il curatore del restauro è
l’Ing. Oronzo Mauro, esperto di didattica scientifica e membro di numerosi società scientifiche volte al recupero del patrimonio scientifico e tecnologico. È stato cruciale il contributo
apportato dalla dirigente, Prof.ssa
Laura D’Ignazi e dal locale personale
docente e non docente della Scuola di
Cossignano.
Il programma di rinnovamento del
laboratorio di Scienze ha trascinato
positivamente una rivisitazione del
laboratorio multimediale, della biblioteca e della sala d’informatica. Al momento, il disegno degli spazi è molto
più consistente e funzionale. L’amministrazione comunale di Cossignano ha fornito un valido contributo operativo.
Il laboratorio della Scuola primaria di
Cossignano, all’origine basato sulla
dotazione “il Piccolo Leonardo” della
Paravia risalente agli anni ’60, nel
suo piccolo, viste le notevoli dispersioni di materiali avvenute negli anni,
rappresenta uno strumento molto
potente per i docenti.
Gli ambiti coperti nel laboratorio permettono al ragazzo di esplorare una
vasta serie di aspetti delle scienze
sperimentali. Un microscopio ZIEL
semiprofessionale permette osservazioni di grande efficacia, una bella
T_M ƒ 253
N. 04ƒ
; 2013
raccolta di conchiglie provenienti da diversi siti stimola
lo scolaro più giovani verso le varietà dell’ecosistema
marino, di contro una bella e vasta raccolta di fossili
provenienti da Smerillo completa la sezione malacologica anche con aspetti legati agli ecosistemi più antichi.
Piccoli assaggi di fisica nelle sezioni di ottica, meccanica, elettrostatica, pressione atmosferica e termologia
fanno apprezzare al giovane studente le meraviglie di
una disciplina che non tarderà a regalare forti soddisfazioni con studi superiori successivi alle esperienze della
primaria.
Il fascino della chimica è trasmesso grazie a una piccola serie di vetrerie, elementi chimici, pila a tazze di
Volta e un apparato per la galvanostegia. Una piccola
sezione, al momento costituita da un computer e un
vecchio telefono, vuole essere una sorta di “come è fatto”; infatti, le macchine, che appaiano solitamente come scatole chiuse, sono completamente smembrate
così da apprezzare bene la complessità che si cela al
loro interno.
Non viene tralasciato lo studio del corpo umano grazie
alla presenza di un bel torso corredato di organi smontabili; un modello di orecchio permette di esplorare la
magia e la complessità dell’organo dell’udito.
Non dimentichiamo che la Scuola primaria deve dare
contezza del sistema metrico decimale introdotto in
Italia a seguito dell’Unità d’Italia nel 1861; in tal
senso il laboratorio offre una bella bilancia Rosenthal,
pesi metrici, capacità di vario genere, cubo campione. Il curriculum scolastico, inoltre, prevede la dimestichezza con i solidi generici che non mancano nel laboratorio; infatti ci sono solidi per lo studio delle capacità equivalenti, solidi scomponibili e solidi di rotazione.
Il laboratorio di Scienze della Scuola di Cossignano è
un piccolo gioiellino che incuriosisce l’adulto e il bambino. Permette al docente di plasmare il curriculum dello
studente anche grazie al benefico contributo offerto
dalle attività sperimentali.
Il laboratorio è parte della Science MuseoLAB network,
ossia la rete, al momento basata su Ripatransone,
Montefiore dell’Aso e Porto San Giorgio, grazie alla
quale si vuole realizzare un’efficace sinergia tra le
scuole nell’insegnamento delle scienze sperimentali. Il
Science MuseoLAB opera attraverso il restauro dei
laboratori come piattaforme abilitanti i docenti nel
costruire moduli formativi specifici e rilevanti per il curriculum scolastico.
Come visitare il laboratorio:
• Scuola Primaria Cossignano,
via Via Gaetano Passali, 63030 Cossignano AP
• Dalle 9.00 alle 12.00,
previo appuntamento
via appuntamento telefonico (0735/98138)
o via mail [email protected]
T_M ƒ 254
▲
PRESENTE E FUTURO DELLE MISURE IN ITALIA
IL
TEMA
a cura della Redazione ([email protected])
Intervista ai nuovi Presidenti dei Gruppi
Universitari di Misure: GMEE e GMMT
Il punto sulla diffusione della Cultura delle Misure
scopo di riunire ricercatori e appassionati di misure in un confronto culturale, assai diverso da quello dei congressi, in cui vengono invitate persone
che possano svolgere e proporre temi
originali aventi sullo sfondo una matrice comune che è proprio quella delle
misure: vi sono stati interventi di filosofi, medici, tecnici di settori anche
ben lontani dall’ingegneria.
Alcuni anni fa il Gruppo Misure EletRIASSUNTO
triche ed Elettroniche ha deciso di
GMEE e GMMT sono due aggregazioni che raggruppano scienziati e ricer- dotarsi di una propria veste legale (i
catori nei settori delle Misure Elettriche ed Elettroniche, e meccaniche e Termi- SSD sono, di per sé, mere aggregache, rispettivamente. I due Gruppi hanno recentemente eletto i loro Presidenti zioni d’individui), che permettesse di
per il prossimo triennio. In questo articolo il Vostro Direttore intervista entrambi fare “massa critica” verso l’esterno, e
i Presidenti, nello sforzo di aumentare la visibilità dei due Gruppi tra i lettori organizzare in modo più incisivo
della Rivista, e di mettere in luce gli aspetti più significativi della promozione eventi come il proprio Convegno Andelle misure nei contesti scientifico, industriale e sociale.
nuale, la Scuola di Dottorato Italo
Gorini, l’erogazione di premi, borse
INTRODUZIONE
t’è che, in un intervento al Convegno di studio per l’estero, ecc. È nata così
di Genova due anni orsono, prenden- l’Associazione GMEE, l’attuale proI Docenti e i Ricercatori Universitari, in do a prestito il nome di un noto grup- prietaria della testata della Rivista
Italia, sono incardinati in quelli che po musicale, ho chiamato i
sono comunemente chiamati “Settori due Gruppi “I Gemelli DiverScientifico-Disciplinari” (SSD): a loro si”. Le differenze, e le aree di
volta i SSD afferiscono ad “Aree” (l’e- sovrapposizione tra i due
sempio che ci interessa qui è l’Area Gruppi, sono evidenti nella
09, o Area dell’Ingegneria Industria- pubblicazione “I misuristi Unile). I SSD che, nell’Area 09, massima- versitari Italiani”, che trovate
mente rappresentano le Misure in Ita- all’indirizzo web: www.
lia sono: il GMEE (Gruppo Misure f r a n c o d o c c h i o . c o m /
Elettriche ed Elettroniche, in codice Documenti/Attivita_GMEE_
ING-INF/07) e il GMMT (Gruppo GMMT.pdf.
Misure Meccaniche e Termiche, È da notare che l’esistenza di
ING-IND/12). In generale, fa piacere gruppi di scienziati e ricercapensare che il primo rappresenti tori che si occupano prevalenl’”anima elettrica-elettronica” delle temente (e dichiaratamente) di
misure, il secondo l’anima “meccani- misure è un aspetto tipicamenco-termica”. I Gruppi svolgono attività te italiano, di cui non si trova
complementari, ma con forti elementi riscontro in altre comunità
in comune che pertengono alla metro- scientifiche. E, per promuovere
logia fondamentale, alla cultura e alla la cultura delle misure, i due
formazione nel campo delle misure e gruppi hanno sempre collabodelle loro applicazioni, oltreché a rato, portando avanti da anni
diverse applicazioni “interdisciplina- un evento significativo che
ri” e trasversali, in cui entrambi i grup- prende il nome di “Giornata
pi sono attivi (per fare un solo esem- della Misurazione”. Tale evenpio, le misure tramite la visione). Tan- to si tiene da anni e ha lo
INTERVIEW TO THE TWO NOVEL CHAIRMEN OF THE MAJOR
MEASUREMENT GROUPS IN ITALY
GMEE and GMMT are two entities, who group together the major University
scientists and researchers in the fields of Electrical and Electronic, and Mechanical and Thermal Measurements respectively. The two Groups have recently
elected their Chairmen for the next three years. In the present article the Director interviews both Chairmen, in an effort to make the two groups better known
among the readers of the Journal, and to highlight the major issues related to
the promotion of measurements in the scientific, industrial and social context.
T_M
N.
4/1
T_M
3 ƒ 255
N. 04ƒ
; 2013
Tutto_Misure che state leggendo (il GMEE esprime lo scrivente Direttore, e il GMMT esprime il Prof. Cigada come
Vicedirettore).
Gli affannati tentativi degli ultimi anni di riformare l’Università (che, come leggerete nel prosieguo, non sempre
seguono, ahimé, schemi logici e lineari) hanno portato il
MIUR a decidere di accorpare Settori Scientifico-Disciplinari poco numerosi ai fini dello svolgimento dei Concorsi
o delle Abilitazioni Nazionali. L’accorpamento tra GMEE
e GMMT ha dunque portato alla nascita del “Macro settore Misure” (per i curiosi, il codice è: 09/E4). A questo
accorpamento è seguita una serie d’iniziative che hanno,
sullo sfondo, un’armonizzazione delle attività dei due
Gruppi. Un effetto reale di questi sforzi è lo svolgimento
congiunto dei rispettivi convegni (con sessioni comuni e
scambi di relatori invitati). Un altro effetto è lo svolgimento contemporaneo delle assemblee, che quest’anno, al
Convegno di Trento, hanno portato all’elezione dei Presidenti dei due gruppi per i prossimi anni.
Tutto_Misure, in un mai esaurito sforzo di avvicinare il
mondo Universitario al mondo delle Imprese, ha partecipato a entrambe le assemblee per offrire ai lettori un quadro di prospettiva delle misure in Italia. Offre quindi le
testimonianze dei due Presidenti Eletti dei due Gruppi: il
Prof. Michele Gasparetto, Ordinario di Misure Meccaniche e Termiche del Politecnico di Milano, per il
GMMT (primo a rispondere per dovere di ospitalità), e il
Prof. Dario Petri, Ordinario di misure Elettriche ed Elettroniche dell’Università di Trento, per il GMEE. Dalle
risposte che seguono, emerge un quadro di prospettiva
delle misure in Italia e della loro importanza nel contesto
scientifico, economico e sociale, nonché del desiderio di
potenziare le sinergie tra Università e Imprese nonostante
i tempi non certo favorevoli sotto i profili economico-finanziario e istituzionale.
T_M: Professori Michele Gasparetto e Dario
Petri, siete stati eletti Presidenti di due prestigiose Associazioni di Ricercatori Universitari nel
settore delle Misure (GMMT e GMEE rispettivamente). Quali sono le vostre strategie per la
promozione della cultura della misura in ambito Universitario e Industriale?
Gasparetto – Lo scorso 11 settembre, l’Assemblea dei ricercatori e professori universitari di Misure Meccaniche e Termiche mi ha riconfermato
presidente del Gruppo per il prossimo
triennio malgrado la mia relazione
non proprio rosea sulle prospettive di
sviluppo della nostra Università e,
conseguentemente, degli insegnamenti e della ricerca nelle misure.
La mia oramai più che quarantennale conoscenza della
vita universitaria me ne ha fatte vedere di tutti i colori:
N. 04ƒ
;2013
rare e a combattere sarà da guida
per la progettazione e realizzazione
delle future azioni dei Presidenti dei
due Gruppi nazionali di Misure.
La prima azione sarà quella di ribadire, anche se a scapito del miglioramento dei parametri che regolano le
carriere e i finanziamenti universitari,
che il nostro futuro, la nostra credibilità, la nostra solidità morale, risiedono
nel perseguimento della qualità. Qualità dell’insegnamento, con il continuo
aggiornamento tematico e con l’utilizzo intensivo dei laboratori sperimentali, qualità della ricerca, con la verifica scrupolosa dei risultati teorici e
sperimentali prima della loro pubblicazione, qualità del trasferimento tecnologico, con l’utilizzo rigoroso della
strumentazione e delle metodologie
strettamente necessarie per risolvere
le problematiche proposteci dai partner industriali.
Il compito non sarà facile, la disseminazione della cultura delle misure nell’Università si scontra con la scarsità
delle risorse, con i lacci e laccioli
imposti dalle circolari ministeriali tese
a perseguire una supposta razionalizzazione dell’offerta formativa. La disseminazione della cultura delle misure
nelle aziende non sarà facile anche
per la presenza di oggettive problematiche finanziarie-gestionali che rendono difficile l’attivazione di collaborazioni onerose con le Università
soprattutto per le piccole e medie
aziende che hanno difficoltà a dedicare risorse e personale tecnico di
qualità alla collaborazione per lo sviluppo di nuovi prodotti, per la certificazione, per l’evoluzione delle procedure.
Petri – Per quanto
riguarda la promozione della cultura
della misura e lo
stato dell’Università italiana non
posso che allinearmi a quanto ha
già esposto il collega Gasparetto: l’entusiasmo e la
competenza dei colleghi sono elementi essenziali per continuare ad
accrescere e a trasferire conoscenza,
specialmente in questo periodo di
▲
blocchi decennali delle carriere, previsioni triennali, con cadenza annuale, dei concorsi divenute due concorsi
distanziati di cinque anni, invenzioni
di “nuove figure universitarie sulla falsariga di quanto avviene nel mondo”
divenute occasione per ritardare di
anni l’età d’immissione nei ruoli, per
impedire alla maggior parte dei ricercatori di raggiungere i massimi livelli
previsti delle carriere. Questa esperienza non mi permettere di trovare
nelle attuali vicende universitarie qualche cosa di nuovo, ma anzi vi vedo
una conferma delle vecchie, cattive,
procedure: è stata indetta una procedura riformata, l’ennesima, per i concorsi col risultato di bloccare tutto dal
giugno 2008 e si accettano scommesse se i primi vincitori con le nuove
procedure potranno prendere servizio
sei anni dopo, ovvero entro giugno
2014; sono state diramate norme di
“qualità degli studi universitari” impartendo una serie di regole fra di loro incompatibili e quindi irrealizzabili, ad esempio le classi nelle lauree
magistrali dovrebbero avere numerosità massima di 80 allievi ma, se così
fosse, sarebbero drasticamente diminuiti i finanziamenti provocando quindi la chiusura delle stesse lauree; le
regole sulla “sicurezza nelle Università” impongono tali e tanti vincoli e
procedure burocratiche da rendere
problematico lo svolgimento di esercitazioni sperimentali in laboratorio,
impossibili, se non a rischio e pericolo dei docenti, le visite ad aziende e
laboratori esterni; e l’elenco potrebbe
continuare parlando delle procedure
previste per i concorsi, per l’accreditamento dei corsi di studio, per la certificazione della qualità della ricerca,
per l’attivazione o mantenimento dei
corsi di dottorato di ricerca, ecc.
Nonostante questo contesto drammatico però, ci sono ancora docenti, o
aspiranti docenti, che credono nella
loro missione di educatori, che continuano a lavorare per accrescere la
conoscenza, per trasferire a partner
esterni, nel nostro caso industriali, le
metodologie e le procedure che li aiutino a risultare vincitori nella competizione internazionale. Proprio lo stimolo dei Colleghi che continuano a lavo-
IL
TEMA
grandi difficoltà socio-economiche.
Prima d’illustrare le strategie per promuovere la cultura della misura che
discuteremo nelle prossime riunioni
del Consiglio direttivo del GMEE,
desidero però soffermarmi a riflettere
sul perché questa cultura è importante
e a chi può importare. Basta riflettere
un po’ sulle attività che svolgiamo o
che vediamo svolgere tutti i giorni per
verificare quanto le misure siano
ormai applicate in tutti i domini dell’attività umana, quanto siano essenziali per promuovere uno sviluppo
giusto ed efficiente della cosiddetta
società della conoscenza. Le misure
sono infatti un fondamentale fattore
abilitante per l’innovazione tecnologica e il progresso in molti settori d’importanza vitale, come i trasporti, le
tecnologie dell’informazione, l’energia, l’impatto ambientale, il clima, l’agricoltura, le industrie alimentari, le
industrie chimiche, le industrie farmaceutiche, le nanotecnologie, la medicina, la salute e la sicurezza, tanto
per citarne alcune.
Ma l’impatto delle misure non si ferma
agli ambiti più prettamente tecnologici. Si stima infatti che l’80% di tutte le
transazioni commerciali richiedano la
definizione di standard e l’esecuzione
di misurazioni. Le misure stanno inoltre assumendo un rilievo sempre maggiore anche in ambito biomedicale,
dove concetti quali incertezza e riferibilità sono purtroppo ancora patrimonio di pochi, con conseguenze non di
rado disastrose per la salute delle persone e i bilanci del Servizio sanitario
nazionale. Anche in ambito forense le
misure stanno assumendo un ruolo
sempre più cruciale. Cosa dire poi
della tanto auspicata (e ben poco
applicata) meritocrazia, caratteristica
essenziale per lo sviluppo di una
società esposta alla competizione globale: si ritiene possibile parlare seriamente di meritocrazia senza definirne
in modo oggettivo le caratteristiche
più rilevanti e senza misurarle?
È quindi evidente che un’adeguata cultura metrologica deve essere patrimonio di tutti. In una società complessa
come quella attuale, tutti dovrebbero
conoscere almeno i fondamenti della
scienza della misurazione, avere la
T_M ƒ 257
capacità d’impostare ed eseguire correttamente una semplice misurazione,
essere in grado d’interpretare correttamente l’informazione ottenuta. Considero inoltre parte essenziale della cultura metrologica la capacità di descrivere in modo formale (ossia di modellare) il mondo che ci circonda: non si
può misurare senza prima avere definito un modello che possa descrivere il
misurando in modo appropriato per
gli scopi prefissati.
La cultura metrologica, pertanto, non
è solo un ambito di studio universitario o un insieme di conoscenze di pertinenza dei professionisti, ma è piuttosto un fondamentale fattore di sviluppo per l’intera Società. Purtroppo,
forse a causa della sua trasversalità,
nei percorsi formativi di ogni livello le
misure sono di fatto considerate la
Cenerentola delle discipline. Ne consegue che la cultura metrologica non
T_M ƒ 258
N. 04ƒ
; 2013
▲
IL
TEMA
è una parte significativa del bagaglio
culturale dell’uomo della strada e neppure del professionista medio.
Veniamo ora al cuore della domanda
posta dall’intervistatore: come promuovere la cultura della misura?
Penso che sia innanzitutto necessario
mostrare a tutti (studenti di ogni livello
e percorso formativo, professionisti e
cittadini) il valore essenziale che questa cultura riveste nella società moderna, anche attraverso esempi o aneddoti che mostrino i disastri che la
mancanza di un’adeguata cultura metrologica produce quotidianamente.
Nel contempo la comunità scientifica
che opera nel settore potrebbe favorire la disseminazione della conoscenza dei fondamenti della misurazione,
anche utilizzando i nuovi supporti
informatici, le social network, seminari ad hoc, oppure producendo testi
divulgativi snelli.
L’attuale carenza di risorse può ostacolare non poco la realizzazione di
questa strategia, ma confido che l’entusiasmo, la competenza e la disponibilità di molti colleghi del GMEE e del
settore MMT possano supplire almeno
in parte a questa carenza.
T_M – Qual è, secondo voi, la
visibilità della vostra Associazione da parte delle imprese? E
quali le modalità operative per
migliorare, se necessario, questa visibilità?
Gasparetto – La situazione storica
dei Gruppi disciplinari di Misure elettriche ed elettroniche e di Misure meccaniche e termiche è fortemente diversa: le Misure elettriche hanno una
indipendenza disciplinare nata già
subito dopo la seconda guerra mon-
N. 04ƒ
;2013
possa rappresentare una piattaforma
da cui avviare attività più strutturate.
Per rispondere in modo efficace alla
competizione globale e uscire definitivamente da questa fase di recessione
occorre infatti attuare iniziative di
sistema ambiziose e di valore. Quello
che ci manca per fare questo non è la
qualità delle risorse umane (che è
molto elevata, sia nell’Industria, sia
all’Università), ma la capacità di lavorare insieme. Nella nostra cultura,
infatti, l’Università era storicamente
focalizzata sulla produzione e sulla
disseminazione della conoscenza fine
a se stessa, mentre le Imprese miravano a competere sui mercati internazionali puntando più sulla svalutazione della valuta nazionale che sull’innovazione. Entrambi questi modelli
non funzionano più, ed è quindi imperativo un cambio di paradigma.
Questo cambiamento non è certo facile, né immediato, ma è comunque necessario.
Per quanto riguarda il GMEE, in particolare, auspico che alle Unità operative universitarie si affianchino
Unità operative industriali in grado di
produrre risultati di ricerca di livello
internazionale nell’ambito delle misure e della strumentazione.
T_M – Oggi, per mancanza di
fondi, gli Atenei chiudono
importanti corsi di Dottorato di
Ricerca (ultimo in ordine di
tempo quello di Metrologia del
Politecnico di Torino). Come
valutate l’apporto dei Dottorati
in ambito accademico e industriale nel campo delle misure,
e come fronteggiare questa
contrazione?
Gasparetto – La problematica dei
dottorati di ricerca è complessa non
solo per il mondo delle Misure ma per
tutta l’Università italiana e, a leggere
le riviste scientifiche internazionali,
anche per i paesi sviluppati più ricchi.
Alle difficoltà mondiali, in Italia si
aggiungono oggettive difficoltà proprie delle Università e proprie del
mondo del lavoro.
Per quanto riguarda le Università le
▲
diale, le Misure meccaniche solo negli
anni ottanta si sono affermate sganciandosi da una visione solo ancillare
nei confronti delle altre discipline meccaniche.
I singoli docenti di Misure meccaniche
e termiche hanno sviluppato molte e
proficue collaborazioni con partner
nazionali e internazionali; sono numerose le collaborazioni di prova e di
ricerca spaziando dal monitoraggio
di macchine, d’impianti, di strutture,
allo sviluppo di strumentazione ottica,
biomedica, per lo spazio, allo studio
di algoritmi e metodi per la visione,
per l’automazione, per il controllo,
per l’ingegneria clinica. In questa
serie di collaborazioni i misuristi meccanici e termici non hanno invece
ancora sviluppato un approccio unitario di Gruppo nei confronti delle
imprese, delle Associazioni industriali. Vale la pena che ora i meccanici si
muovano per creare rapporti istituzionali? Direi sicuramente di si ma non
da soli, ritenendo ottimale un’azione
coordinata con i “cugini” elettrici per
approfondire ed estendere le collaborazioni che hanno già attivato.
Petri – Nonostante il Gruppo Misure
Elettriche ed Elettroniche abbia una
propria chiara identità da alcuni
decenni, la nostra esperienza non è
molto diversa da quella dei colleghi di
Misure Meccaniche e Termiche. In
particolare, nei contatti con le Imprese prevalgono nettamente le iniziative
individuali rispetto a quelle a livello
associativo. Entrambe queste modalità di collaborazione sono valide e
vanno promosse attraverso iniziative
quali il sito dell’Associazione e la rivista Tutto_Misure.
Lasciatemi essere però un po’ provocatorio: più che discutere su come
migliorare la visibilità ritengo importante riflettere su quello che è il fine
ultimo della collaborazione tra Università e Imprese. Dico questo perché
una cosa è fornire a un’Impresa una
consulenza qualificata su uno specifico problema da questa individuato,
un’altra è invece definire e attuare
attività di ricerca congiunte di lungo
periodo su obiettivi strategici. L’auspicio che voglio esprimere è che la
prima modalità di collaborazione
IL
TEMA
difficoltà sono legate sia ai finanziamenti, che non sempre consentono di
garantire il numero minimo di borse
previsto dalla normativa, sia di tipo
normativo che impongono una numerosità di docenti di riferimento difficile
da raggiungere anche in Atenei che,
come il Politecnico di Torino, abbiano
una lunga e consolidata tradizione di
ricerca e di credibilità nel campo dell’ingegneria e nel campo delle misure.
Per quanto riguarda il mondo del lavoro, la figura del dottore di ricerca,
anche se oramai i primi dottori sono
stati formati a fine anni ottanta, e
quindi più di vent’anni fa, non è ancora conosciuta per la sua importanza,
per la sua peculiarità, talché spesso il
dottore di ricerca, malgrado la selezione superata, malgrado la sua preparazione superiore dedicata allo sviluppo innovativo, viene assunto dalle
aziende come se fosse un neolaureato, anzi in alcuni casi svantaggiato
rispetto al neolaureato in quanto più
anziano.
Giustamente l’intervistatore ci chiede
se vediamo soluzioni: io vedo come
via principale la creazione di un raccordo Università – Industria (sia vista
come singola Impresa, sia come organizzazione sindacale industriale) che
porti alla progettazione, alla creazione, al mantenimento di percorsi fortemente scientifici ma rivolti a tematiche
d’interesse per i partner industriali.
Questa prospettiva ha già trovato
applicazioni di successo in alcune
nostre sedi: è compito nostro di far
diventare sistema questa comunanza
d’interessi, sia per rinvigorire i corsi di
dottorato sia per continuare a invogliare gli allievi migliori a iscriversi in
quanto anche attirati dall’interesse
delle Imprese.
Petri – I Dottorati di ricerca stanno
vivendo un periodo difficile in tutto
l’occidente, ma in particolar modo in
Italia, sia per la congiuntura economica, sia per la debolezza strutturale
delle nostre Scuole di Dottorato; le
figure professionali formate sono infatti d’interesse solo per l’Università o
per i Centri di ricerca stranieri (nord
Europa o USA prevalentemente), non
sono però richieste dal mercato del
lavoro nazionale. Data questa situa-
T_M ƒ 259
zione, non sorprende che le misure
siano tra le prime a farne le spese:
infatti, non riconoscendo l’importanza
primaria della cultura metrologica, le
misure sono spesso considerate una
disciplina marginale.
Analizzando per un momento la questione dei Dottorati a livello di macrosistema, negli ultimi anni per ogni
nuovo dottore di ricerca in materie
tecnico-scientifiche residente in Europa o in Nord America ci sono stati
dieci nuovi dottori di ricerca con residenza in Asia, magari addottorati in
una Università europea o statunitense.
Questo fa prevedere che nel prossimo
futuro il baricentro dello sviluppo
scientifico e tecnologico si sposterà
decisamente verso oriente, con prevedibili conseguenze economiche e
sociali.
Tornando ai problemi di casa nostra,
ribadisco che per contrastare efficacemente gli effetti di questa crisi occorre
mettere in atto azioni di sistema. Nella
fattispecie, occorre avviare dottorati
congiunti Università-Imprese. Per avere
un esempio di come poter fare possiamo guardare alla Germania, dove
sono previste almeno quattro diverse
modalità di collaborazione:
a) il dottorando è assunto a tempo
pieno dall’Università e lavora presso
un Istituto universitario, finanziato sui
fondi di un contratto di ricerca industriale;
b) il dottorando è un dipendente dell’Azienda (che quindi continua a pagargli lo stipendio), ma viene distaccato presso l’Università durante il periodo del Dottorato; all’Università vengono pagati i costi indiretti associati
alla collaborazione;
c) il dottorando rimane in Azienda e
si reca in Università saltuariamente;
questa soluzione è poco diffusa in
Università, mentre è frequente nelle
collaborazioni con gli enti di ricerca
(ad es. gli Istituti Fraunhofer);
d) il dottorando è finanziato mediante
un progetto federale presentato congiuntamente da Università e Industria
(i progetti federali richiedono la presenza obbligatoria dell’Università); il
dottorando rimane comunque sempre
a stretto contatto con l’Industria, anche se il legame è indiretto.
T_M ƒ 260
N. 04ƒ
; 2013
▲
IL
TEMA
Vale la pena ricordare che il costo di
un dottorato in Germania (oltre i
100.000 €/anno per quattro anni)
supera di circa 3-4 volte quello di un
dottorato in Italia.
È anche fondamentale precisare che
in Germania il titolo di dottore di ricerca ha un alto riconoscimento sociale: è abbastanza inusuale nell’industria tedesca incontrare manager di
un certo livello privi di questo titolo.
Ne consegue che gli studi di dottorato non sono visti come una scelta legata a un puro interesse accademico,
ma come una fase essenziale della
formazione.
T_M – Questo è un periodo di
“esami” per i Ricercatori Universitari: alla Valutazione
della Qualità della Ricerca si è
affiancata la procedura di abilitazione di Ricercatori e Professori, con il Decreto sull’autovalutazione e valutazione
degli Atenei sullo sfondo. Tutte
queste valutazioni sembrano
prediligere i contributi scientifici dei ricercatori (pubblicazioni
certificate ISI o SCOPUS, impact
factor, H-Index, ecc.) rispetto
alla ricerca applicata e al trasferimento tecnologico (contratti con aziende, brevetti,
startup). Come valutate il rischio di ulteriore distacco tra
università e mondo delle imprese, tra domanda e offerta
di tecnologia?
Gasparetto – Nell’apparente uniformità del sistema universitario italiano, vi sono consistenti differenziazioni fra sede e sede, fra gruppo disciplinare e gruppo disciplinare. Nella mia sede, il Politecnico di Milano,
il contrasto ipotizzato dalla domanda non esiste. L’assegnazione di risorse, e in particolare la assegnazione di posti di ruolo, tiene conto sia
della numerosità degli studenti, sia
della produttività scientifica come
numero e collocazione editoriale
delle pubblicazioni, sia infine della
capacità di collaborazione con enti
e aziende esterne, capacità misurata
attraverso la quantità di autofinanziamento che i singoli ricercatori sono in grado di attirare. L’autofinanziamento inoltre può essere direttamente utilizzato per attivare corsi di
dottorato, per creare nuovi posti di
ruolo oltre a quelli (pochi) istituzionali. La spinta alla collaborazione è
molto forte, così come è molto forte
la spinta alla pubblicazione dei risultati delle ricerche talché il pericolo
nascosto non è nel distacco fra università e mondo delle imprese ma
bensì nel rischio che la ricerca della
quantità metta in ombra il perseguimento della qualità.
Petri – La valutazione della qualità
della ricerca e le altre iniziative di
valutazione a livello nazionale sono
state basate su prodotti e parametri
omogenei con quelli considerati in
ambito internazionale. Non ritengo
che sarebbe stato opportuno fare diversamente, anche se si possono avere riserve su alcune modalità con cui
le valutazioni sono state eseguite (ad
esempio sui valori di soglia scelti). Il
trasferimento tecnologico rappresenta
un aspetto completamente diverso delle attività di un ricercatore e deve
quindi essere valutato in modo indipendente dalla ricerca, considerando
prodotti di tipologia diversa, come ad
esempio i brevetti, gli spin-off, i contratti. Al momento, la valutazione a
livello nazionale ha riguardato solo la
ricerca e nel prossimo futuro riguarderà la didattica. Non si prevede che
saranno valutate attività di trasferimento tecnologico.
Questo non significa che gli Atenei
non possano definire le loro strategie
di sviluppo premiando anche queste
attività. Molti Atenei, tra cui l’Ateneo
di Trento in cui presto servizio, lo
stanno già facendo, anche per favorire azioni di sistema tra Università e
territorio. Vale inoltre la pena osservare che un’attività di trasferimento
tecnologico, specialmente se di alto
livello, può generare prodotti di ricerca. Questo può avvenire, in particolare, quando si tratta di un’attività
di ricerca congiunta (magari nell’ambito di un percorso di Dottorato) e
non una saltuaria consulenza qualificata.
N. 04ƒ
;2013
NEWS
esigenza e di condividere la stessa
base culturale – non hanno pertanto
contrastato la decisione di accorpamento del Ministero.
Resta comunque da gestire la fase di
transizione in modo da preservare (e
per quanto possibile valorizzare) le
importanti specificità di ciascuno dei
due settori. A questo fine si è concordemente deciso di favorire l’aggregazione attraverso un approccio bottomup, ossia favorendo le iniziative proposte dai singoli ricercatori. Per questo i due gruppi organizzano le rispettive riunioni annuali in contemporanea nella stessa sede già da alcuni
anni; sono inoltre state avviate altre
iniziative, tra cui collaborazioni scientifiche tra gruppi di ricerca dei due
settori e la co-organizzazione della
scuola estiva di Dottorato in Misure.
▼
Gasparetto – Come già accennato
la storia dei due gruppi, così come la
loro numerosità di qualche anno fa e
attuale, sono notevolmente differenziate. Non bisogna nascondersi il fatto che le diffidenze esistenti nel 1961
quando nacque la disciplina Misure
Meccaniche e Termiche stentano a
essere superate. Quando il Ministero
ha deciso l’accorpamento (per ora
solo ai fini delle abilitazioni concorsuali) fra i due Gruppi, i Gruppi stessi
hanno deciso di non combattere contro la decisione ma si sono incontrati
per sviscerare i possibili motivi di contrasto, per evidenziare le affinità. La
riunione, vivace e costruttiva, ha portato alla conclusione che i motivi di affinità erano in misura superiore ai motivi di contrasto, e che quindi poteva
essere accettata la decisione imposta,
ma che per non creare disastri sarebbe stata opportuna un’azione, lenta
ma tenace, di avvicinamento. In seguito a quella disamina sono state create
occasioni d’incontro sia fra le Giunte,
sia tra i gruppi nella loro interezza, e
l’organizzazione di Congressi separati ma coincidenti come date e sedi
negli ultimi due anni ne è una grande
testimonianza. Sono state inoltre progettate riunioni più o meno allargate
per risolvere, prima che potessero diventare dirompenti, eventuali situazioni di contrasto. Non ci siamo dati
una scadenza temporale per la completa assimilazione dei due gruppi
ma devo constatare che già ora è
stata creata una conoscenza comune, già ora sono state premiate proposte di finanziamenti competitivi
presentate congiuntamente da membri dei due gruppi.
Petri – Nei decenni appena trascorsi
la ricerca era prevalentemente orientata all’approfondimento della conoscenza in specifiche aree del sapere: ne
conseguiva una richiesta di specializzazione e di separazione disciplinare.
Negli ultimi anni le maggiori opportunità di nuove scoperte si sono manifestate nelle aree di confine tra i diversi
saperi; ne è conseguita una focalizzazione verso ricerche di tipo multi- o
interdisciplinare e una spinta alla convergenza dei saperi, favorita anche
dalla richiesta di orientare la ricerca
alla soluzione di problemi concreti, anziché alla produzione di nuovo sapere.
Spesso la complessità di questi problemi richiede infatti d’integrare competenze di aree diverse, non di rado metodologicamente distanti tra loro.
Anche la richiesta (purtroppo raramente esplicita) di cultura metrologica
proveniente dalla Società spinge sicuramente in questa direzione: la convergenza dei due settori MMT e MEE
ne consegue quindi in modo naturale.
I ricercatori – consapevoli di questa
■
Misure Elettriche ed Elettroniche, Misure Meccaniche e Termiche: due settori gemelli e di
cui è previsto l’accorpamento,
ma con storie ed esigenze
diverse. Questo matrimonio si
farà?
IL
TEMA
PARIGI: IL CONGRESSO INTERNAZIONALE
DI METROLOGIA CONFERMA
LA SUA OTTIMA SALUTE...A 30 ANNI
La 16a edizione del Congresso si è svolta,
presso la Porte de Versailles a Parigi, il 7 e
il 10 ottobre scorsi, in collaborazione con
la mostra Enova. Quest’anno gli organizzatori hanno concentrato la preparazione
dell’evento su tre priorità principali: l’apertura permanente a tutte le aree di interesse,
a ogni Paese e settore di attività; ampio
spazio all’innovazione e all’eccellenza tecnica e tecnologica; promozione del trasferimento tecnologico.
Nel 2013 il Congresso ha offerto tre giorni
e mezzo di scelta molto ampia: 180 presentazioni tecniche, sei tavole rotonde industriali, tre tour aziendali e una mostra nella sezione Mesurexpovision della fiera Enova.
Una sessione è stata dedicata ai vantaggi delle carriere misuristiche ed è stato dato spazio all’illustrazione di due programmi di ricerca metrologica a livello europeo. Sono state
introdotte, infine, nuove tematiche, come la trasformazione alimentare, le sfide energetiche e le nanotecnologie.
Alcuni numeri di questa 16a edizione: 850 fra partecipanti ed espositori (+6% rispetto
al 2011), il 35% dei quali di provenienza estera (36 Paesi rappresentati, non solo europei ma anche del Nord e Sud America, Africa, Medio Oriente e Asia); 53 aziende presenti nel Metrology Village, il cuore della manifestazione, luogo di ritrovo durante le
pause, le sessioni poster, cocktail e aperitivi.
Il livello tecnico e scientifico del congresso è stato giudicato eccellente o soddisfacente,
rispettivamente, dall’87% e dal 90% dei partecipanti. La serata di gala presso la Torre
Eiffel ha attirato quasi 200 congressisti e partner di ogni provenienza.
I partecipanti sono stati utenti industriali di misura nei settori analisi e laboratori di metrologia, produzione di macchine e attrezzature (68%), laboratori nazionali dei grandi
Paesi europei, ministeri, enti di accreditamento, organizzazioni internazionali (11%),
docenti universitari o ricercatori (13%), sanità, formazione, consulenza, stampa (8%).
T_M ƒ 261
▲
MISURE OTTICHE
GLI
ALTRI TEMI
M. Benedetti 1,2, G. Capelli 2, M. Norgia 1,3, G. Giuliani 1,2
Strumentazione laser
per la misura delle vibrazioni
con tecniche di retro iniezione
LASER INSTRUMENTS FOR VIBRATION MEASUREMENTS
Julight srl, a spin-off Company from the University of Pavia, has developed
an innovative laser instrument for the contactless measurement of vibrations.
The Julight Laser Vibrometer has the smallest optical head on the market,
and can host up to four independent optical measuring channels. Applications range from automotive industry to the biomedical field.
RIASSUNTO
Julight srl è una società spin-off dell’Università di Pavia che ha sviluppato
un innovativo strumento laser per la misura di vibrazioni senza contatto. I
vibrometri laser Julight hanno la testa ottica più piccola disponibile sul mercato, e offrono la possibilità d’includere fino a 4 canali ottici di misura indipendenti in un singolo strumento. Vengono qui illustrate le diverse applicazioni, che spaziano dall’ambito automotive a quello biomedicale.
INTRODUZIONE
Oggigiorno, in ambito industriale e
automotive, è importante poter misurare con elevata precisione grandezze fisiche come distanze, spostamenti, vibrazioni e velocità, mediante
tecniche senza contatto e non invasive che non alterino le caratteristiche
fisiche o il funzionamento dell’oggetto da analizzare. In commercio esistono diverse tipologie di sensori:
induttivi, capacitivi, elettromagnetici
e a ultrasuoni, il cui impiego varia in
funzione della risoluzione richiesta,
del range dinamico di misura, delle
particolari condizioni operative.
La nascita del laser negli anni ’60 e
l’avvento dei laser a semiconduttore
nel decennio successivo, hanno fornito un forte stimolo allo sviluppo di
soluzioni ottiche. Infatti, è possibile
sfruttare le proprietà della radiazione elettromagnetica emessa dai laser, come la monocromaticità, l’elevata brillanza, la coerenza spaziale
e temporale, per ricavare le informazioni desiderate con elevata risoluzione e precisione, con tecniche
senza contatto.
È in quest’ottica che Julight srl [1],
azienda start-up e spin-off dell’Uni-
versità degli Studi di Pavia, progetta,
sviluppa e realizza innovativi sensori
ottici e sistemi di misura, non solo per
i settori automotive e industriale, ma
anche per applicazioni in ambito biomedicale, dove l’assenza di contatto
e la non invasività della misurazione
sono requisiti fondamentali. Grazie
alle competenze e conoscenze maturate in anni di esperienza nel campo
dell’optoelettronica dal suo staff,
Julight srl si presenta sul mercato della strumentazione laser per metrologia con i suoi vibrometri laser innovativi. Essi sono basati sull’interferometria ottica a retro iniezione [2],
hanno una testa ottica di dimensioni
molto compatte (la più piccola sul
mercato), e la possibilità di combinare più canali di misura in un unico
strumento.
I VIBROMETRI LASER JULIGHT
DELLA SERIE VSM
quali metallo grezzo, plastica, gomma, carta, tessuto. La versione base,
modello VSM100, dispone di una testa ottica e di un’unità elettronica per
l’elaborazione del segnale, mentre il
modello VSM400 (si veda la Fig. 1) è
espandibile e può ospitare fino a
quattro teste ottiche, cioè quattro canali di misura indipendenti, per misure di vibrazioni simultanee in diversi
punti dell’oggetto da esaminare, oppure misure differenziali e/o 3D.
Figura 1 – Vibrometro laser VSM400
prodotto da Julight srl, qui mostrato
nella versione con due teste ottiche laser
I vibrometri laser Julight sono basati
su un innovativo schema interferometrico, denominato “self-mixing” (S-M,
anche detto “a modulazione indotta”
o a retro iniezione) [2,3] in cui si sfrutta l’interferenza coerente che si genera quando la luce, retrodiffusa da una
1
Julight srl, Polo Tecnologico, Pavia
Julight srl ha sviluppato e realizzato
2 Dip. Ingegneria Industriale
un innovativo vibrometro laser (serie
VSM) che permette di effettuare misu- e dell’Informazione, Università di Pavia
re accurate e affidabili senza contat- 3 Dip. Elettronica Informazione
to, operando con successo su molti e Bioingegneria, Politecnico di Milano
tipi di superfici, ruvide e/o diffusive, [email protected]
T_M
N.
4/13 ƒ 263
superficie, rientra nella cavità laser
generando interferenza con il campo
preesistente nella cavità stessa. Essendo uno schema di rivelazione coerente, esso è caratterizzato da un’elevata
sensibilità, che permette allo strumento di funzionare correttamente anche
con una debole intensità della luce
retrodiffusa dall’oggetto in esame.
Mentre i convenzionali vibrometri/velocimetri laser a effetto Doppler (LDVs)
implementano una configurazione
interferometrica di tipo Michelson, con
la configurazione a S-M si ha una notevole riduzione del numero dei componenti ottici. Inoltre, nella serie VSM,
come sorgente ottica viene utilizzato
un laser a semiconduttore di dimensioni molto compatte che, grazie anche a un attento design optomeccanico, permette di ottenere la testa ottica
più piccola e maneggevole presente
oggi sul mercato.
T_M ƒ 264
N. 04ƒ
; 2013
▲
GLI
ALTRI TEMI
I vibrometri laser Julight forniscono in
uscita un segnale elettrico che è una
replica analogica dello spostamento
del bersaglio (con una sensibilità di
1 mV/µm), su un campo di frequenze
che va dalla continua fino a 50 kHz e
uno spostamento minimo misurabile
pari a 0,4 nm (per una banda di
rumore di 1 Hz). L’ampiezza di vibrazione massima picco-picco che può
essere misurata è maggiore di 20
mm, mentre la velocità massima del
bersaglio rilevabile arriva a 1 m/s. Il
segnale di vibrazione può essere visualizzato su un oscilloscopio, oppure
fornito in ingresso a un analizzatore
di spettro per l’analisi nel dominio
della frequenze (FFT), o ancora essere
digitalizzato per una successiva elaborazione. Ulteriori dati tecnici sono
riportati nella Fig. 2.
Effettuare misure con i vibrometri della serie VSM è estremamente sempli-
ce. Il fascio laser viene puntato sulla
superficie dell’oggetto del quale si
vuole misurare la vibrazione; un sistema di allineamento automatico (speckle-tracking) provvede a mantenere
l’allineamento del fascio, riducendo al
minimo i casi di misura errata (principalmente indotti dal fenomeno dello
“speckle-pattern”, di cui soffrono tutti i
sistemi interferometrici laser), mentre
un indicatore a barra LED permette di
visualizzare in tempo reale la qualità
del segnale ottico di ritorno dal bersaglio.
Un altro punto di forza dei vibrometri
Julight è rappresentato dal campo di
temperature di funzionamento esteso, da -30 °C a +80 °C, mentre
gli strumenti concorrenti tradizionali
non sono in grado di superare i
45 °C. È inoltre allo studio una soluzione “high-temperature” che permette di operare sino a 150 °C, consen-
N. 04ƒ
;2013
sere fastidiosi e irritanti riducendo il
comfort dell’utilizzatore; (ii) generano
dispersione di energia; (iii) generano
stress meccanici aumentando l’usura
di diverse componenti e riducendone quindi la vita media.
Come mostrato dalla Fig. 3 i
vibrometri laser Julight risultano essere estremamente maneggevoli e adatti ad applicazioni di tipo automotive. Il
range termico di funzionamento e le ridotte dimensioni
della testa ottica fanno sì che
essa possa essere montata in
Figura 2 – Caratteristiche tecniche
del vibrometri laser Julight della serie VSM
spazi angusti, come, nel caso
specifico di Fig. 3, all’interno
del vano motore di un’automobile, consentendo di effettuare
APPLICAZIONI
misure non solo a veicolo fermo ma
DEI VIBROMETRI JULIGHT
anche “on the road”. Quest’ultimo
I campi di applicazione dei vibrome- aspetto, a meno di soluzioni con setup
tri laser Julight sono i più svariati: dal- complessi, costosi e laboriosi, non
la misura di vibrazioni senza contatto
nei settori automotive, aerospaziale e
nell’industria meccanica, alla misura
delle vibrazioni su strutture di piccole
dimensioni (anche micrometriche, come i MEMS); nel controllo di processo
e di qualità in impianti industriali;
nella manutenzione predittiva e sotto
condizione (Machinery Condition
Monitoring); nei test di altoparlanti e
piezoceramiche; nell’analisi modale e
dei materiali, nelle applicazioni musicali [4] e infine anche nelle applicazioni cliniche e biomedicali [5].
tendo per la prima volta di effettuare
misure laser interferometriche in ambienti ostili quali vani motore, sale
macchine, ecc.
VIBRAZIONI IN AMBITO
INDUSTRIALE – AUTOMOTIVE
Uno dei settori in cui è fondamentale
poter analizzare e ridurre le vibrazioni è il settore automotive. Considerando il caso specifico di un’automobile, le sorgenti di rumore possono
essere svariate: il motore, la carrozzeria, le componenti interne dell’abitacolo ecc. Poter ridurre le vibrazioni
generate dal motore e trasmesse da
quest’ultimo alla scocca e all’abitacolo, nonché qualsiasi sorgente di vibrazione all’interno dell’automobile, è
fondamentale per tre motivi: (i) generano onde di pressione e quindi rumore acustico che talvolta possono es-
▲
GLI
ALTRI TEMI
può essere soddisfatto dai vibrometri
laser oggi presenti in commercio,
caratterizzati dall’avere una testa ottica di grosse dimensioni, poco maneggevole e che spesso deve essere
sorretta da un opportuno cavalletto.
La Fig. 4 mostra un esempio di misura
effettuata outdoor dove la velocità di rotazione del motore viene incrementata
da 1.500 rpm (25 Hz) fino a
4.100 rpm (135 Hz). Dalla Fig. 4 si nota bene la fase di accelerazione durante la quale l’ampiezza delle vibrazioni
diminuisce gradualmente con l’aumentare della frequenza di rotazione.
MISURA DI VIBRAZIONI
IN AMBITO BIOMEDICALE
I campi di applicazione dei vibrometri laser Julight non si limitano all’ambito industriale e meccanico. A ripro-
Figura 3 – Esempio d’installazione della testa ottica all’interno del vano motore
di un’automobile per la misura delle vibrazioni del motore stesso
Figura 4 – Esempio di spettrogramma ottenuto per una misura effettuata
in accelerazione con auto in movimento. Il regime di rotazione del motore varia
da circa 800 rpm (26,6 Hz) fino a 4.050 rpm (135 Hz). Il segnale di vibrazione principale
è causato dagli scoppi nelle camere di combustione del motore a 4 tempi a ciclo Diesel
T_M ƒ 265
N. 04ƒ
; 2013
▲
GLI
ALTRI TEMI
va della loro versatilità, negli ultimi
anni sono stati testati con successo
anche in applicazioni nel settore biomedicale [5], che è in forte espansione e in cui è sempre più importante
ottenere informazioni attraverso metodi senza contatto o poco invasivi. In
un contesto clinico, per esempio, è necessario poter monitorare e analizzare i parametri del sistema cardiovascolare di un paziente (frequenza cardiaca, deformazione dell’arteria,
tempi di propagazione nel sistema
arterioso dell’onda di pressione generata dalla contrazione del cuore) per
eseguire la diagnosi di molte patologie e disfunzioni. Esempi sono costituiti dalla diagnosi e dall’analisi dell’indurimento e dell’ispessimento arterioso causato dall’arteriosclerosi.
Attraverso i vibrometri laser Julight è
possibile misurare piccoli spostamenti
sulla superficie della pelle generati
dalla dilatazione e contrazione dell’arteria esaminata. La Fig. 5 riporta un
esempio di misura effettuata sull’arteria
radiale. Il segnale blu rappresenta il
segnale acquisito con un comune elettrocardiogramma (ECG), mentre il
segnale rosso rappresenta l’uscita del
vibrometro laser, ovvero la replica dello
spostamento della superficie della pelle
in prossimità dell’arteria. Come mostrato esiste una buona corrispondenza tra
i due segnali, nonostante il secondo sia
stato ottenuto con una tecnica senza
contatto e non invasiva.
VIBRAZIONI, MA NON SOLO
L’analisi e la misura delle vibrazioni sono aspetti di primaria importanza nei
settori automotive, aerospaziale e dell’industria meccanica. Tuttavia le esigenze possono essere molteplici, come
la misura di profili, planarità, distanze,
velocità ecc., e l’elevato livello di precisione raggiunto in questi anni fa sì che
le specifiche siano sempre più stringenti e le precisioni richieste sempre maggiori. Julight srl crede fortemente nelle
potenzialità e nei vantaggi derivanti
dalle misure con tecniche ottiche e
mette a disposizione le proprie risorse e
conoscenze anche per realizzare soluzioni custom, analizzando e studiando
il problema per poi proporre e svilup-
pare la soluzione ottimale in tempi
rapidi.
RIFERIMENTI BIBLIOGRAFICI
[1] www.julight.it
[2] G. Giuliani, S. Bozzi-Pietra, S. Donati, “Self-mixing laser diode vibrometer”,
Measurement Science and Technology,
vol. 14, pp. 24-32 November 2003.
[3] G. Giuliani, M. Norgia, S. Donati, Thierry Bosch, “Laser diode selfmixing technique for sensing applications”, Journal of Optics A, vol. 4, pp.
283-294 November 2002.
[4] G. Capelli, G. Giuliani, “Laser
vibrometry for testing the acoustic
quality of musical instruments: analysis of bells vibrations”, Atti di Fotonica
2011 – 13° Convegno Nazionale
delle Tecnologie Fotoniche, 9-11 maggio 2011, Genova, Italy
[5] C. Bollati, G. Capelli, G. Giuliani,
“Non–contact monitoring of the heart
beat using optical laser diode vibrocardiography”, atti di “Biophotonics
2011” International Workshop, 8-10
giugno 2011, Parma, Italy.
Mauro Benedetti è ricercatore
Post-doc presso l’Università di Pavia
e co-fondatore di Julight srl, per cui
coordina i progetti custom.
Giorgio Capelli è ricercatore Postdoc presso l’Università di Pavia e si
occupa di sviluppare nuove tecnologie per misure laser senza contatto.
Michele Norgia è Ricercatore Universitario e docente di Misure Elettroniche presso il Politecnico di Milano e co-fondatore di Julight srl, per
cui coordina l’area di ricerca e sviluppo.
Figura 5 – a) Schema per la misura di vibrazioni della cute sul corpo umano;
b) Confronto tra i segnali ottenuti da un ECG (blu) e il segnale ottenuto
con il vibrometro laser (rosso) misurando lo spostamento
della pelle in prossimità dell’arteria radiale del polso
T_M ƒ 266
Guido Giuliani è professore associato di Elettronica presso l’Università di Pavia e co-fondatore di Julight
srl, per cui coordina le attività di sviluppo legate all’innovazione tecnologica.
▲
MISURE PER LE TELECOMUNICAZIONI
GLI
ALTRI TEMI
Leopoldo Angrisani 1, Federico Flaviano 2
Progetto MisuraInternet: indicatori di qualità
e architettura del sistema di misura
Il progetto italiano per la misurazione della qualità del servizio di connessione
a Internet da rete fissa – Parte I
THE “MISURAINTERNET” PROJECT: QUALITY INDICATORS
AND MEASUREMENT SYSTEM ARCHICHITECTURE
The Authority for the Communications was one of the first European National Regulatory Authorities to pay specific attention to the quality of services
in the Internet connections. Its action, which began in 2006, was strengthened in 2008 when the Authority started a project to measure the quality
of the connections: MisuraInternet.
Born in a context of a cooperation between the Authority, the telecom operators, universities, the Ministry of Economic Development and the Higher Institute of Communications, the project had as independent implementing entity
the Ugo Bordoni Foundation. This article illustrates the quality indicators
considered in the context of the project and the architecture of the system
set up to measure them.
RIASSUNTO
L’Autorità per le Garanzie nelle Comunicazioni è stata tra le prime Autorità
Nazionali di Regolamentazione europee ad aver prestato specifica attenzione
alla qualità del servizio delle connessioni a Internet. La propria azione, iniziata nel 2006, si è rafforzata nel 2008 quando l’Autorità ha avviato un progetto per la misurazione della qualità delle connessioni: il progetto MisuraInternet.
Nato nell’ambito di un contesto di cooperazione tra l’Autorità, gli operatori di telecomunicazioni, le Università, il Ministero dello Sviluppo Economico
e l’Istituto Superiore delle Comunicazioni, il progetto ha visto come soggetto attuatore indipendente la Fondazione Ugo Bordoni. Il presente articolo
illustra sia gli indicatori di qualità considerati nell’ambito del progetto, sia
l’architettura del sistema allestito per la loro misurazione.
MISURAZIONE DELLA QUALITÀ
DELLE CONNESSIONI
A INTERNET DA RETE FISSA:
NECESSITÀ DELL’INTERVENTO
DI REGOLAMENTAZIONE
Il diffondersi delle connessioni a Internet a banda larga ha evidenziato, ben presto, la necessità di nuovi
strumenti di tutela dei consumatori,
capaci di fornire una risposta efficace alle molteplici problematiche
concernenti la qualità del servizio
sperimentata dagli utenti. D’altra
parte, in un contesto di evoluzione
del quadro normativo, europeo e
nazionale, la qualità delle reti e dei
servizi è destinata ad assumere
importanza crescente e sempre più
basilare.
Riguardo alla connessione a Internet
da postazione fissa, l’Autorità per le
Garanzie nelle Comunicazioni
(Agcom) ha rivolto fin dal 2006 particolare attenzione agli aspetti di qualità
di tale servizio, recependo molteplici
denunce da parte di consumatori e
associazioni dei consumatori rispetto a:
• ingannevoli modalità di vendita
delle offerte in abbonamento a Internet da postazione fissa, che presentavano esclusivamente l’indicazione della massima velocità di trasmissione raggiungibile, senza indicazione di un valore minimo garantito e senza possibilità sia di comprovare la scarsa qualità del servizio,
sia di recedere gratuitamente dal
contratto in caso d’inadempienza
dell’operatore;
T_M
• impossibilità di effettuare confronti
significativi tra la qualità del servizio
ricevuto e quella offerta da differenti
provider, per assenza d’informazioni
trasparenti sul tipo di connessione utilizzata.
Nello specifico, l’Autorità ha risposto a
tali denunce con una serie d’interventi
e attività, tra le quali la pubblicazione
della delibera n. 131/06/CSP e s.m.i.
(degna di particolare nota è la delibera
n. 244/08/CSP) e la realizzazione del
progetto “MisuraInternet”. Quest’ultimo
annovera l’implementazione del sito
“MisuraInternet” e lo sviluppo del pacchetto software Ne.Me.Sys. a uso dell’utente finale, operativo dal novembre 2009 [1].
IL PROGETTO MISURAINTERNET
Con la delibera n. 244/08/CSP, l’Agcom ha delineato un nuovo sistema per
la misurazione della qualità degli
accessi a Internet da postazione fissa,
che prevede, tra l’altro, in capo agli
operatori, obblighi di maggior trasparenza nelle condizioni contrattuali, per
quanto riguarda le prestazioni dei collegamenti alla rete e la qualità del servizio di accesso a Internet. Tra gli
aspetti qualificanti di tale intervento
regolatorio, e del connesso progetto
MisuraInternet, occorre evidenziare sia
l’attività di valutazione, sull’intero terri-
1
Dip. Ingegneria Elettrica
e Tecnologie dell’Informazione,
Università di Napoli Federico II
[email protected]
2 Direzione Tutela dei Consumatori,
Autorità per le Garanzie
nelle Comunicazioni
[email protected]
N.
4/13 ƒ 267
torio nazionale, delle effettive prestazioni dell’accesso a Internet, sia l’introduzione di sistemi di valutazione delle
prestazioni del servizio da parte della
clientela finale.
Il primo obiettivo dell’intervento consiste nel misurare, per i principali operatori del settore, a parità di condizioni operative, le prestazioni dell’infrastruttura che collega il terminale
utente al nodo di accesso alla rete,
sulla base d’indicatori standard definiti dall’ETSI, l’Istituto Europeo per gli
Standard nelle Telecomunicazioni. I
risultati delle misurazioni, elaborati
con approccio statistico, consentono
di operare un confronto tra le prestazioni offerte dai diversi provider, offrendo all’utente utili informazioni per
vagliare con maggiore cognizione di
causa le offerte di mercato disponibili
nell’area territoriale d’interesse.
Il secondo obiettivo è legato alla possibilità offerta all’utente, attraverso l’utilizzo del pacchetto software “certificato” Ne.Me.Sys., di ottenere informazioni dettagliate sulle prestazioni del proprio accesso alla rete Internet, e di verificare personalmente il
rispetto degli impegni contrattuali del
servizio per cui paga un canone. Una
volta ultimata la misurazione,
Ne.Me.Sys. restituisce all’utente un
documento in formato pdf riportante i
valori di alcuni key performance indicators, che forniscono un quadro
oggettivo della qualità del servizio.
Le fasi operative del progetto MisuraInternet sono state curate dalla Fondazione Ugo Bordoni (FUB), riconosciuta soggetto indipendente da tutti
gli stakeholders. L’analisi dei requisiti
progettuali e l’andamento degli sviluppi sono stati coordinati dall’Agcom nell’ambito di un apposito tavolo tecnico, che ha visto la partecipazione attiva del Ministero dello Sviluppo Economico, dell’Istituto Superiore delle
Comunicazioni, delle Associazioni
dei Consumatori, degli operatori di
telecomunicazione e del mondo universitario e della ricerca. Molto proficuo, in particolare, è stato il contributo dell’ex Dipartimento di Informatica
e Sistemistica (ora Dipartimento di
Ingegneria Elettrica e delle Tecnologie
dell’Informazione) dell’Università degli
T_M ƒ 268
N. 04ƒ
; 2013
▲
GLI
ALTRI TEMI
Studi di Napoli Federico II, che ha
partecipato attivamente ai tavoli tecnici, apportando l’esperienza maturata,
sia metodologica sia applicativa, nell’ambito delle misurazioni su sistemi e
reti di comunicazione, e nello specifico della misurazione della qualità del
servizio d’accesso a Internet da rete
fissa.
INDICATORI DI QUALITÀ
MISURATI, ED EVOLUZIONI
DELLO STANDARD ETSI
della rete a una determinata richiesta
dell’utente;
• tasso di perdita dei pacchetti:
percentuale di pacchetti d’informazione che vengono persi nella tratta tra il
proprio PC e la destinazione Internet.
Tanto minore è il valore del valore
misurato, tanto maggiore è la probabilità che i singoli pacchetti d’informazione raggiungano correttamente
la destinazione;
• tasso d’insuccesso nella trasmissione dati: affidabilità del trasferimento dati in termini percentuali.
Si valuta come il rapporto tra il numero di trasmissioni fallite e il numero
totale di tentativi di trasmissione.
Tanto minore è il valore misurato,
tanto maggiore è la probabilità che la
trasmissione dei dati abbia successo.
Il protocollo impiegato per la misurazione della banda in download e
upload è l’FTP, come raccomandato
dal predetto standard ETSI. Tale standard è evoluto verso il nuovo standard
ETSI ES 202 765-4, che raccomanda
il protocollo HTTP [3]. Differenze
emergono anche in merito alla procedura di misura. La precedente versione dello standard (vigente al momento dello sviluppo del software
Ne.Me.Sys.), difatti, prevede l’impiego di un file di dimensioni fissate, e
richiede la misurazione del tempo
necessario al suo completo trasferimento, valutando media e deviazione
standard unitamente al 5° e 95° percentile. La nuova, invece, considera
un tempo di trasferimento fissato a
priori, e richiede la misurazione del
Le misurazioni contemplate dal progetto MisuraInternet mirano a valutare
la velocità di download e upload nel
trasferimento dati, e il ritardo di trasferimento per le connessioni a Internet da rete fissa. Sono effettuate utilizzando i protocolli FTP e ICMP, così
come suggerito nella raccomandazione ETSI EG 202 057 v.1.2.1, tra due
terminazioni di rete note: il NAP (Neutral Access Point) e il punto di misura.
Gli indicatori considerati nell’ambito
del progetto MisuraInternet sono
quelli individuati dallo standard
ETSI 202 057-4, e in particolare [2]:
• velocità di trasmissione dati,
sia in termini di banda massima
(valore di velocità in download e
upload della linea al di sotto del
quale rientra il 95% di tutte le misure
ottenute, quindi nel 95% dei casi la
velocità di trasferimento dati è inferiore a tale valore) sia di banda minima (valore di velocità in download e
upload della linea al di sotto del
quale rientra il 5% di tutte
le misure effettuate, quindi
nel 5% dei casi la velocità
di trasferimento dati è inferiore a tale valore);
• ritardo di trasmissione dati: tempo necessario per far transitare i
pacchetti d’informazione
tra il proprio PC e la destinazione Internet. Esso indica quanto rapidamente la
rete è in grado di rispondere alle richieste effettuate dall’utente. Tanto minore
Figura 1 – Locazione dei server di misura
è il valore misurato, tanto
maggiore è la reattività
N. 04ƒ
;2013
delle misurazioni sono sempre i NAP.
Una schematizzazione dell’architettura del sistema di misura è riportata in
Fig. 2. Al fine di rendere le condizio-
ARCHITETTURA
DEL SISTEMA DI MISURA
In ogni sistema per la misurazione
della qualità del servizio di connessione a Internet, la locazione dei server di misura gioca un ruolo di fondamentale importanza. Nel progetto
MisuraInternet, i server di misura sono
stati collocati presso i nodi d’interscambio – Neutral Access Point (NAP)
di Roma, Milano e Torino, come illustrato in Fig. 1 [4].
La scelta del NAP come “bersaglio”
delle prove garantisce che le misurazioni di velocità e ritardo vengano
effettuate sulle reti (o sui segmenti di
rete) di responsabilità degli operatori
e solo su quelle: tutto il traffico scambiato tra il NAP e le sonde transita
esclusivamente sulla rete dell’operatore sotto test. All’interno dei NAP, la
FUB è direttamente connessa sulla
LAN di peering: questo garantisce un
collegamento diretto tra gli apparati
di misura e le reti sotto test.
Come detto, il progetto è articolato su
due livelli di obiettivo.
• Stime statistiche ottenute sperimentalmente, che consentono agli utenti
di confrontare le prestazioni misurate
sulle reti degli operatori, a parità di
profilo, nelle medesime condizioni
operative, declinate regione per regione. Per ragioni di efficienza, economicità e controllo la FUB, con la collaborazione del Ministero dello Sviluppo Economico, ha convenuto di
mettere a disposizione alcune locazioni pubbliche per l’implementazione dei punti di misura. Ogni operatore porta presso gli Ispettorati le due
connessioni ADSL/ADSL2+ più rappresentative del venduto nel corso dell’anno precedente, in conformità a
quanto specificato nella delibera n.
244/08/CSP e in riferimento ai due
profili più commercializzati. I bersagli
Figura 2 – Prestazione della rete:
Architettura del sistema di misura
▲
numero di byte trasferiti, valutando
sia la velocità media su un intervallo
di 10 secondi (average bit rate) sia il
secondo di trasferimento più veloce
(faster second bit rate). Le future versioni del software Ne.Me.Sys. terranno conto di tale evoluzione.
GLI
ALTRI TEMI
poter produrre il certificato, deve raccogliere dati di misura nell’arco di 24
ore, considerando slot temporali di
un’ora. Se in un dato slot temporale
non fosse raccolto alcun
dato di misura (ad esempio, a causa di eccessivo
traffico spurio suscettibile
d’inficiare i risultati), il software ritenterebbe la misurazione nello stesso slot
temporale al massimo per
tre giorni consecutivi, dopodiché l’intero processo di
misurare sarebbe integralmente ripetuto. I risultati
ottenuti da Ne.Me.Sys.
vanno confrontati con i
valori indicati dall’operatore nella documentazione
allegata all’offerta, sottoscritta e pubblicata sul sito
www.misurainternet.it. Se i risultati forniti dal software Ne.Me.Sys. risultassero peggiori rispetto a quelli indicati dall’operatore, l’utente potrebbe presentare reclamo entro 30 giorni dalla data
di emissione del file pdf restituito dal
software, chiedendo il ripristino degli
standard di qualità contrattuali. Se,
decorsi i 30 giorni dal reclamo, risultasse, sempre tramite Ne.Me.Sys., che
l’operatore non abbia ancora rispettato gli obblighi contrattuali, l’utente
potrebbe inviare una raccomandata
A/R all’operatore, allegando copia del
nuovo file pdf, con la comunicazione
di recesso. L’architettura del sistema di
misura per gli utenti finali è mostrata in
Fig. 3 [5].
ni di misura presso gli Ispettorati
quanto più simili a quelle che caratterizzano l’esperienza media dell’utente, sono stati presi accorgimenti sulla
distanza tra la centrale e l’Ispettorato,
nonché sull’attenuazione fisica della
linea. È noto infatti che la velocità di
linea dipende dalla lunghezza del
doppino in rame e dalla degradazione dello stesso. In Italia circa il 50%
delle linee dista 1,2 km dalla centrale, e presenta un’attenuazione in
upload pari a 11 dB. È cura della FUB
ricreare tali condizioni, ove non sussistenti, in tutti gli Ispettorati allestiti [5].
• Misurazioni da parte degli utenti finali, realizzate tramite il software
Ne.Me.Sys., messo a disposizione gratuitamente. Ne.Me.Sys. è il
primo (e fino a novembre
2012 unico) caso in Europa di software certificato
per misurare la qualità
della propria connessione.
È un software open source
che funziona su un normale
PC utente, ed è disponibile
per tutti i principali sistemi
operativi. Esegue controlli
sullo stato della macchina prima di ogni singolo
test, e se rileva fattori in
grado di falsare la misurazione, ne impedisce l’ese- Figura 3 – Utenti finali: architettura del sistema di misura
cuzione. Il software, per
T_M ƒ 269
RIFERIMENTI BIBLIOGRAFICI
1. F. Flaviano, S. Del Grosso, D. Di Napoli – Misurainternet.it Qualità dell’accesso a Internet da
postazione fissa – I Quaderni di Telèma, Giugno
2012.
2. ETSI Guide EG 202 057 Part 4: Speech Processing, Transmission and Quality Aspects (STQ);
User related QoS parameter definitions and
measurements. Part 4: Internet access.
3. ETSI Standard ES 202 765-4 Part 4: Speech
and multimedia Transmission Quality (STQ); QoS
and network performance metrics and measurement methods. Part 4: Indicators for supervision
of Multiplay services.
4. Sito web del progetto MisuraInternet –
www.misurainternet.it
5. Atti del convegno “La qualità dell’accesso a
Internet da rete fissa in Italia – I risultati del progetto MisuraInternet.it e lo sviluppo della banda
ultralarga” www.agcom.it/Default.aspx?
message=contenuto&DCId=704
T_M ƒ 270
N. 04ƒ
; 2013
▲
GLI
ALTRI TEMI
Leopoldo Angrisani è Professore Ordinario di
Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Elettrica e delle Tecnologie dell’Informazione dell’Università di Napoli Federico II.
Si occupa di misure su sistemi e reti di comunicazione, misure su sistemi wireless in presenza d’interferenza, misure per la sicurezza.
È General Chairman del IEEE International Workshop on Measurements & Networking – M&N2013.
Federico Flaviano è Direttore della Direzione
Tutela dei Consumatori dell’Autorità per le Garanzie
nelle Comunicazioni. Coordina le attività di regolamentazione della qualità dei servizi di comunicazioni elettroniche, della vigilanza sugli operatori e
dei relativi procedimenti sanzionatori, nonché del
contenzioso utente-gestore.
▲
METROLOGIA FONDAMENTALE
GLI
ALTRI TEMI
Nicola Giaquinto
Incertezza di misura: teoria
coerente o edificio da ricostruire?
Parte 2: Due approcci rivali alla teoria dell’incertezza
MEASUREMENT UNCERTAINTY: A COHERENT THEORY
OR A SHAKY CONSTRUCTION? PART 2:
TWO RIVAL APPROACHES TO UNCERTAINTY THEORY
This paper illustrates and discusses the main features of two rival approaches to statistical inference, and therefore to measurement uncertainty: the
“frequentist” (or “orthodox”), and the “Bayesian” ones. The work is written
as a tutorial, suitable to clarify the fundamental aspects of the two approaches, and their relationship with GUM and the issues addressed therein. In
particular, it is highlighted that the power and the flexibility of the Bayesian
approach require also considerable caution in its use – caution, however,
that has perhaps been disregarded in the writing of Supplement 1 of the
GUM.
RIASSUNTO
In questo articolo vengono illustrate e discusse le caratteristiche principali di
due approcci rivali alla teoria dell’inferenza statistica, e di conseguenza
dell’incertezza di misura: il “frequentista” (o “ortodosso”), e il “bayesiano”.
Il lavoro ha la forma di un tutorial, adatto a far comprendere gli aspetti fondamentali dei due approcci, e il loro rapporto con le questioni affrontate
nella GUM. In particolare, si evidenzia che la potenza e flessibilità dell’approccio bayesiano rendono necessaria anche una notevole cautela nell’adoperarlo – cautela che però è stata forse trascurata nella scrittura del
Supplemento 1 della GUM.
INTRODUZIONE
“Basically there’s only one way of
doing physics but there seems to be at
least two ways to do statistics, and
they don’t always give the same
answers”. Con queste parole Bradley
Efron [1] ha condensato efficacemente l’attuale stato delle cose nella scienza statistica, che per qualsiasi problema d’inferenza ci propone (almeno)
due strade, comunemente note come
“approccio frequentista”, o “ortodosso”, e “approccio bayesiano”.
Nell’articolo precedente [2] abbiamo
esaminato due possibili soluzioni a un
problema di propagazione dell’incertezza. La prima soluzione era errata e
la seconda corretta. Tuttavia, non possiamo dire di aver chiarito dove sia
l’errore nella prima soluzione, che è
stata ricavata secondo il dettato del
Supplemento 1 (S1) della GUM. Per
having important practical consequences.”
L’intento di questo articolo è di esporre
in modo breve e discorsivo la differenza tra i due approcci, bayesiano e frequentista, con riferimento alla valutazione dell’incertezza di misura, e
soprattutto d’illustrare le peculiarità dell’approccio bayesiano. Questo è molto
importante per capire tanti aspetti
essenziali della teoria dell’incertezza di
misura correntemente standardizzata.
Permette anche d’iniziare a capire un
problema piuttosto elusivo: perché la
propagazione del S1 funziona male.
UN ESEMPIO DIDATTICO: LA
QUALITÀ DI UNA MACCHINA
SALDATRICE
Facciamo un esempio molto semplice,
adatto a un corso di base sulla teoria
della misurazione. La qualità di una
saldatrice automatica è rappresentata
dal suo tasso di difetti P. Con ciò si
intende dire che ogni saldatura ha
una probabilità P di essere eseguita in
modo difettoso. Si è costruito un prototipo di una saldatrice innovativa,
per cui è necessario stimare P. A questo scopo si eseguono n=100 saldature, e se ne osservano X=3 difettose.
Qual è la stima di P? E qual è l’incertezza di questa stima?
Questo esempio non è particolarmente originale: è essenzialmente lo stesso scelto dal reverendo Thomas Bayes
per illustrare alcune sue idee in merito
alla teoria della probabilità [3]. Tuttavia, a distanza di esattamente due
secoli e mezzo (1763), esso risulta
ancora piuttosto utile.
capire l’inghippo è necessario capire
che la prima soluzione è bayesiana,
la seconda frequentista, e di conseguenza il problema consiste in una
scorretta applicazione dell’approccio
bayesiano.
La differenza tra approccio frequentista e approccio bayesiano non è
cosa che appassioni la comunità dei
“misuristi”, perché chi si occupa
concretamente di misure deve solitamente affrontare una molteplicità di
problemi teorici e pratici più pressanti. Probabilmente la maggior
parte di essi ha solo un’idea vaga
dell’esistenza dei due approcci, ed
è incline a pensare che si tratti di
una disputa più filosofica che sostanziale. Ma, citando ancora una volta
Efron, potremmo rispondere che “the
250-year debate between Bayesians Dipartimento di Ingegneria Elettrica
and frequentists is unusual among e dell’Informazione, Politecnico di Bari
philosophical arguments in actually [email protected]
T_M
N.
4/13 ƒ 271
N. 04ƒ
;2013
Approccio frequentista
Nell’approccio detto “frequentista”, o
“ortodosso”, il parametro incognito P
è una quantità deterministica sconosciuta, mentre il numero di saldature
difettose osservate, X, è una variabile
aleatoria. Questa ha, evidentemente,
distribuzione binomiale di parametri
n e P:
( )
(
)
f x x P = Pr X = x P =
n−x
 n
=   P x (1− P )
x
(1)
Partendo dalla (1), il modo di procedere è ben noto: si costruisce una
seconda variabile aleatoria, P̂=h(X),
“stimatore” del parametro sconosciuto
P.
Un buon metodo per costruire uno stimatore è quello della massima verosimiglianza: P̂ è quel valore di P che
rende massima la probabilità (1).
Con calcoli semplici si trova che
P̂=X/n=0,03, che è anche una soluzione intuitiva.
Questo stimatore ha diverse proprietà
desiderabili, come la non distorsione: il
suo valore atteso coincide col parametro da stimare (E[P̂]=P ).
Tutti gli stimatori di massima verosimiglianza, inoltre, sono asintoticamente efficienti, cioè al crescere di n
la loro varianza tende al limite di
Cramer-Rao (la varianza più piccola
che può avere uno stimatore non distorto).
La distribuzione dello stimatore P̂ non è
perfettamente nota, e questo è inevitabile nello schema concettuale frequentista. La probabilità fP̂(p̂)=Pr(P̂=p̂) infatti è
data dalla (1), ponendo p̂=nx, e questa dipende dal parametro sconosciuto P.
Essa si può rappresentare solo assegnando a P un valore ipotetico: in Fig.
1 si ipotizza che sia P=0,03, cosa che
in realtà non sappiamo.
L’incertezza della stima può essere quantificata come deviazione
standard dello stimatore, che è
▲
GLI
ALTRI TEMI
a e b. Rappresentare graficamente la relazione tra
questi due valori e la probabilità del 90%, comunque,
non è elementare.
Sottolineiamo che, nello
schema frequentista, non
possiamo dire che P “è compreso tra 0,0082 e 0,0757
con una probabilità del
90%”. Dobbiamo invece dire che l’intervallo è stato costruito in modo tale che,
prima di essere determinato,
aveva una probabilità
del 90% d’includere il valoFigura 1 – Distribuzione di probabilità (ipotetica)
dello stimatore “frequentista” P̂ =X/n del tasso
re di P.
di difettosità P di una saldatrice. La media
La soluzione presentata – bidella distribuzione coincide col valore di P (in rosso).
sogna dirlo – è completaL’area celeste indica un intervallo di confidenza al 90%,
mente al di fuori della GUM.
nell’ipotesi di avere osservato P̂ =0,03
In particolare, non è lecito
dire che l’incertezza è la deche questo parametro è sconosciuto: viazione standard dello stimatore,
l’incertezza della stima deve quindi a anche se questa è pratica comune,
sua volta essere stimata. Ciò può es- che può essere rintracciata in innumesere fatto sostituendo P̂=0,03 al valo- revoli lavori scientifici. Nemmeno la
stima P̂=3%, come vedremo, è conforre sconosciuto P, ottenendo
me al dettato della GUM.
u ≅ Pˆ( 1− Pˆ ) / n ≅ 0 , 017
.
Approccio bayesiano
Il valore P̂=0,03 è una stima puntua- Nell’approccio bayesiano i ruoli del
le. Se vogliamo una “stima per inter- parametro sconosciuto e delle osservalli”, con proprietà statistiche asse- vazioni si invertono. Il parametro P, in
gnate, l’approccio frequentista ci quanto incognito, è modellato come
mette di fronte a un problema logica- una variabile aleatoria, mentre il numente involuto e tecnicamente labo- mero di saldature difettose osservate,
rioso. Dobbiamo determinare un X, è una quantità deterministica. Il
intervallo aleatorio I=[P̂1;P̂2] tale che problema di stima consiste nella deterPr(P ∈I )=cl, e cioè un intervallo di con- minazione della densità di probabilità
fidenza I con livello di confidenza cl. di P condizionata all’osservazione di
Per il parametro P di una binomiale X, f (p|X). Questa si ricava con la forP
questa è faccenda complessa. La solu- mula
di Bayes, che in questo caso si
zione tecnicamente più esatta [4] è scrive:
data dalla formula (calcolata per un
livello di confidenza del 90%):
f x X p fP ( p )
fP p X =
(2)
f
X
p
f
p
dp
(
)
∫
x
P
I = B(1−cl ) / 2 ( x , n − x + 1);
[
( )
]
( )
( )
dove fX(X |p) è la probabilità (1), calcolata per x uguale al valore osservato X=3. La fP (p) è la distribuzione a
priori del parametro P, cioè una di= [0 , 0082; 0 , 0757 ]
stribuzione che descrive le informazioni disponibili su P prima di eseguidove Ba(a,b) è il quantile α-esimo re le saldature.
u = P( 1− p ) / n . Naturalmente, an- della distribuzione Beta di parametri Poiché P è compresa tra 0 e 1, in as; B(1−cl ) / 2 ( x + 1, n − x ) =
(3)
T_M ƒ 273
N. 04ƒ
; 2013
▲
GLI
ALTRI TEMI
senza di altre informazioni una scelta
naturale per fP (p) è la distribuzione
uniforme in [0;1] (considerando tutti i
valori di P ugualmente probabili). La
distribuzione a posteriori risultante è
in Fig. 2. Analiticamente è una distribuzione Beta, B(X+1, n–X+1), ma può
anche essere calcolata numericamente con applicazione diretta della (2).
Dovendo scegliere una stima puntuale
per P possiamo optare per il valore
atteso, P̂=E[P]=0,0392, oppure per il
valore modale, P̂=arg max fP(p |X)=0,03
(che coincide con l’“intuitiva” stima
frequentista). L’incertezza della stima è
u=std[P]=0,0191.
Se vogliamo una stima per intervalli
con proprietà statistiche assegnate, il
problema questa volta è d’interpretazione e soluzione assai semplice.
Occorre individuare, per la distribuzione di Fig. 2, un intervallo che racchiuda un’area di probabilità assegnata, la “probabilità di copertura”
cp, per esempio del 90%. Nel caso in
esame, per cp = 90%:
Questo intervallo (“di copertura”, o
“di credibilità”, o “bayesiano”), è
rappresentato in Fig. 2.
La soluzione bayesiana qui esposta,
contrariamente a quella frequentista,
è completamente conforme al dettato
della GUM.
ONORI E ONERI
DELL’APPROCCIO BAYESIANO
Confrontando i procedimenti, e le Figg.
1 e 2, ci si dovrebbe forse chiedere, a
parere dell’autore, perché mai qualcuno si ostini a usare l’approccio frequentista. I vantaggi dell’approccio bayesiano sono ovvi, e tra essi i seguenti:
1. Lo stimatore frequentista può assumere (in questo esempio) solo valori
discreti.
2. Nel caso frequentista abbiamo a
che fare con distribuzioni sconosciute
e incertezze stimate, in quello bayesiano le distribuzioni e le incertezze
sono prive d’incertezza.
3. L’approccio bayesiano risponde
alla domanda logica: “quanto è proI = B(1−cp ) / 2 ( x + 1, n − x + 1);
babile che P si trovi in un certo intervallo?” Nel caso frequentista questa
B(1+cp ) / 2 ( x + 1, n − x + 1) =
(3) domanda non ha risposta e non ha
neanche senso.
4. Con l’approccio bayesiano pos= [0 , 0136; 0 , 0750]
siamo adattare il criterio di scelta
della stima puntuale alle esigenze del
problema. Per certi casi
potremmo preferire il valore
modale, per altri il valore
atteso. Nel caso di distribuzione a posteriori multimodale, possiamo formulare
risposte complesse, del tipo
“i valori più probabili sono x
e y”.
5. Con l’approccio bayesiano è possibile integrare nella
stima le informazioni a priori
disponibili. Se, per esempio,
siamo certi che il tasso di
difettosità della saldatrice
non può superare il 10%,
possiamo usare una distribuzione a priori fP (p) uniforme
Figura 2 – Distribuzione a posteriori del tasso di difetti P
di una saldatrice, per una distribuzione a priori
in [0 - 0,1].
uniforme in [0;1]. In rosso sono evidenziati
In realtà proprio le ultime
valore modale e valore medio.
due caratteristiche, che moL’area celeste è un intervallo di credibilità al 90%
strano bene la potenza e la
[
]
T_M ƒ 274
raffinatezza dell’approccio bayesiano, sono anche il suo tallone d’Achille. La n. 4 ci mette in difficoltà se
abbiamo bisogno una regola unica,
uno standard, per scegliere la stima
puntuale. La GUM risolve decretando
che la stima puntuale è sempre il valore atteso, cioè P̂=3,92%.
La questione seria però è rappresentata dalla “possibilità” d’integrare
nella stima le informazioni a priori
disponibili. Questa purtroppo non è
solo una possibilità, ma anche un
obbligo: si deve scegliere una qualche fP (p), e la scelta può essere difficile. Per risolvere il problema si
possono seguire diverse strade, che
danno luogo a diversi tipi di bayesianismo.
Se non si dispone d’informazioni frequentiste, ma di opinioni e convinzioni a priori su P – per esempio, P
secondo noi non può superare il valore del 5%, e lo diciamo perché siamo
esperti – possiamo fissare fP (p) di conseguenza. Questo è il bayesianismo
soggettivo.
Se non si dispone d’informazioni frequentiste, e non si vogliono introdurre scelte soggettive nell’analisi, allora si dovrà fissare fP (p) in modo da
“far parlare i dati”, e cioè in modo
tale che la scelta di fP (p) abbia la
minima influenza possibile sul risultato finale. Questo è il bayesianismo
oggettivo.
Il bayesianismo soggettivo ha molti
usi pratici. È una eccellente “macchina sillogistica”, adatta a trarre conclusioni coerenti da un insieme di
dati e da determinate opinioni. Esso,
però, è difficilmente proponibile in
un ambito di comunicazione scientifica, o in qualsiasi situazione in cui
sia necessaria una sostanziale incontestabilità dei risultati. Per queste
situazioni rimane il bayesianismo
oggettivo, che è poi quello effettivamente applicato nell’esempio illustrato. (A rigore dovrebbe essere citato
anche il “bayesianismo empirico”,
una tecnica avanzata che, comunque, è essenzialmente un bayesianismo oggettivo). I concetti del bayesianismo oggettivo sono anche quelli
utilizzati nell’impianto concettuale
della GUM e del S1.
N. 04ƒ
;2013
Le raffinatezze
del bayesianismo oggettivo
Il bayesianismo oggettivo è una metodologia potente e una teoria affascinante, ma è decisamente per esperti, e
non si presta a essere applicata meccanicamente [5]. Ad esempio, la soluzione che abbiamo presentato al problema della saldatrice non è indiscutibile, ma ha una certa arbitrarietà.
La mancanza d’informazioni a priori
su P è stata codificata con una distribuzione uniforme in [0;1]. Sembra una
scelta ovvia, ma se il problema fosse
formulato in termini di un altro parametro Θ, (per esempio Θ=P2) dovremmo attribuire una distribuzione uniforme a Θ. Qual è il “parametro privilegiato”, con distribuzione uniforme?
Questo problema può essere risolto fissando la fP (p) con la “regola di Jeffreys” [6], che assicura l’invarianza per
una riparametrizzazione, senza dover
scegliere una parametrizzazione privilegiata. In alcuni problemi la regola ha
un ruolo fondamentale. Stimando la
deviazione standard di una gaussiana,
una distribuzione a priori uniforme
(fΣ(σ)∝1) dà risultati non buoni. Con la
regola di Jeffreys si fissa fΣ(σ)∝1/σ, e si
ottengono risultati corretti.
Nel caso della stima di P, la fP (p)
della regola di Jeffreys è la distribuzione arcoseno, e i risultati finali sono
un po’ diversi da quelli presentati
sopra: P̂=E[P]=0,0347, P̂=arg max
fP(p|X)=0,0253. La differenza non è
grande, ma nemmeno trascurabile.
A volte, tuttavia, anche la regola di
Jeffreys non dà buoni risultati. Per
ovviare a questo, la teoria offre altri
metodi per la scelta della fP (p), dal
principio di massima entropia alle
“reference prior” di J. Bernardo [7].
Però una regola che va bene sempre
semplicemente non esiste: ogni problema di stima richiede uno studio a sé
stante. Questo non è un ostacolo per
uno statistico professionista, ma lo è se
si desidera un metodo automatico per
derivare stima e incertezza. Di fatto,
anche nel semplice problema proposto, con l’approccio bayesiano abbiamo ricavato due diverse distribuzioni e
▲
BAYESIANISMO OGGETTIVO
E GUM
GLI
ALTRI TEMI
quattro diverse stime, da un minimo di 0,025 a un massimo di
0,039. Ma il peggio deve ancora venire.
Il problema fondamentale del
bayesianismo oggettivo, per
quanto riguarda la sua implementazione nella GUM, è che
alle distribuzioni ottenute non si
applicano le normali leggi di
propagazione.
Il paradosso di Stein
Se dobbiamo scommettere sul
Figura 3 – Distribuzione di P2, ricavata dalla
valore X che risulterà dal lancio
distribuzione di Fig. 2. Sono evidenziate due
di un dado, supponendo di possibili stime puntuali di P2, e cioè il valore modale
avere una perdita propor- e il valore medio. Questa distribuzione non è corretta,
e le stime non sono accettabili
zionale al quadrato della differenza tra la scommessa X̂ e il
risultato del lancio X, la scommessa deve essere X̂=E[X]=3,5. Se prossimativa) della distorsione, o bias,
dobbiamo scommettere su quale valore si deriva immediatamente uno stimato2
=
assumerà Y=X2, la risposta deve essere re corretto: Ŷ′ Ŷ – var[P̂]P̂ –P̂(1–P̂)/n.
2+
Si
noti
che,
come
nell’articolo
preceŶ=E[Y]=E[X] var[X]=15,17. In altre
dente
[2],
dove
l’approccio
bayesiaparole, è sufficiente calcolare la propano somma (Ŷ=E[P]2+var [P]), l’approcgazione della distribuzione.
2
Se dobbiamo scommettere sul valore cio frequentista sottrae (Ŷ=P̂ –var [P̂]).
Nemmeno
il
paradosso
di
Stein
è un
che assumerà la variabile aleatoria P,
ostacolo
per
uno
statistico
professionidi cui conosciamo la distribuzione, la
nostra risposta (stima) è P̂=E[P]=0,0392. sta. Per avere una stima bayesiana
2
Ma se dobbiamo scommettere sul va- corretta di P , si dovrà applicare il
2
procedimento
delle “reference priors”
lore di Y=P , perché ci interessa la prodescritto
da
J.
Bernardo in [7] (seziobabilità di avere due saldature consecutive difettose, possiamo applicare a ne 5.3). Esso consiste nel definire e
P la propagazione, rispondendo usare una nuova distribuzione a priori per la quantità Y=P2, perché quelŶ=E[P2]=E[P]2+var[P]=0,001904?
La risposta è no. La distribuzione a posteriori di P2 (Fig. 3),
ricavata da quella in Fig. 2, purtroppo non è corretta. Questo è
un fatto ben noto della metodologia bayesiana oggettiva, osservato per la prima volta da Stein
(1959) nell’ambito della cosiddetta “statistica fiduciale” [8], e
studiato approfonditamente, con
riferimento alla GUM, in [9].
Si deve notare che, se invece
seguiamo il “brutto” approccio
frequentista, la propagazione è
semplice. Calcoliamo la distribuzione di Ŷ=P̂2 (Fig. 4), propaFigura 4 – Distribuzione di probabilità
gando quella di Fig. 1. Ci acdi P2=(X/n)2, ricavata da quella di Fig. 1.
corgiamo che il valore atteso di
La media della distribuzione (linea rossa continua)
non coincide col valore P2=0,0009 (linea rossa
Ŷ non coincide col parametro
2
tratteggiata).
Di conseguenza lo stimatore è distorto:
da stimare, perché E[Ŷ]=P +var
lo stimatore corretto è P2 – bias
2
[P̂ ]>P . Dalla correzione (ap-
T_M ƒ 275
la usata per P non va più bene (“the
use of such a prior overwhelms what
the data have to say” [7]).
Il S1 della GUM, però, parla solo di
distribuzioni in senso bayesiano, e
della loro propagazione; non certo
delle reference prior di Bernardo. In
molti hanno, infatti, osservato i risultati
“strani” del S1 almeno in alcune occasioni, e hanno formulato correzioni,
per esempio implementando, a valle
della propagazione Monte Carlo, una
procedura numerica supplementare
con l’obiettivo di applicare la prior
distribution “giusta” [10].
Alla luce di quanto esposto, rimane,
a parere dell’autore, un dubbio. Una
teoria complessa e delicata, come il
bayesianismo oggettivo, è veramente
adatta a definire procedimenti automatici per la valutazione di stime e
incertezze, e in particolare per la
loro propagazione? E poi, come fare
per valutare l’incertezza di stime frequentiste? Dovremmo proibirle?
CONCLUSIONI
Esaminando le caratteristiche dei due
approcci rivali all’inferenza statistica, il
frequentista e il bayesiano, si capisce
per quale motivo il secondo sia stato
preferito per l’impostazione della GUM,
ma si capisce anche perché questa scelta abbia provocato problemi. La questione centrale di cui si occupano la
GUM e il S1 è la propagazione, che è
proprio l’operazione più difficoltosa di
tutte nell’approccio bayesiano. Essa
richiede di definire una nuova distribuzione a priori per ogni nuovo problema
di propagazione, e non esiste un modo
semplice e automatico per farlo. Nello
schema frequentista, per quanto involuto e “brutto”, la propagazione risulta
invece estremamente semplice.
Come nel precedente articolo abbiamo
visto che, quando si propaga una
grandezza incerta, la stima bayesiana
prevede una somma, mentre quello frequentista prevede una sottrazione.
Questo fenomeno può essere chiarito
in modo molto semplice, senza tirare in
ballo distribuzioni a priori e la loro
complicata teoria; ma questa è materia
per un ulteriore approfondimento.
T_M ƒ 276
N. 04ƒ
; 2013
▲
GLI
ALTRI TEMI
RIFERIMENTI
[1] B. Efron, “Bayesians, Frequentists,
and Scientists”, J. Am. Stat. Assoc.,
vol. 100, pagg. 1-5, 2005.
[2] N. Giaquinto, “Incertezza di misura: teoria coerente o edificio da ricostruire? Parte 1: il Supplemento 1
della GUM e il suo paradosso”,
Tutto_Misure, vol. XV, n. 3, pagg.
189-194, set. 2013.
[3] M. Bayes e M. Price, “An Essay
towards Solving a Problem in the Doctrine of Chances. By the Late Rev. Mr.
Bayes, F.R.S. Communicated by Mr.
Price, in a Letter to John Canton,
A.M.F.R.S.”, Philos. Trans., vol. 53,
pagg. 370-418, gen. 1763.
[4] Clopper, C.J. e E.S. Pearson, “The
Use of Confidence or Fiducial Limits
Illustrated in the Case of the Binomial”, Biometrika, vol. 26, n. 4,
pagg. 404-413, dic. 1934.
[5] J. Berger, “The Case for Objective
Bayesian Analysis”, Bayesian Anal.,
vol. 1, n. 3, pagg. 385-402, 2006.
[6] H. Jeffreys, “An Invariant Form for
the Prior Probability in Estimation Problems”, Proc. R. Soc. Lond. Ser. Math.
Phys. Sci., vol. 186, n. 1007, pagg.
453-461, set. 1946.
[7] J.M. Bernardo, “Reference Posterior Distributions for Bayesian Inferen-
ce”, J.R. Stat. Soc. Ser. B Methodol.,
vol. 41, n. 2, pagg. 113-147, 1979.
[8] C. Stein, “An Example of Wide
Discrepancy Between Fiducial and
Confidence Intervals”, Ann. Math.
Stat., vol. 30, n. 4, pagg. 877-880,
1959.
[9] F. Attivissimo, N. Giaquinto, e M.
Savino, “A Bayesian paradox and its
impact on the GUM approach to
uncertainty”, Measurement, vol. 45,
n. 9, pagg. 2194-2202, nov. 2012.
[10] A.B. Forbes, “An MCMC algorithm based on GUM Supplement 1
for uncertainty evaluation”, Measurement, vol. 45, n. 5, pagg. 11881199, giu. 2012.
Nicola Giaquinto è
Professore Associato di Misure Elettriche ed Elettroniche presso il Dipartimento di Ingegneria Elettrica e dell’Informazione
del Politecnico di Bari. I suoi principali
interessi di ricerca riguardano l’elaborazione numerica dei segnali per le
misure e la sensoristica, i modelli matematici per le misure, l’affidabilità e la
qualità, e le problematiche teoriche relative alla definizione e alla valutazione
dell’incertezza di misura.
Abbonarsi ORA per 2 anni a
TUTTO_MISURE
LA RIVISTA DELLE MISURE E DEL CONTROLLO QUALITÀ - PERIODICO FONDATO DA SERGIO SARTORI
ORGANO UFFICIALE DELL’ASSOCIAZIONE “GMEE” E DI “METROLOGIA & QUALITÀ”
CONVIENE!!!
70 euro (anziché 80)
L’abbonamento biennale Vi offre 8 numeri cartacei
+ 8 telematici (Tutto_Misure News)
Per richiedere le modalità di abbonamento,
telefonare al n° 011/0266700
o inviare una e-mail a:
[email protected]
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
▲
LA COMPATIBILITÀ ELETTROMAGNETICA
Carlo Carobbi 1, Alessio Bonci 1, Marco Cati 2
Strumentazione di base
nelle misure di CEM
Modello del Circuito Equivalente del Generatore di Impulsi Combinato
1,2/50 – 8/20 µs secondo la futura norma IEC 61000-4-5 ed. 3
EQUIVALENT CIRCUIT MODEL OF SURGE GENERATOR
ACCORDING TO THE FUTURE IEC 61000-4-5 ED.3 STANDARD
In the present issue of Tutto_Misure the elementary equivalent circuit model
of the surge generator is derived. Such equivalent circuit is capable to
reproduce the standard waveform that will be specified by the future edition
3 of IEC 61000-4-5 in the defined loading conditions for the generator. The
present paper completes the previous one published in issue 3/2013 of
Tutto_Misure.
RIASSUNTO
In questo numero di Tutto_Misure deriviamo il circuito equivalente elementare del generatore di surge. Tale circuito equivalente è capace di riprodurre la forma d’onda normalizzata dell’impulso che sarà specificata nella
futura edizione 3 della norma IEC 61000-4-5 nelle condizioni di carico previste per il generatore. Il presente articolo è il completamento del precedente pubblicato nel n. 3/2013.
INTRODUZIONE
Nel momento in cui questo articolo
viene scritto, l’edizione 3 della norma
IEC 61000-4-5 è in forma di bozza
(CDV) [1]. Alcune importanti modifiche sono previste nella futura edizione 3 rispetto all’attuale edizione 2 [2]
relativamente alla verifica dei parametri della forma d’onda ai terminali
del generatore.
La prima novità è che la verifica è
effettuata utilizzando un condensatore
da 18 µF in serie all’uscita del generatore, sia in condizioni di circuito
aperto che di corto circuito. Il condensatore da 18 µF è stato introdotto
per rendere coerente la verifica ai
morsetti del generatore (NdA: necessariamente per assicurare l’intercambiabilità dei generatori) con quella
alla porta EUT della CDN per l’accoppiamento linea-linea all’alimentazione AC/DC (brevemente, 18 µF
CDN nel seguito). Il condensatore ha
un effetto trascurabile sulla tensione a
circuito aperto, ma ha un impatto
significativo sulla corrente di corto circuito. Poiché l’intenzione del gruppo
di lavoro responsabile del manteni-
punto a metà ampiezza del fianco
discendente dell’impulso. Nella futura
edizione 3 (vedi Fig. 2) la durata sarà
sostituita dalla larghezza dell’impulso, definita come l’intervallo di tempo
tra i punti a metà ampiezza. La larghezza dell’impulso di corrente di
corto circuito Twi, è fissata a
20/1,18 µs (cioè 16,9 µs), dove
1,18 è un coefficiente empirico
(abbastanza vicino al valore di 1,19
derivato nel precedente articolo [4]).
La larghezza dell’impulso di tensione
a circuito aperto, Twv, è fissata a 50
µs. Infine il tempo di fronte è sostituito
mento dello standard è di lasciare
invariati i valori nominali dei parametri delle forme d’onda del segnale sia
ai morsetti del generatore, sia alla
porta EUT della 18 µF CDN, allora la
soluzione più ragionevole è quella
d’introdurre lo stesso condensatore da
18 µF anche nel setup di verifica, in
serie con l’uscita del generatore. Si
noti che la verifica alla porta EUT
della 18 µF CDN era già stata prevista dopo la pubblicazione dell’edizioFigura 1 – Forma d’onda tipica della corrente
ne 1 della norma [3].
di cortocircuito 8/20 µs del generatore
di surge. Parametri definiti in accordo
Ciononostante, in base all’esperienza
all’edizione 1 [2] e 2 [3] della IEC 61000-4-5
maturata da allora, molti generatori
attualmente utilizzati dai laboratori
mal soddisfano, o non soddisfano
affatto, gli stessi requisiti sia ai morsetti del generatore, sia alla porta EUT
della 18 µF CDN, in particolare se si
tiene conto dell’incertezza di misura 1 Università di Firenze, Dipartimento
nella valutazione di conformità. La di Ingegneria dell’Informazione
ragione di ciò sarà chiara a breve.
2 Elettra srl – Calenzano, FI
La seconda novità è la modifica della
definizione della durata della forma [email protected]
d’onda dell’impulso. Nelle edizioni 1 Estratto e adattato per Tutto_Misure da: Carlo
e 2 (vedi Fig. 1) la durata è definita F.M. Carobbi, A. Bonci “Elementary and
Ideal Equivalent Circuit Model of the
come l’intervallo di tempo compreso 1,2/50 – 8/20 µs Combination Wave
tra l’origine virtuale (O) della scala Generator”, in corso di pubblicazione
temporale e l’istante corrispondente al su IEEE EMC MAGAZINE
T_M
N.
T_M
4/1
3 ƒ 277
N. 04ƒ
; 2013
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
È evidente che non è possibile adottare la stessa
procedura di progettazione descritta nel precedente
articolo [4]. È comunque
possibile pre-distorcere la
Figura 3 – Circuito equivalente standard
forma d’onda della correndel generatore di surge 1,2/50 – 8/20 µs
te
di cortocircuito generata
come richiamato dalla bozza dell’ed. 3
in assenza del condensatodella IEC 61000-4-5 [1]
re da 18 µF in modo che,
quando il condensatore è
– il tempo di salita si riduce da inserito, i parametri di forma d’onda
della corrente di cortocircuito coinci6,4 µs a 5,7 µs;
– la larghezza dell’impulso dano con i valori nominali riportati in
Figura 2 – Forma d’onda tipica della corrente
passa da 16,9 µs a 14,3 µs, Tab. 1, con un errore trascurabile
di cortocircuito 8/20 µs del generatore
l’undershoot aumenta da 0,34 a rispetto alle tolleranze. Questo risultadi surge. Parametri definiti in accordo all’edizione 3
to può essere ottenuto attraverso una
0,44.
(bozza) [1] della IEC 61000-4-5
Alcune interessanti considera- procedura di trial-and-error, che in
zioni sono suggerite da questi pratica converge in due passi, se un
dal tempo di salita, Tri, dal 10% al risultati. In primo luogo, un generato- errore dell’ordine dell’1% è conside90% per la corrente di corto circuito, re progettato per il rispetto dei requi- rato soddisfacente (altrimenti sono
e dal 30% al 90% per la tensione a siti di forma d’onda previsti dall’edi- necessari più passi d’interazione). Si
circuito aperto, Trv. I nuovi parametri zione 2 molto probabilmente non noti che, poiché l’inserimento del condelle forme d’onda previsti dalla futu- rispetterà i parametri previsti dalla densatore da 18 µF non ha alcun
ra edizione 3 sono riportati in Tab. 1. futura edizione 3. In secondo luogo, effetto sulla tensione a vuoto, i paraun generatore progettato per il rispet- metri di questa forma d’onda corrito dei parametri di forma d’onda in spondono esattamente ai valori nomiPROBLEMA DI PROGETTAZIONE corrispondenza dei terminali EUT nali di Tab. 1.
della 18 µF CDN molto probabilmen- Per chiarezza illustriamo brevemente
PER L’EDIZIONE 3
te rispetterà anche i vincoli della futu- la procedura trial-and-error. Il primo
DELLA IEC 61000-4-5
ra edizione 3 della norma. In terzo passo di pre- distorsione è il seguente:
Il cambiamento più critico è senza luogo, il requisito presente nelle edi500
dubbio l’introduzione del condensato- zioni 1 e 2 della norma secondo cui il
lP =
500 = 555 A ,
450
re da 18 µF, mentre la nuova defini- generatore deve soddisfare gli stessi
zione dei parametri della forma d’on- parametri di forma d’onda, sia ai
6, 4
Tn =
6, 4 = 7 , 2 µs
da ha in effetti un impatto marginale. propri terminali sia ai morsetti EUT
5, 7
In Fig. 3 è riportato il modello del cir- della 18 µF CDN, è decisamente
cuito equivalente del generatore pre- ambiguo.
16, 9
Twi =
16, 9 = 20 µs
visto per l’adozione del condensatore Torniamo al problema di progetta14 , 3
.
da 18 µF in uscita. Utilizzando i valo- zione del generatore di surge. Cori dei parametri circuitali previsti per me possiamo determinare un insieVP
l’edizione 2 (vedi precedente articolo me di valori dei parametri del cir- Si noti che ora R = l = 1, 8 Ω .
P
cuito equivalente del generatore di
[4]) il risultato è che:
– la corrente di picco si riduce da surge di Fig. 3 in modo che i requi- Con questi valori di partenza pre-di500 A a 450 A (assumendo un valo- siti di Tab. 1 siano soddisfatti quan- storti dei parametri della forma d’onre di picco VP della tensione di uscita do è inserito il condensatore da da si ottengono, seguendo i passaggi
descritti nel precedente articolo [4], i
18 µF?
a vuoto pari a 1.000 V);
seguenti valori dei parametri circuitali: R3=25,8 Ω, C=8,84 µF,
L=10,8 µH, R1=11,1 Ω, R2=0,820 Ω
Tabella 1 – Parametri delle forme d’onda standard di surge IEC 61000-4-5 Ed. 3 (bozza [1])
ed E=1.062 V. Ora, con questi valori
dei parametri del circuito, con il conFORMA D’ONDA
Ampiezza di picco Vp o Ip
Tempo di salita Tr
Larghezza Tw
densatore 18 µF presente, si ottiene:
IP=487 A, Tri=6,2 µs e Twi=16,2 µs.
Circuito aperto
0,5-1-2-4 kV ± 10%
0,72 µs ± 30%
50 µs ± 20%
Secondo passo, pre – distorciamo ancora una volta i parametri della forma
Cortocircuito
0,25-0,5-1-2 kA ± 10%
6,4 µs ± 20%
16,9 µs ± 20%
d’onda come segue:
T_M ƒ 278
N. 04ƒ
;2013
lP =
500
500 = 513 A ,
487
Tn =
6, 4
6, 4 = 6, 6 µs e
6, 2
Twi =
16, 9
16, 9 = 17 , 6 µs .
16, 2
Da questi valori pre-distorti si ottiene
infine: R3=25,5 Ω, C=9,98 µF,
L=10,7 µH, R1=9,39 Ω, R2=0,832 Ω
ed E=1.063 V. I parametri della
forma d’onda della corrente di cortocircuito, con il condensatore da 18 µF
presente, ora sono: IP=496 A,
Tri=6,3 µs e Twi=16,7 µs. In particolare, l’under-shoot è 0,39. Dopo due
passi d’iterazione il massimo errore
sui parametri della forma d’onda
della corrente di cortocircuito è 1,5 %
(sul parametro rise-time, la cui tolleranza è del 20%), mentre i parametri
della forma d’onda di tensione a circuito aperto corrispondono esattamente ai valori nominali, come previsto.
La Tab. 2 consente di confrontare in
sintesi i valori dei parametri del circuito equivalente del generatore di
surge di Fig. 3 per l’attuale edizione
2 e la futura edizione 3 della norma
IEC 61000-4-5. Le variazioni maggiori, nel passare dall’edizione 2 alla
3, sono a carico della resistenza R1
che dimezza all’incirca il suo valore,
e a carico della capacità C che all’incirca lo raddoppia: gli altri parametri
circuitali rimangono pressoché invariati.
CONCLUSIONI
▲
CAMPI E COMPATIBILITÀ
ELETTROMAGNETICA
ca del modello di circuito elementare. Ci si può chiedere, in
particolare, se il circuito è in
grado di riprodurre pienamente
il comportamento di generatori
di surge reali. La risposta è no,
perché non è possibile determinare un modello circuitale lineare generale (cioè valido per
qualsiasi generatore commerciale) capace di riprodurre la
forma d’onda di corrente dopo
l’istante del primo attraversamento di zero della corrente di
cortocircuito. Per dimostrare
Figura 4 – Corrente di corto circuito misurata
questa affermazione confrontiasu un generatore commerciale, livello 2 kA.
mo la Fig. 4 con la Fig. 5 in cui
L’impulso presenta un vistoso under-shoot
sono mostrati gli andamenti
delle correnti di cortocircuito
generate da un generatore
commerciale a due livelli diversi (2 kA in Fig. 4 e 500 A in
Fig. 5). È da notare che l’impulso in Fig. 4 ha un significativo
under-shoot, mentre l’impulso in
Fig. 5 è praticamente unidirezionale. Questo differente comportamento è da attribuire alla
non linearità del generatore,
che è probabilmente causata
dall’interruttore. Simili differenze possono essere riscontrate
tra i generatori di produttori diversi, ciascuno con la stessa firma caratteristica (oscillante o Figura 5 – Corrente di corto circuito misurata su un
generatore commerciale, livello 500 A. L’impulso è
unidirezionale) a tutti i livelli.
praticamente unidirezionale
Un altro problema è il tempo di
salita dell’interruttore che può
cuitale elementare presentato è la
da solo dominare il tempo di salita simulazione numerica e la previsiodella tensione a vuoto del generatore, ne, piuttosto che il progetto vero e
piuttosto che la
proprio di un generatore, se non
L
costante di tempo
. Per que- come punto di avvio della fase di
sviluppo.
( R2 + R1)
ste e altre non idealità degli interrutRiportiamo qui alcune considerazioni tori impiegati nei generatori, l’applifinali riguardanti l’applicazione prati- cazione principale del modello cir- RIFERIMENTI BIBLIOGRAFICI
Tabella 2 – Valore dei parametri del modello del circuito del generatore di surge:
confronto fra i valori relativi all’edizione 2 e 3
Edizione
R1 [Ω]
R2 [Ω]
R3 [Ω]
L [µH]
C [µF]
E [V]
2
20,2
0,814
26,1
10,9
5,93
1.060
3
9,39
0,832
25,5
10,7
9,98
1.063
[1] IEC 77B/685/CDV, Project number IEC 61000-4-5 Ed. 3.0.
[2] Electromagnetic compatibility
(EMC) – Part 4-5: Testing and measurement techniques – Surge immunity
test, IEC 61000-4-5, Ed. 2.0, 200511.
[3] Electromagnetic compatibility
(EMC) – Part 4-5: Testing and mea-
T_M ƒ 279
N. 04ƒ
; 2013
Carlo Carobbi si è laureato con lode in Ingegneria Elettronica nel 1994
presso l’Università di Firenze. Dal 2000 è Dottore di
Ricerca in Telematica. Dal
2001 è ricercatore presso il Dipartimento
di Elettronica e Telecomunicazioni dell’Università di Firenze dove è docente di
Misure Elettroniche e di Compatibilità
Elettromagnetica. Collabora come ispettore tecnico con l’ente unico di accreditamento Accredia. È presidente del SC
210/77B (Compatibilità Elettromagnetica, Fenomeni in alta frequenza) del CEI.
Marco Cati si è laureato
con lode ed encomio solenne in Ingegneria Elettronica all’Università di Firenze nel 2001. Dal 2013 è
responsabile tecnico del
laboratorio prove e misure Elettra srl. Dal
2005 fa parte del reparto R&S di Esaote
dove è responsabile delle verifiche di
Compatibilità Elettromagnetica su dispositivi ecografici. Collabora come ispettore
tecnico con l’ente unico di accreditamento Accredia. Svolge attività di consulente
nel campo della compatibilità elettromagnetica e della sicurezza elettrica.
Alessio Bonci si è laureato in Ingegneria delle
Telecomunicazioni presso
l’Università di Firenze nel
1999. Lo stesso anno è
passato a Magnetek spa,
dove è stato coinvolto nel progetto e sviluppo di alimentatori a commutazione.
Dal 2002 è insegnante del corso di sistemi elettrici presso lo “Istituto Professionale
Statale Francesco Buitoni” di Sansepolcro. Attualmente svolge il Dottorato di
Ricerca in Ingegneria Industriale e dell’Affidabilità presso l’Università di Firenze.
“Modello del Circuito Equivalente del
Generatore di Impulsi Combinato
1,2/50 – 8/20µs”, TUTTO_MISURE,
anno XV, n° 3, pp. 211-214.
NEWS
▼
surement techniques – Surge immunity
test, IEC 61000-4-5, Ed. 1.1, 200104.
[4] C. Carobbi, A. Bonci, M. Cati,
NUOVI TORSIOMETRI
ROTATIVI PER MISURE
DI COPPIA
Instrumentation Devices propone una vasta
gamma di trasduttori rotativi per misure di
coppia, realizzati secondo varie configurazioni meccaniche e con differenti tecnologie
(telemisura digitale, accoppiamento ottico, trasformatore rotante, slip ring….).
– Versioni a doppia flangia, senza cuscinetti e
di tipo contact-less.
– Esecuzioni ad albero senza contatti striscianti.
– Soluzioni ad alta velocità.
– Versioni per sperimentazione automotive ed
esecuzioni speciali.
I modelli disponibili sono raggruppati in due
principali categorie e permettono di soddisfare varie necessità in un range di misura compreso tra pochi Nm e centinaia di kNm fondo
scala. La categoria dotata di attacchi meccanici a flangia prevede torsiometri di costruzione compatta e adatti a un’installazione “inline” su sistemi di trasmissione meccanica, che
utilizzano tecniche telemetriche ottiche o RF
per la trasmissione dei segnali tra rotore e statore. Privi di contatti striscianti e cuscinetti, offrono elevata affidabilità e lunga vita operativa senza la necessità di alcuna manutenzione periodica; hanno la particolarità di
poter essere forniti in versione brevettata “dual
range”, con due differenti fondi scala di misura selezionabili. La categoria ad albero include vari torsiometri disponibili con diversi tipi
di attacchi meccanici: circolari, quadri, esagonali, ecc. Questi modelli sono disponibili
secondo varie tecnologie di accoppiamento
dei segnali tra rotore e statore: ottico, trasformatore rotante, slip-ring, ecc. Le versioni con
accoppiamento ottico offrono grande affidabilità, lunga vita operativa e minimizzano la
necessità di manutenzione periodica.
Per ulteriori informazioni:
www.instrumentation.it
I SERIALI
MISURE E FIDATEZZA
▲
MISURE E FIDATEZZA
M. Catelani 1, L. Cristaldi 2, M. Lazzaroni 3
Tecniche di analisi
della fidatezza
FMEA – Analisi dei modi ed effetti di guasto
FMEA – FAILURE MODE AND EFFECT ANALYSIS
One of the most important techniques for dependability evaluation is represented
by FMEA – Failure Modes and Effects Analysis. Starting from the knowledge of
the system to be studied, FMEA allows to analyze the effects produced on
the system by a failure of a subsystem or a component.
RIASSUNTO
Il lavoro presenta una delle più importanti e diffuse tecniche di valutazione
della fidatezza. Per l’implementazione dell’analisi occorre disaggregare il
sistema secondo una logica di scomposizione per blocchi funzionali, fino a
livello di componente.
INTRODUZIONE
Nel precedente lavoro [1] è stata presentata una panoramica delle tecniche
più in uso per la valutazione della fidatezza. È nostra intenzione, in questo e
nei lavori a seguire, effettuarne una trattazione più dettagliata iniziando dall’analisi FMEA. L’analisi dei modi e degli
effetti di guasto (FMEA) è una procedura sistematica per l’analisi di un sistema, condotta allo scopo d’individuare i
potenziali modi di guasto, le cause e gli
effetti sulle prestazioni ed eventualmente sulla sicurezza delle persone, dell’ambiente e del sistema [1]. Quando
impiegata in fase di avanzata progettazione, la tecnica di analisi è in grado
di evidenziare le eventuali carenze del
sistema, in modo tale da suggerire le
modifiche necessarie per il miglioramento dell’affidabilità e, più in generale, della disponibilità.
Spesso l’analisi FMEA consente di concentrarsi su questi aspetti e di capire se
l’apparato in esame mantiene, ad
esempio, i requisiti di sicurezza. Prima
di addentrarci oltre nell’argomento è
bene stabilire che in modo più appropriato si dovrebbe parlare di modo di
guasto invece che di guasto. Per modo
di guasto si intende l’effetto (evidenza
oggettiva) dovuto al guasto di un componente o di una parte di un sistema.
La FMEA è un metodo adatto essen-
zialmente allo studio dei guasti di dispositivi realizzati anche con tecnologia diversa (elettrici, meccanici, idraulici, ecc.) o loro combinazione. La
FMEA può anche essere usata per lo
studio delle prestazioni di un software
e delle mansioni, nonché dei comportamenti dell’operatore.
L’analisi è condotta partendo dalle caratteristiche dei componenti di sistema attraverso un processo induttivo: ipotizzando
il guasto di un componente, l’analisi
consente di evidenziare la relazione esistente fra il guasto stesso e i guasti, i difetti, la degradazione delle prestazioni o
dell’integrità dell’intero sistema.
L’analisi FMEA consente di ben comprendere il comportamento di un componente di sistema, quale può essere
una scheda elettronica o un componente meccanico, e come questo influisca
sul funzionamento dell’intero sistema in
particolare nel caso in cui abbia un’avaria. È infatti sempre necessario assicurarsi che un malfunzionamento di una
parte di un sistema non porti all’instaurarsi di situazioni pericolose. In un impianto industriale o in una macchina a
controllo numerico, per esempio, non è
tollerabile che il guasto di un dispositivo
elettronico di una scheda di controllo
possa consentire operazioni ritenute
poco sicure. La scheda su cui si è verificato il guasto dovrà pertanto essere progettata in modo tale che, a guasto pre-
sente, sia inibito il funzionamento del
sistema, o almeno lo siano le operazioni non sicure. La soluzione è di tipo progettuale, e l’analisi FMEA consente da
un lato d’individuare tutti i guasti che, se
non ben previsti, possono dar luogo a
situazioni pericolose, e dall’altro a verificare che le soluzioni adottate risultino
efficienti. Ecco pertanto il motivo per cui,
sebbene sempre utile, è consigliabile
effettuare e aggiornare l’analisi FMEA
durante la fase di progettazione, anche
se può essere uno strumento di verifica
a posteriori della progettazione e di
prova della conformità del sistema alle
specifiche, alle norme, ai regolamenti e
alle esigenze dell’utilizzatore.
Risulta chiaro che i risultati della
FMEA fissano le priorità per i controlli di processo da attuare e le ispezioni previste nel corso della costruzione
e dell’installazione nonché per le prove di qualifica, di approvazione, di accettazione e di messa in esercizio.
Non si vuole ovviamente sminuire l’importanza di una FMEA condotta su un
apparato già progettato. In tal caso,
semplicemente, l’analisi è condotta
come una sorta di verifica a posteriori di quanto realizzato e, a ben vedere, può ritenersi un primo passo utile a definire i requisiti e i criteri progettuali nel momento in cui si riterrà
opportuno riprogettare o anche solo
aggiornare il prodotto.
Una FMEA consente (i) l’identificazione dei guasti ivi compresi i guasti
indotti; (ii) l’individuazione della ne-
1
Università degli Studi di Firenze
[email protected]
2 Politecnico di Milano
[email protected]
3 Università degli Studi di Milano
e INFN Milano
[email protected]
T_M
N.
4/13 ƒ 281
N. 04ƒ
;2013
PROCEDURA OPERATIVA
La procedura per l’analisi FMEA è di
seguito descritta.
Passo 1
Definizione del sistema
In questa fase si definisce il sistema, i
suoi requisiti funzionali, le condizioni
ambientali e le eventuali prescrizioni
legali da rispettare. Nel definire i requisiti funzionali e operativi occorre
precisare, oltre alle prestazioni attese,
anche le funzionalità indesiderate,
ovvero le situazioni che devono essere considerate come condizioni di
guasto. Le condizioni ambientali riguardano la temperatura dell’ambiente di lavoro del sistema, l’umidità, la
pressione e, infine, la presenza o meno di polveri, muffe e salinità. Oltre a
ciò, si devono tenere in debito conto
tutte le problematiche legate alla compatibilità elettromagnetica (EMC). È
bene, infine, verificare quali prescrizioni legislative sono applicabili al
sistema, soprattutto in termini di sicurezza e rischio.
Passo 2 – Elaborazione
dei diagrammi a blocchi
Si elaborano i diagrammi a blocchi
funzionali con lo scopo di chiarire l’interconnessione fra i vari sottosistemi,
circuiti, componenti.
Passo 3
Definizione dei principi di base
Inizialmente è necessario fissare il livello di analisi più adeguato. Il livello ottimale è scelto da chi esegue la FMEA e
il livello più basso possibile è quello
per cui si può disporre delle necessarie
informazioni. In una FMEA relativa a
un sistema elettronico è chiaro che il livello più basso possibile è quello in cui
si analizzano i modi di guasto dei singoli componenti elettronici.
Passo 4
Definizione dei modi di guasto
Si identificano i modi, le cause e gli effetti dei guasti, la loro importanza relativa
e, in particolare, la modalità di propagazione. Il modo di guasto è l’evidenza
oggettiva della presenza di un guasto. È
necessario in questa fase individuare gli
elementi/componenti critici del sistema
ed elencarne i modi di guasto.
I modi di guasto sono dedotti in maniera
diversa a seconda che il componente sia
nuovo oppure già utilizzato. Quando il
componente è nuovo – in assoluto o per
il progettista che, non avendolo mai utilizzato non ha ancora accumulato sufficiente informazione circa il suo comportamento – i modi di guasto si possono
ricercare per similitudine con componenti che hanno la stessa funzione o da risultati dei test del componente sottoposto a
condizioni di lavoro particolarmente gravose. I modi di guasto possono anche
essere dedotti da uno studio teorico del
componente o del sistema. Per componenti già ampiamente utilizzati e conosciuti, invece, i modi di guasto sono generalmente dedotti dalla documentazione fornita dal costruttore e dai dati storici inerenti il suo utilizzo.
I modi di guasto possono essere quasi sempre classificati in uno dei modi
di guasto elencati in Tab. 1.
Una volta definiti i modi di guasto se
ne studiano gli effetti. Infine, si valutano gli effetti del guasto, generali e/o
locali, e l’effetto finale al più alto livello del sistema.
Una ulteriore considerazione merita qui
di essere fatta a proposito dei cosiddetti
guasti di modo comune che sono tutt’altro che infrequenti. Tali sono i guasti
originati da un avvenimento che provoca contemporaneamente stati di guasto
in due o più componenti. I guasti di
▲
cessità di ridondanze e ulteriori sovradimensionamenti e/o semplificazioni del progetto; (iii) la determinazione della necessità di scegliere materiali, parti, dispositivi o componenti
adeguati; (iv) l’identificazione delle
conseguenze gravi dei guasti e pertanto determinare se è necessario rivedere e modificare il progetto oltre che
trovare tutto ciò che può presentare
rischi per la sicurezza e l’incolumità
delle persone o sollevare problemi di
responsabilità legale; (v) l’ottenimento
di aiuto nel definire le procedure di
collaudo e di manutenzione suggerendo i modi potenziali di guasto, i parametri che devono essere registrati
durante il collaudo, le verifiche e l’utilizzazione e nella stesura di guide per
la ricerca dei guasti; (vi) la definizione
di alcune delle caratteristiche del software, se presente [2-3].
I SERIALI
MISURE E FIDATEZZA
Tabella 1 – Elenco dei modi di guasto
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
Guasto alla struttura (rottura)
Grippaggio o inceppamento
Vibrazioni
Non resta in posizione
Non apre
Non chiude
Rimane aperto
Rimane chiuso
Perdita verso l’interno
Perdita verso l’esterno
Fuori tolleranza (in più)
Fuori tolleranza (in meno)
Funziona anche quando non dovrebbe
Funzionamento intermittente
Funzionamento irregolare
Indicazione errata
Flusso ridotto
Attivazione errata
Non si ferma
Non si avvia
Non commuta
Intervento prematuro
Intervento in ritardo
Ingresso errato (eccessivo)
Ingresso errato (insufficiente)
Uscita errata (eccessiva)
Uscita errata (insufficiente)
Mancanza d’ingresso
Mancanza di uscita
Corto circuito (elettrico)
Circuito aperto (elettrico)
Dispersione (elettrica)
Altre condizioni di guasto eccezionali
a seconda delle caratteristiche
del sistema, le condizioni
di funzionamento e i vincoli operativi
Tabella tratta dalla NORMA CEI 56-1
modo comune possono essere riconducibili alle condizioni ambientali, ad assegnazione di prestazioni e/o caratteristiche insufficienti (insufficienze di progetto), a difetti dovuti alla fase realizzativa (difetti di costruzione), a errori di
montaggio, d’installazione, a errori
umani per esempio durante l’esercizio
e/o la manutenzione. L’analisi FMEA
consente anche l’analisi qualitativa di
questi guasti.
Passo 5 – Identificazione
delle cause dei guasti
In corrispondenza di ogni modo di
guasto è bene individuarne la causa.
Tanto maggiore è l’effetto del modo di
guasto tanto più accuratamente deve
esserne descritta la causa.
T_M ƒ 283
▼
Passo 6 – Identificazione
degli effetti dei guasti
Un modo di guasto comporta generalmente effetti in termini di ridotta o mancata funzionalità del sistema, sino ai casi più gravi in cui si instaurano situazioni pericolose per l’operatore e/o per
l’ambiente. Si riconoscono tipicamente
due tipologie di effetti: locali e finali. I
primi sono gli effetti dei modi di guasto
sul componente in esame mentre i secondi sono gli effetti che si evidenziano
a livello di sottosistema/sistema.
Passo 7 – Definizione
dei provvedimenti e dei metodi
per rilevare e isolare i guasti
In questa fase si identificano i provvedimenti e i metodi per individuare e isolare i guasti indicando le modalità da
seguire per rilevare il guasto e i mezzi
da impiegarsi a tal scopo. Lo scopo è
quello di fornire all’utilizzatore, o a chi
effettua la manutenzione, le informazioni necessarie a verificare la presenza o
NEWS
MICROFONI
PER TEST AUTOMOTIVE
PCB Piezotronics è lieta di annunciare il
suo continuo impegno nel dedicare
risorse per sviluppare e implementare la
linea di microfoni conformi agli standard IEC e certificati A2LA (ACCREDIA)
dedicati ad applicazioni automotive.
PCB® è in grado di offrire una vasta
gamma di microfoni per test automotive: microfoni a condensatore, pre-polarizzati, array, sonde, capsule da campo
libero, in pressione e a incidenza casuale. Ognuna di queste tipologie è
proposta a un prezzo competitivo, senza rinunciare a un’elevata qualità e a
un supporto, prima e dopo la vendita,
senza pari sul mercato.
“Oggi l’utente è alla ricerca di misure
qualitativamente superiori, da poter eseguire con sensori performanti ma che
rispettino i budget preposti, consentendogli di misurare con precisione e affidabilità i livelli di pressione sonora, rendendo il lavoro dei tecnici più semplice
e veloce, migliorando i processi di setup e la registrazione dei dati”, ha spiegato Mark Valentino, Product Manager
T_M ƒ 284
N. 04ƒ
; 2013
▲
I SERIALI
MISURE E FIDATEZZA
meno del modo di guasto considerato.
L’FMEA può essere applicata a un processo, a un prodotto ma anche a un progetto, cambiando nei diversi casi le
modalità e i tempi d’individuazione dei
guasti. Quando l’FMEA è applicata a
un processo è necessario stabilire dove
è più efficiente rilevare i guasti: durante
il funzionamento del processo da un
operatore, dal Controllo Statistico del
Processo (SPC) o dal controllo qualità
per citare alcuni esempi. Quando
l’FMEA si applica a un progetto, invece,
si deve porre la massima attenzione
nello stabilire quando e dove un modo
di guasto può essere più facilmente individuato: durante la revisione del progetto, nella fase di analisi, di test ecc.
Passo 8 – Prevenzione
degli eventi indesiderabili
Si identificano i possibili provvedimenti,
di progetto e operativi, per prevenire
gli eventi indesiderati. Oltre alla via più
breve che è quella di risolvere alla radi-
ce il problema in modo che non si verifichino eventi indesiderati, è possibile
ricorrere alla ridondanza, all’utilizzo di
sistemi di allarme e di monitoraggio,
all’introduzione di limitazioni ai danni
ipotizzabili.
Passo 9 – Classificazione
della severità degli effetti finali
La classificazione degli effetti finali viene
fatta tenendo conto dei più svariati aspetti: la natura del sistema in esame, le caratteristiche funzionali e le prestazioni
del sistema, i requisiti contrattuali, i requisiti derivanti da legislazione cogente,
soprattutto in relazione all’incolumità degli operatori e, infine, i requisiti stabiliti
dalla garanzia. Per la classificazione è
possibile fare riferimento alla Tab. 2.
Passo 10 – Guasti multipli
Si ricercano le specifiche combinazioni di guasti multipli da tenere in debito conto.
Passo 11 – Raccomandazioni
Si stilano eventuali raccomandazioni
di PCB Piezotronics. “La PCB è in grado
di proporre un’ampia offerta di microfoni, con tempi di consegna certi e una
politica di garanzia ai massimi livelli di
mercato, cosi da soddisfare le molteplici
esigenze dell’utente finale e dare un
valore aggiunto all’applicazione”.
La PCB® segue le esigenze del cliente fornendo un supporto locale e evoluti servizi pre e post vendita, comprese le riparazioni e le tarature
accreditate (A2LA – o ACCREDIA).
Informazioni su PCB Piezotronics
PCB Piezotronics è leader mondiale
nella progettazione e produzione di
microfoni, accelerometri, sensori di
pressione, forza, coppia, carico e
deformazione, così come il pioniere
della tecnologia ICP®. Questa strumen-
Per ulteriori informazioni:
www.pcbpiezotronics.it
Informazioni sulla Divisione
Automotive di PCB
Con sede a Farmington Hills, Michigan, USA, si dedica alle esigenze di
prova e alla strumentazione necessarie al mercato dei mezzi di trasporto
nella loro globalità (automobili, treni,
navi, motociclette, ecc.). Il team è focalizzato sullo sviluppo e l’applicazione di
sensori per test su veicoli: modal analysis; driveability; ride & handling; component & system performance; durability;
road load data acquisition; vehicle and
powertrain NVH; legislative testing; quality control; powertrain development and
motorsport.
tazione è utilizzata per test di prova,
misure, monitoraggi e requisiti di controllo nel settore automobilistico, aerospaziale, industriale, ricerca e sviluppo,
commerciale, education, applicazioni
militari, OEM e altro ancora. Il nostro
programma di prodotti Platinum garantisce la consegna veloce di oltre
10.000 modelli di sensori.
Tabella 2 – Esempio di classificazione degli effetti finali(*)
Impatto o
gravità/criticità
del guasto
Livello di Criticità
▲
Classe
I SERIALI
MISURE E FIDATEZZA
Effetti di guasto
I
Insignificante
II
Marginale
Evento suscettibile di nuocere al buon
funzionamento del sistema, causando però
danni trascurabili al sistema o all’ambiente
circostante e senza presentare rischi di morti
o menomazioni alle persone.
Evento che nuoce al buon funzionamento
di un sistema senza tuttavia causare danni
notevoli al sistema né presentare rischi
importanti di morti o menomazioni.
Ogni evento che potrebbe causare la perdita
di (una) funzioni(e) essenziali(e) del sistema
provocando danni importanti al sistema o al suo
ambiente, ma con un rischio trascurabile di morti
o menomazioni.
III
Critico
IV
Catastrofico
(*)
Ogni evento che potrebbe causare la perdita
di (una) funzioni(e) essenziali(e) del sistema
provocando danni importanti al sistema o al suo
ambiente e/o che potrebbe causare morti
o menomazioni.
Tratta dalla NORMA CEI 56-1
ove si riportano le osservazioni utili per
chiarire, per esempio, eventuali aspetti
non completamente analizzati, le condizioni insolite, gli effetti dei guasti di
elementi ridondanti, gli aspetti particolarmente critici del progetto, i riferimenti ad altri dati per l’analisi dei guasti
sequenziali e ogni osservazione a completamento dell’analisi.
La Fig. 1 riporta la procedura tipica di
un’analisi FMEA. Le attività contenute
nei riquadri tratteggiati sono generalmente proprie di un’analisi FMECA di
cui si dirà in una successiva memoria.
ni sottosistemi già utilizzati in precedenti progetti. Se le condizioni di utilizzo sono le medesime, è possibile mutuare le considerazioni di fidatezza
fatte in precedenza anche per il nuovo
progetto.
I risultati di una FMEA possono fornire informazioni assai importanti per
fissare le priorità del controllo statistico del processo, del campionamento
in accettazione, delle ispezioni e per
la qualificazione.
Figura 1 – Schema dell’analisi FMEA/FMECA
(la FMECA verrà trattata in una successiva memoria)
CONCLUSIONI
ALCUNI “TRUCCHI”
È chiaro che nel caso si debbano analizzare sistemi complessi l’analisi tende
a divenire assai corposa, tediosa e irta
di possibili ripetizioni. In questi casi l’esperienza dell’autore, o degli autori,
della FMEA gioca un ruolo assai importante. Esistono inoltre alcuni particolari
che tendono a semplificare l’analisi. In
particolare, è bene considerare il fatto
che raramente si è in presenza di un
sistema progettato dal nulla, avendo
spesso a che fare con la revisione di un
sistema già esistente o, anche in caso di
nuovo progetto, si potranno avere alcu-
zioni generali e un approccio alla
valutazione”, Tutto_Misure n. Anno
15, N° 3, mese 2013, pp. 217- 219,
ISSN 2038-6974.
2. M. Lazzaroni, L. Cristaldi, L. Peretto, P. Rinaldi and M. Catelani, Reliability Engineering: Basic Concepts
and Applications in ICT, Springer,
ISBN 978-3-642-20982-6, e-ISBN
978-3-642-20983-3, DOI 10.1007/
978-3-642-20983-3, 2011 SpringerVerlag, Berlin Heidelberg.
3. M. Catelani, L. Cristaldi, M. LazBIBLIOGRAFIA
zaroni, L. Peretto, P. Rinaldi, “L’affi1. M. Catelani, L. Ciani, L. Cristaldi, dabilità nella moderna progettazione:
M. Lazzaroni, “Fidatezza: considera- un elemento competitivo che collega
Il lavoro ha preso in considerazione e
trattato una delle principali tecniche di
analisi della fidatezza: l’analisi dei modi e degli effetti dei guasti (FMEA-Failure Mode and Effects Analisys) In successive memorie saranno illustrati alcuni
esempi applicativi che potranno meglio
chiarire quanto qui esposto. Si segnala,
infine, l’esistenza di una notevole bibliografia sull’argomento [per es. 4-7].
T_M ƒ 285
N. 04ƒ
; 2013
▲
I SERIALI
MISURE E FIDATEZZA
NEWS
▼
Marcantonio Catelani è Professore Ordinario di Misure Elettrisicurezza e certificazione”, Collana
che ed Elettroniche presso il Dipartimento di Ingegneria dell’InforI quaderni del GMEE, Vol. 1 Editore:
mazione dell’Università di Firenze. La sua attività di ricerca si svolA&T, Torino, 2008, ISBN 88ge prevalentemente nei settori dell’Affidabilità, della diagnostica e
90314907, ISBN-13: 9788890314902.
qualificazione di componenti e sistemi, del controllo della qualità e
4. IEC 60812:2006 – Analysis techdel miglioramento dei processi. Fa parte del CT 56 – Affidabilità –
niques for system reliability – Procedel CEI ed è coordinatore di gruppi di ricerca, anche applicata,
dure for Failure mode and effects anadelle
tematiche
citate.
lysis (FMEA).
5. SAE J1739, Potential Failure Mode
and Effects Analysis in Design (Design
Loredana Cristaldi è Professore Associato di Misure Elettriche ed
FMEA), Potential Failure Mode and
Elettroniche presso il Dipartimento di Elettrotecnica del Politecnico di
Effects Analysis in Manufacturing and
Milano. La sua attività di ricerca è svolta principalmente nei campi
Assembly Processes (Process FMEA),
delle misure di grandezze elettriche in regime distorto e dei metodi
and Potential Failure Mode and
di misura per l’affidabilità, il monitoraggio e la diagnosi di sistemi
Effects Analysis for Machinery (Machiindustriali. Fa parte del CT 56 – Affidabilità – del CEI.
nery FMEA), (revision June 2000) (1a
edn., July 1994).
6. AIAG, Potential Failure Mode And
Massimo Lazzaroni è Professore Associato di Misure Elettriche ed
Effects Analysis (FMEA), 3a edn. (July
Elettroniche presso il Dip. di Fisica dell’Università di Milano. La sua
2001).
attività di ricerca è rivolta alle misure per le applicazioni industria7. A.N.F.I.A., FMEA – Linee Guida
li, per la diagnostica dei sistemi industriali, per l’Affidabilità e il
per l’applicazione della FMEA,
Controllo della Qualità. Fa parte del CT 85/66 – Strumenti di misuANFIA QUALITÀ 009, Edizione n. 2
ra delle grandezze elettromagnetiche Strumentazione di misura, di
(2006).
controllo e da laboratorio e del CT 56 – Affidabilità del CEI.
NUOVO SENSORE
LASER TRACKER
Hexagon Metrology ha recentemente
presentato il Leica B-Probe, un sensore
portatile wireless che estende le potenzialità del Leica Absolute Tracker
AT402. Il nuovo sensore è stato studiato per il collaudo, l’allineamento e il
T_M ƒ 286
montaggio di grandi componenti, come
carrozze ferroviarie, veicoli movimento
terra e a uso non stradale o macchinari
agricoli.
Il Leica B-Probe opera entro una distanza
radiale di 10 metri dall’AT402, con una
precisione
di
± 0.2 mm nell’intero campo
di misura, offrendo maggiori
potenzialità e
flessibilità rispetto ad analoghi
sistemi con rilevamento fisso. Il
sensore ha un
peso di soli 190 g,
è certificato IP50
ed è alimentato
con normali batterie AAA. È l’ideale complemento al laser tracker AT 402, al
quale aggiunge
flessibilità e facilità d’uso. Usando il metodo dello spostamento della stazione laser, il campo
operativo del sistema può essere aumentato quasi senza perdita della precisione
di rilevamento. Per componenti di dimensioni ancora maggiori o misure che
richiedono precisioni superiori, si può
usare un retroriflettore standard insieme
al B-Probe, per sfruttare pienamente la
precisione dell’AT402 ed estendere il
campo di misura fino a 160 metri.
“Il B-Probe colma un vuoto tra le misure basate sul riflettore e la nostra
gamma ad alte prestazione e 6 gradi
di libertà basata sul Leica T-Probe e
l’Absolute Tracker AT901”, ha dichiarato Duncan Redgewell, General
Manager della Linea di Prodotti Laser
Tracker di Hexagon Metrology. “Ci
siamo resi conto che molte aziende
che fabbricano gruppi costruttivi di
grandi dimensioni avevano esigenze
di campo di misura, portabilità e collaudo di elementi nascosti ma richiedevano una precisione significativa. Il
B-Probe è stato studiato appositamente per questi utenti”.
Il sensore è già disponibile e viene distribuito attraverso la rete di vendita
mondiale e i rivenditori Hexagon
Metrology. Il B-Probe è semplice come
aggiungere un riflettore a un laser tracker, e qualunque laser tracker AT402
già in uso può essere aggiornato con
un B-Probe dall’utente stesso.
Per ulteriori informazioni:
www.hexagonmetrology.it
I SERIALI
CONFORMITÀ ED EFFICACIA
▲
CONFORMITÀ ED EFFICACIA
Tommaso Miccoli
Dalla Conformità all’efficacia
Parte 6 – Assicurazione qualità dei dati
DATA QUALITY ASSURANCE
In the context of the mature application of the management system of a test
laboratory, the synthesis of the qualitative performance offered by the laboratory itself is certainly to be found in the data deriving from Quality Assurance activities. However, the analysis of this type of data is not usually
done for this purpose. Possibly because of the low conceptual level with
which the Quality Assurance plan is designed, or due to the scarce attention paid to the use of adequate supports for the registration of data – which
should permit a direct interpretation during the next analysis stage, such as
control charts – or due to neglecting the “potential information” that can be
derived from the analysis of the gathered data or their significant contribution to the re-examination of the Quality Assurance plan itself. The purpose
of the present article is to deal with such issues proposing a practical methodology to be used after an adequate fitting to the specific operative reality.
RIASSUNTO
In un laboratorio di analisi, con anni di attività alle spalle o appena aperto, i
dati derivanti dalle attività di AQ esprimono la sintesi del livello di qualità delle
prestazioni fornite. Spesso, però, l’analisi dei dati di AQ non viene effettuata
per la valutazione del grado di maturità dell’applicazione del sistema qualità.
Questo innanzitutto per carenza di criteri con cui elaborare il piano di AQ stesso, poi per la scarsa attenzione dedicata all’utilizzo di idonei supporti nella
registrazione dei dati che ne possano consentire una lettura efficace in sede di
successiva analisi, quali ad esempio le carte di controllo, ed infine, perché non
si tiene conto della “potenzialità informativa” che può essere desunta dalla lettura dei dati raccolti e dal loro significativo contributo nel riesame del piano di
AQ stesso. Nel presente articolo si vogliono affrontare tali problematiche proponendo anche una pratica metodologia da utilizzare dopo opportuna personalizzazione alla singola realtà operativa.
ASSICURAZIONE QUALITÀ (AQ)
E CONTROLLO QUALITÀ (CQ)
Nell’affrontare questi argomenti non
si devono mai perdere di vista i principi guida che devono assistere le
decisioni da prendere. Possiamo
quindi riassumere che le attività di
AQ devono:
• essere programmate tenendo conto
delle priorità delle azioni, della criticità dei risultati e della sostenibilità
del rapporto costi/benefici;
• basarsi sulla continua analisi dei
dati storicamente acquisiti mediante
sistematiche attività di riesame.
Prima di analizzare in dettaglio que-
chiarazione di validazione per quanto concerne i metodi interni, e nella
verifica delle prestazioni per i metodi normati, d’ora innanzi entrambe
chiamate validazione per brevità.
L’impatto sui risultati di prova riguarderà il processo analitico in termini
d’incertezza e accuratezza. Infatti,
l’incertezza e l’accuratezza trovate
in sede di validazione dei metodi
dovrebbero essere garantite in egual
misura in fase di applicazione operativa dei metodi di prova. Questo
compito dovrebbe essere demandato
proprio al Piano di Assicurazione
della Qualità nel quale:
• si analizzano preventivamente
quali e quante attività di Controllo
Qualità sono necessarie per raggiungere un obiettivo di rischio accettabile;
• si identificano quali dati sono necessari per dare evidenza della coerenza tra obiettivi da conseguire (garantire Accuratezza e Incertezza di
validazione) e risultati raggiunti
(Analisi dei dati);
• si definisce quando, come e in che
formato i dati vengono raccolti e
conservati sia ai fini informativi sia
per quelli cogenti;
• si indicano quali responsabilità sono assegnate agli attori coinvolti nel
Piano.
Possiamo ora comprendere più facilmente la differenza tra Assicurazione della Qualità (AQ) e Controllo
Qualità (CQ). Quest’ultimo rappresenta, quindi, la componente operativa dell’attività di Assicurazione
della Qualità e ne è parte integrante.
sti aspetti, però, è opportuno fare
una riflessione sul significato di AQ e
la sua differenza rispetto al termine
CQ, spesso considerati sinonimi.
Nelle normali fasi della vita, con un
contratto di Assicurazione ci si garantisce che al verificarsi di un evento futuro e incerto (rischio), generalmente dannoso per la propria salute o patrimonio, gli impatti provocati da tale probabile evento vengono ridotti nella loro intensità e riportati entro livelli di rischio ritenuti accettabili. Per quanto attiene le attività
di laboratorio, invece, il punto di Tiemme Sistemi - network Kosmosnet
partenza nell’accettabilità del rischio (Padova)
è implicitamente definito nella di- [email protected]
T_M
N.
4/13 ƒ 287
Consiste in una o più attività tecniche
di controllo volte a verificare e dimostrare che il processo analitico “Assicurato” consegua i requisiti qualitativi richiesti dal metodo di prova e/o
da specifiche tecniche cogenti o contrattuali aggiuntive.
Le sequenze e i tipi di controllo vengono eseguiti secondo le modalità e
frequenze previste nel Piano di Assicurazione della Qualità che sarà elaborato considerando il livello di rischio accettabile. Infatti, minore sarà
il livello di rischio accettabile e maggiore sarà l’intensità di attività di CQ;
viceversa quando si possono accettare livelli di rischio maggiori, minore
sarà l’intensità di attività di CQ.
Possiamo identificare, ad esempio
tre livelli di Assicurazione della Qualità in base all’intensità di attività di
Controllo Qualità definiti come Alto,
Medio, Basso (vedasi Fig. 1).
N. 04ƒ
; 2013
▲
I SERIALI
CONFORMITÀ ED EFFICACIA
mente che la criticità maggiore è
a carico dell’operatore in quanto, anche se adeguatamente qualificato e sottoposto a valutazione
periodica delle
prestazioni, il rischio di una probabile disattenzione in sede di
sessione analitica rimane elevato. Questo può
ulteriormente essere aggravato
Figura 2 – Variabile del Processo Analitico e relativa criticità
da alcune caratteristiche dei metodi di prova che
sono state identificate in frequenza di teggio più elevato corrisponde una
esecuzione del metodo, impatto e cri- maggiore criticità.
ticità nell’utilizzo
dei risultati da
parte dell’utiliz- IDENTIFICAZIONE DELL’INTENSITÀ
zatore e com- DI ATTIVITÀ
plessità del meto- DI CONTROLLO QUALITÀ (CQ)
do.
Per quanto ri- Per la determinazione dell’intensità
guarda l’operato- delle attività di controllo qualità occorre la pianificazio- rerà fare una riflessione su quali e
ne dovrebbe es- quante tipologie sono disponibili e
sere schedulata quali caratteristiche qualitative esse
per ciascun ope- vanno a monitorare. In particolare
ratore, mentre queste caratteristiche sono riconduciper quanto attie- bili all’accuratezza delle misure ed
ne le criticità indi- alla ripetibilità della prova. Per la
viduate sui meto- prima caratteristica sono in genere utidi di prova que- lizzati i circuiti interlaboratorio e i
ste saranno utiliz- materiali di riferimento, mentre per la
Figura 1 – Correlazione Rischio Accettabile
e Intensità di CQ
zate per l’indivi- seconda in genere si utilizzano le produazione delle ve in doppio.
IDENTIFICAZIONE
classi di rischio. Nella Tab. 1 a titolo in- La dimensione dell’intensità è rapdicativo è riportato un esempio di defi- presentata dalla frequenza con cui
CLASSI DI RISCHIO
nizione e calcolo delle possibili classi tali attività possono essere effettuate
Per poter procedere operativamente di rischio da impiegare nella classifica- in relazione, ad esempio, a tre livelli
nell’elaborazione del Piano di AQ zione dei metodi. L’indice di rischio (IR) definiti come alta, media e bassa freconviene identificare classi di rischio del metodo viene identificato dalla quenza ottenendo una matrice così
come riportata in Fig. 3.
da associare a ciascun metodo di pro- seguente formula:
va o a gruppi di metodi se applicabile. IR = (criticità uso risultati*Peso)*
I criteri per definire le classi di rischio (complessità metodo*peso)*(frequen- ELABORAZIONE
DEL PIANO DI ASSICURAZIONE
devono prendere in considerazione le za esecuzione*peso)
variabili che interessano il processo Mentre per le classi di rischio posso- DELLA QUALITÀ
analitico. In Fig. 2 sono state riepilo- no essere identificate 4 classi in un
gate in un diagramma di Hishikawa, range di punteggi come indicato nel- Completati i criteri per la definizione
e dal loro esame emerge sostanzial- la Tab. 1 con il criterio che a un pun- delle classi di rischio e assegnando a
T_M ƒ 288
N. 04ƒ
;2013
Tabella 1 – Classi di rischio e classificazione dei metodi
▲
I SERIALI
CONFORMITÀ ED EFFICACIA
In Fig. 4 è riportato, a titolo d’esempio, un possibile schema di Programma di AQ.
REGISTRAZIONI
DEI DATI DERIVANTI
DAI CONTROLLI QUALITÀ
La caratteristica peculiare della registrazione dei dati derivanti dai Controlli Qualità è quella che deve mettere
in evidenza le linee di tendenza inerenti la distribuzione di tali dati man
mano che essi vengono registrati. A
tale scopo si prestano molto bene le
carte di controllo. Ve ne sono di vari tipi in relazione sia al tipo di misurazione (qualitativa/quantitativa), sia alle
esigenze di quali e quante caratteristiche monitorare e il motivo del monitoraggio stesso. Non è oggetto di questo
articolo la trattazione delle carte di
controllo, anche se di seguito si riportano indicazioni di massima.
Una carta di controllo di Shewhart è
un grafico per presentare e confrontare informazioni basate su una sequenza di campioni di dati che rappresentano lo stato corrente di un
processo rispetto a limiti stabiliti.
Consiste in una linea centrale coincidente con il valore di riferimento del
parametro che si vuole osservare,
generalmente coincidente con la media dei valori rilevati. Ha due limiti
di controllo, in genere calcolati statisticamente, uno per ciascun lato della linea centrale chiamati rispettivamente limite di controllo superiore
• la classe di criticità assegnata
a ciascun metodo di prova;
• il tipo di attività di Controllo
Qualità;
• la frequenza
con cui viene
eseguito il controllo qualità.
Sulla base dei
suddetti elementi
è possibile elaborare un Gantt
dove riportare il
Figura 3 – Intensità di attività di Controllo Qualità
piano di AQ
completo in un
formato che è
ogni metodo di prova la sua classe possibile aggiornare man mano che
di appartenenza, si può procedere la situazione evolve.
alla elaborazione del piano di
Assicurazione Qualità. Non vengono riportati nel piano di assicurazione della qualità i controlli di processo previsti dai metodi di prova, ma
gli esiti di tali dati sono comunque
oggetto di valutazione in sede di
riesame, in quanto costituiscono elementi per la variazione della classe
di criticità così come indicato nel successivo capitolo Riesame del Piano
di Assicurazione della Qualità.
Le variabili da considerare per l’elaborazione del Piano di Assicurazione della Qualità sono:
• gli operatori abilitati all’esecuzione delle prove;
Figura 4 – Piano di Assicurazione della Qualità
• i metodi di prova eseguiti;
T_M ƒ 289
N. 04ƒ
; 2013
▲
I SERIALI
CONFORMITÀ ED EFFICACIA
(LCS) e limite di controllo inferiore (LCI).
Esse aiutano a individuare andamenti
non naturali di variazione in dati risultanti da processi ripetitivi e forniscono
criteri per evidenziare l’assenza di
controllo statistico.
Un Processo è in controllo statistico
quando la sua variabilità dipende soltanto da cause non identificabili (variabilità naturale). Determinato il livello
accettabile di variazione, per ogni
deviazione dovrebbe essere identificata la relativa causa ed eliminata o
ridotta. L’obiettivo del controllo statistico di processo è quello di avviare e
mantenere un processo ad un livello
accettabile e stabile all’interno delle
specifiche che sono state definite. L’uso
della carta di controllo e la sua analisi portano ad una migliore conoscenza del processo in esame e facilitano
l’identificazione delle azioni per il suo
miglioramento.
Una volta appurato che il processo
operi in condizioni di controllo statistico, le sue condizioni sono prevedibili e si può valutare preventivamente la sua capacità di soddisfare
le specifiche. Per un approfondimento
sia sulle varie tipologie di carte di controllo esistenti, sia sulle modalità di utilizzo e interpretazione si rimanda alla
norma: “ISO 8258:2004 carte di controllo di Shewhart”.
termine riesame assume una valenza fondamentale per la conduzione
del sistema stesso in quanto rappresenta la traduzione operativa di uno
degli otto principi della qualità: Decisioni basate su dati di fatto”. Anche
il Piano di Assicurazione della qualità non fa eccezione a questo principio e, così come per le normali assicurazioni, viene rivisto, di norma annualmente, il premio assicurativo
sulla base di parametri oggettivi,
anche in ambito Qualità occorre
rivedere l’efficacia di quanto effettuato e sulla base di valutazioni
oggettive verificare se è possibile
garantire lo stesso livello di efficacia
con una maggiore efficienza. Per
maggiore efficienza qui si vuole intendere l’utilizzo di minori risorse a
parità di risultati.
Durante il riesame possono essere
tratte deduzioni sulla capacità di
Governo del Processo analitico da
parte del Laboratorio, che consentono
una gestione personalizzata e più
accurata dell’assegnazione delle
classi di rischio ai vari metodi di prova. Questo dovrebbe consentire di
beneficiare in termini d’intensità di
controlli da fare in relazione alla
reale capacità di esecuzione delle
prove. In questo contesto si realizzerebbe pienamente quanto previsto
da Shewhart nella norma precedentemente citata, in quanto si avrebbeRIESAME
ro informazioni statisticamente significative per poter supportare la deciDEL PIANO DI ASSICURAZIONE
sione di ridurre i controlli in quanto
DELLA QUALITÁ
la conoscenza storica della distribuNei moderni sistemi di gestione il zione dei dati porterebbe ad affer-
mare che il processo può considerarsi efficace (….valutazione preventiva
della sua capacità di soddisfare le
specifiche).
Un esempio pratico potrebbe essere
quello di applicare alla modalità di
calcolo della classe di rischio un fattore di correzione (FC) che va a moltiplicare il risultato inizialmente ottenuto. Questo fattore potrebbe essere
definito nel seguente modo:
• FC = 0,5 se il processo è sotto controllo statistico (vedi nr. 02/2013 di
Tutto_Misure);
• FC = 0,75 se il processo presenta
solo variabilità naturale ma non è
sotto controllo statistico;
• FC = 1 se il processo non è in nessuna delle condizioni precedenti.
Ipotizzando di applicare questa
regola alle classi precedentemente
definite e riportate in Tab. 1 risulterebbe una variazione di classe di rischio per alcuni metodi così come riportato nella Tab. 2. Disponendo di
dati storici statisticamente significativi è possibile utilizzare questo criterio di definizione delle classi di rischio sin dalla prima applicazione
del metodo.
CONCLUSIONI
Il piano di Assicurazione della Qualità oggi è visto dai laboratori di prova principalmente come documento
formale richiesto dalla norma UNI
EN ISO/IEC 17025. Talvolta si configura solamente come un programma di partecipazione ai circuiti inter-
Tabella 2 – Classi di rischio dei metodi a seguito di Riesame
T_M ƒ 290
N. 04ƒ
;2013
NEWS
▼
laboratorio; spesso, oltre ai suddetti
circuiti riporta anche qualche attività
di CQ effettuata internamente con
materiali di riferimento o prove in
doppio, ma quasi mai contiene criteri di elaborazione correlati con un
criterio di gestione del rischio in relazione alle criticità emerse nella gestione del processo analitico. Come
si è cercato di dimostrare in questo
articolo, invece, esso è strettamente
correlato alla validazione dei metodi e interconnesso con la capacità
da parte del laboratorio di dare evidenza della sua capacità di garantire il mantenimento dell’incertezza
di misura nelle condizioni di operatività.
Con riferimento al quaderno UNICHIM 179/0 ed. 2011, esso va visto come un documento appartenente alla categoria di documenti indentificati nella pubblicazione UNICHIM
come “documentazione Gestione
Sistema Qualità” resa disponibile a
seguito della validazione del metodo
di prova assieme alla procedura di
prova e alla dichiarazione di validazione. Come tale il riesame del Piano di Assicurazione della Qualità
LED METROLOGY
Per la misura e caratterizzazione dei
LED, Avantes propone un’intera gamma
di strumentazione e applicazioni per
ogni configurazione di sistema.
Il CIE ha emesso le normative di caratterizzazione dei LED nella sua pubblicazione numero 127, dove è definita l’Intensità
Media LED (ALI). Per rispettare la procedura di misura del CIE bisogna misurare la
ALI dall’alto del LED, con un detector posto
in linea con l’asse meccanico del LED.
Le due grandezze, Superficie dell’apertura
circolare del rilevatore (100 mm2) e Distanza dell’apertura dalla punta del LED, sono
così definite, rispettivamente: standard CIE
Condizione A: la distanza è di 316 millimetri (ILEDA); standard CIE Condizione B:
la distanza è 100 millimetri (ILEDB).
Avantes offre due sistemi configurazioni
per consentire la misura ALI: AvaSpecIRRAD-ILEDA e AvaSpec-IRRAD-
presentato nell’articolo altro non è
che una delle
attività che dovrebbero essere
effettuate in sede
di riesame della
validazione dei
metodi. In Fig. 5
è riportato l’intero ciclo del riesame del Piano di
Assicurazione
della Qualità in
parallelo al riesame della validazione del metodo di prova.
■
I SERIALI
CONFORMITÀ E AFFIDABILITÀ
Figura 5 – Riesame del Piano di Assicurazione della Qualità
correlato con il riesame della validazione dei metodi
Tommaso Miccoli Laureato in Scienze Strategiche e Scienze
Politiche è amministratore della Tiemme Sistemi sas. Membro
fondatore del network Kosmosnet. Si occupa della Progettazione, Sviluppo e Ottimizzazione di Processi Organizzativi e di
Supporto alla definizione di Strategie e ottimizzazione dei
Sistemi di Governance. Lead Auditor Certificato di Sistemi di
Gestione. Collabora con Accredia in qualità di Ispettore di
Sistema dal 1998.
ILEDB, che corrispondono alla condizione A e B, rispettivamente.
il sistema si basa sugli spettrometri AvaSpec2048-USB2 e AvaSpec3648-USB2,
configurati con una fenditura 25 µm e
600 linee/mm di reticolo, che coprono la
gamma 360-880 nm e forniscono 0,7 nm
(FWHM) di risoluzione. Un cavo a fibra
ottica (FC-UV200-2) è accoppiato allo
strumento e termina nella Sfera d’integrazione AvaSphere-IRRAD-30, che si accoppia con il corrispondente ILED-TUBE-A o
ILED-TUBE-B.
Il sistema d’irraggiamento è calibrato con
una sorgente NIST specifica per la lunghezza d’onda spettrale (µW/cm2/nm).
L’ILED TUBE-A o -B è accoppiato con l’Ava
LED-Holder-5mm (LED per 5mm /T 13/4
LED), che è accoppiato con un alimentatore di corrente stabilizzato.
Il sistema può essere gestito utilizzando
AvaSoft, che elabora i seguenti parametri:
Intensità media LED, X, Y, Z, x, y, z, u, v,
CRI, Colore Temperatura, Lunghezza
d’onda dominante, Complementare Lunghezza d’onda dominante, FWHM, Centroide, Lunghezza d’onda di picco e
Purezza.
Il sistema viene fornito di serie con lo
spettrometro, fibra ottica metal jacketed
di 2 metri, Avasphere - IRRAD – 30, alimentazione AvaPower -LED, IRRAD-CALVIS calibrazione irradianza, AvaSoft Full
& IRRAD.
Facoltativamente il sistema può essere
configurato con lunghezze delle fibre
più lunghe. Il controllo del sistema Avantes è possibile tramite libreria (DLL ) con
LabView, C #, C++ e una serie di altri
ambienti di programmazione.
Gli strumenti Avantes sono distribuiti in
Italia da OPTOPRIM:
www.optoprim.it
T_M ƒ 291
LETTERE
AL DIRETTORE
▲
A cura di Franco Docchio ([email protected])
La Misura del consumo
di suolo in Italia
Ovvero, la “Misura dell’Autolesionismo”...?
LETTERS TO THE DIRECTOR
This section contains letters, comments and opinions of the readers. Please
write to Tutto_Misure!
RIASSUNTO
In questa rubrica vengono pubblicate lettere dei lettori della Rivista. Continuate a scrivere e a dire la vostra sui principali temi della ricerca, della
didattica delle misure, e dello sviluppo industriale!
Caro Direttore,
ho appena terminato di consultare il
IX Rapporto Ispra sulla “Qualità dell’Ambiente Urbano”, recentemente presentato a Roma, e ripresomi (a fatica) dal “coccolone” che i dati
in esso contenuti mi hanno provocato,
non posso esimermi dal proporli sinteticamente ai lettori della nostra rivista,
esseri umani e cittadini prim’ancora
che ricercatori, docenti, tecnici e operatori del mondo industriale.
Vengo subito ai “numeri” più eclatanti, che sembrano celebrare la lenta
agonia di quello che una volta era il
Bel Paese…
L’Italia perde quotidianamente
70 ettari di suolo: Milano e Napoli hanno cementificato il 60% del proprio territorio, mentre a Roma sono
stati cancellati 35.000 ettari. Nel complesso le 51 aree comunali soggette a
monitoraggio hanno cementificato un
territorio pari a quasi 220.000 ettari
(quasi 35.000 solo a Roma), con un
consumo di suolo giornaliero pari a
quasi 5 ettari di nuovo territorio perso
ogni giorno (sono circa 70 a livello
nazionale). Il 7% del consumo giornaliero in Italia è concentrato nelle 51
città analizzate. La maggior parte dei
Comuni indagati ha destinato a verde
pubblico meno del 5% della propria
superficie: a Messina, Cagliari e Venezia le più alte quote di aree naturali
protette, fondamentali per la conservazione della biodiversità urbana.
Negli ultimi anni il consumo di suolo in
Italia è cresciuto a una media di 8
metri quadrati al secondo e la serie
storica dimostra che si tratta di un processo che dal 1956 non conosce battute d’arresto, passando dal 2,8% del
1956 al 6,9% del 2010. In altre parole, sono stati consumati, in media,
più di 7 metri quadrati al secondo per oltre 50 anni. Questo vuol
dire che ogni 5 mesi viene cementificata una superficie pari a
quella del comune di Napoli e
ogni anno una pari alla somma
di quella di Milano e Firenze. In
termini assoluti, l’Italia è passata da
T_M
poco più di 8.000 km2 di consumo di
suolo del 1956 a oltre 20.500 km2 nel
2010, un aumento che non si può spiegare solo con la crescita demografica:
se nel 1956 erano irreversibilmente
persi 170 m2 per ogni italiano, nel
2010 il valore raddoppia, passando a
più di 340 m2.
Se confrontiamo questi dati con la
realtà in cui viviamo, fatta di milioni
di alloggi vuoti, di migliaia e migliaia
di capannoni abbandonati, di terreni
impermeabilizzati o pesantemente
contaminati da rifiuti tossici (e non ho
fatto ancora esplicito riferimento alle
necessità “alimentari”…!), viene spontaneo domandarci perché si continui
inutilmente a consumare suolo sempre
più vitale per la nostra sopravvivenza
e non si passi invece immediatamente
a considerare il recupero e la ristrutturazione dell’esistente come unica soluzione praticabile.
Credo sia necessario che ciascuno di
noi faccia qualcosa, sia per
sensibilizzare tutti i cittadini
sulla drammaticità della situazione sia per spingere i
nostri pubblici amministratori ad agire veramente a tutela del nostro benessere e del
nostro futuro, oggi trascurati
in nome di una “lotta contro
l’emergenza” che giustifica
qualunque scempio del nostro territorio (a chi volesse
approfondire questo argomento consiglio il sito web
w w w. s a l v i a m o i l
paesaggio.it).
Magari con l’obiettivo (oggi, ahimé, remoto) di poter
un giorno passare dalla misura dell’autolesionismo a
quella del benessere, della
vita comunitaria, della solidarietà, della trasparenza…
Massimo Mortarino
N.
T_M
4/1
3 ƒ 293
▼
Caro Massimo,
pubblico volentieri questa tua lettera,
anche se non strettamente pertinente
con il focus della Rivista. Per due ragioni: la prima è l’esiguità del numero di lettere che mi pervengono, che
vorrei incrementare anche allargando
i temi d’interesse; la seconda è il filo
conduttore che la lega al mio recente
editoriale su Tutto_Misure News
(“Fine della Banana Blu”, T_MNews
3/2013). Dovunque ci si rigiri, qualsiasi Rapporto si legga, uno solo è il
leitmotiv: l’Italia perde. Perde competitività, perde i suoi Gioielli (Alitalia,
Telecom), perde il benessere e i livelli
di occupazione, perde il senso dello
Stato e il senso dell’”altro” inteso come senso del sentirsi parte di una Società coesa, perde il suo habitat (adesso ci si mette anche chi vuole vendere le spiagge!). Dobbiamo stupirci
della cementificazione selvaggia?
NEWS
UNA MACCHINA
CHE INTEGRA
DUE MODALITÀ
DI MISURA 3D
Hexagon Metrology ha presentato la
Micro-Hite 3D DUAL, la nuova macchina
di misura tridimensionale di TESA, in
occasione della fiera EMO ad Hannover,
in Germania. La TESA MH3D DUAL convince per le sue molteplici caratteristiche
innovative; ora gli operatori non dovran-
T_M ƒ 294
N. 04ƒ
; 2013
■
LETTERE
AL DIRETTORE
Costruire è sempre stato indice di benessere: lo è anche all’estero, ma con
la differenza che nei Paesi più socialmente coesi è sempre presente un
“progetto di sviluppo” che da il senso
del costruire. Nel nostro Paese, in cui
il costruire è sempre stato sbandierato
come “segno di progresso” ma in cui
i “disegni” latitano secondo la parola
d’ordine “ognuno per sé e Dio (in
questi ultimi tempi sostituito da “Io”)
per tutti, gli effetti sono quelli che denunci.
I nostri amministratori (tranne lodevoli eccezioni) sono, sembra, più impegnati ad approfittare delle opportunità loro offerte per arricchire
se stessi che a occuparsi della cosa
comune, e qui la cessione di aree
pubbliche per incrementare la cementificazione sembra un ottimo business. E anche le zone non cementificate non stanno meglio (discari-
che abusive in mano a criminalità
organizzata). E l’inquinamento, con
relativi rischi di patologie correlate.
In questo contesto drammatico, il
Parlamento si trova ingabbiato e impotente. E gli Enti spesso si trovano
alla mercé dei poteri forti (non è di
qualche tempo fa la notizia che analisi sul contenuto di piombo nel sangue dei bambini che vivono in una
determinata area a rischio sono state “taroccate” per timore che la vicina fabbrica fosse costretta a chiudere?).
Speriamo che, a furia di Rapporti,
cresca una nuova coscienza sociale
con una maggiore attenzione ai problemi delle comunità e del territorio.
Altrimenti, veramente non ci sarà limite al peggio.
Con stima
no più scegliere tra la misura manuale e
quella automatica perché la macchina, con
il suo sistema 2-in-1, offre tutte due. Una
sola e unica macchina permette infatti di
eseguire automaticamente o manualmente
una sequenza di misure.
Ideata per un ampio target di clientela, la
TESA MH3D DUAL può essere usata anche
da operatori non esperti. La gestione rapida e flessibile dei dati, con sei diverse
opzioni di tracciabilità delle misure, consente di generare la soluzione migliore. Il
sistema intuitivo di automatizzazione, abbinato al software TESA-REFLEX, facilita le
misure. Lo stesso software consente, tra l’altro, di salvare i risultati di misura in formato PDF e garantisce la compatibilità con il
software Q-DAS. E, per un’efficienza ancora maggiore, viene data la possibilità di
misurare automaticamente un pallet portapezzi a partire da una sequenza creata
manualmente su un singolo pezzo. Hexagon Metrology ha progettato la tastiera di
controllo per resistere alla polvere e alle
particelle oleose.
La TESA MH3D DUAL può quindi rispondere alle più severe esigenze, in laboratorio come in officina.
Per Marcel Bila, Direttore Marketing di
TESA: “L’obiettivo principale di questa macchina tridimensionale è semplificare il processo di misura, rendendolo comprensibile
e produttivo. I guadagni a livello di efficienza accelerano il ritorno sugli investimenti e
fanno sì che la polivalente MH3D DUAL
rappresenti una scelta remunerativa”.
L’anello mancante tra la macchina
manuale e la macchina automatica è arrivato sul mercato italiano a ottobre, con
una precisione di 2,5 micrometri.
Per ulteriori informazioni:
www.hexagonmetrology.it
Franco Docchio, Direttore
A proposito di TESA
Fondata nel 1941, con sede a Renens in
Svizzera, TESA SA (www.tesabs.ch)
produce e commercializza oggi oltre
5.000 strumenti e sistemi di misura, da
quello più semplice al più sofisticato. Il
suo programma di vendita comprende
anche soluzioni per la misura tridimensionale o senza contatto con i suoi sistemi
ottici. La maggior parte dei prodotti si può
fregiare del marchio SWISS MADE. L’azienda si concentra soprattutto sull’industria automobilistica, aeronautica, orologiera, medica e micromeccanica tramite
la sua rete di distribuzione mondiale.
A proposito
di Hexagon Metrology
Hexagon Metrology offre una gamma
completa di prodotti e servizi per tutte le
applicazioni di metrologia industriale in
svariati settori, tra cui l’industria automobilistica, aeronautica, energetica e medicale. Fornendo ai nostri clienti gli strumenti necessari per mantenere sotto controllo i loro processi produttivi, consentiamo loro di migliorare la qualità dei prodotti e aumentare l’efficienza negli stabilimenti produttivi in tutto il mondo.
METROLOGIA
LEGALE E FORENSE
▲
A cura dell’Avv. Veronica Scotti
([email protected])
www.avvocatoscotti.com
La metrologia forense
in Italia
Forensic metrology in Italy
LEGAL AND FORENSIC METROLOGY
This section intends to discuss the great changes on Legal
Metrology after the application of the Dlgs 22/2007, the socalled MID directive. In particular, it provides information, tips
and warnings to all “metric users” in need of organizations that
can certify their metric instruments according to the Directive.
This section is also devoted to enlighting aspects of ethical
codes during forensic activities where measurements are involved. Please send
all your inquiries to Ms. Scotti or to the Director!
RIASSUNTO
Questa rubrica intende discutere i significativi cambiamenti in tema di Metrologia Legale a seguito dell’entrata in vigore del Dlgs 22/2007, altrimenti detto
Direttiva MID. In particolare, vuole fornire utili informazioni, consigli e ammonimenti a tutti gli “utenti Metrici” che si rivolgono per reperire informazioni su
Enti e organizzazioni notificate per la certificazione del loro prodotto/strumento secondo la Direttiva. La rubrica tratta anche di aspetti etici correlati allo
svolgimento di misurazioni legate ad attività in ambito forense (CTU, CTP). Scrivete all’Avv. Scotti o al Direttore, e verrete accontentati!
LA METROLOGIA FORENSE
Benché le attività sperimentali giochino
un ruolo sempre più importante in ambito forense, la nozione di metrologia
forense trova una propria espressa e
compiuta definizione solamente a livello
internazionale (in specie nei paesi
anglosassoni), ove viene indicata come
quella branca della metrologia
posta al servizio delle scienze
forensi, ovvero la conoscenza metrologica applicata ai procedimenti che coinvolgono aspetti di misura di importanza
preminente ai fini del giudizio. Appare
evidente e anche naturale che la definizione poggi le sue basi sulla metrologia
che, pertanto, assume rilevanza preponderante rispetto a meccanismi giuridici. Infatti l’attività condotta nell’ambito
di un procedimento giudiziario, sebbene “soffra” delle normative che disciplinano l’attività giudiziaria e i processi in
generale, è comunque caratterizzata in
gran parte da elementi tecnici e richiede
l’applicazione e osservanza delle regole generali comunemente riconosciute e
applicate dai tecnici stessi.
Come più volte ho avuto modo di sottolineare, qualsiasi attività di misura impone,
non solo un’indagine accurata e scrupolosa, ma anche l’indicazione dell’incertezza di misura associata al metodo o
strumenti utilizzati, sulla scorta di quanto
stabilito dalle pertinenti norme tecniche in
materia emanate.
Tuttavia tale metodologia risulta spesso
disattesa, soprattutto nell’ambito dei nostri processi giudiziari, in ragione di una
riottosità del sistema giuridico a dati
“incerti” o percepiti erroneamente come
tali a causa di una infelice terminologia come quella utilizzata nel
campo delle misure. Pertanto, anche nel caso in cui vengano fornite tali
informazioni (ovvero la misura sia correttamente condotta e sia conseguentemente espressa l’incertezza di misura),
pare che le stesse non assumano alcuna
rilevanza ai fini decisionali del giudizio
in quanto considerati come orpelli privi
di significato (si rammenti, tra gli altri, il
caso del processo del delitto di Perugia1
ove la valutazione della metodologia
utilizzata dal tecnico per l’indagine del
DNA, che in ragione di un’incertezza
molto elevata non consentiva di stabilire
se il DNA della vittima fosse effettivamente presente o meno sul coltello incriminato, è stata valutata superficialmente
senza tenere conto dell’incertezza del
metodo e quindi dei risultati forniti dal
laboratorio).
In realtà, tale dato rappresenta un elemento utile all’accertamento della verità
e, in ogni caso, idoneo alla quantificazione del dubbio, funzionalmente orientato al superamento del “ragionevole
dubbio”, come definito secondo l’art.
533 del codice di procedura penale2.
Costituendo in tal modo una base
razionale sulla quale il giudicante può
fondare la propria decisione, ovviamente con riferimento alle prove prodotte nel
processo. In ordine alle prove, in particolare per quelle scientifiche, si rende
necessario precisare che è comunque
sempre il giudice a stabilirne la validità,
atteso che “la valutazione sull’attendibilità scientifica della prova – riguardando la sua ammissibilità e rilevanza
– è compito esclusivo del giudice che lo
eserciterà nel contradditorio delle parti
avvalendosi, ovviamente, anche delle
informazioni fornitegli dall’esperto (o
dagli esperti nominati dalle parti) ma
non limitandosi ad esse soprattutto nel
caso di contestazione della validità3”.
Proprio riguardo all’ammissibilità e rilevanza della prova scientifica per talune
tipologie di reato si intende qui porre in
evidenza la diversità di atteggiamento
dimostrata nell’ambito nazionale rispetto a quanto adottato in altri Stati, in particolare negli USA. Nel nostro ordinamento, come avviene anche negli Stati
Uniti, la guida in stato di ebbrezza è
sanzionata penalmente: ma come viene
riconosciuto lo stato di ubriachezza? In
entrambi i Paesi gli agenti accertatori si
avvalgono dell’uso di strumenti di misura del tasso alcolemico che funzionano
mediante la prova del respiro del sog-
T_M
N.
4/13 ƒ 295
getto presunto trasgressore. La diversità
di trattamento della fattispecie si rileva
a livello processuale: infatti, mentre
in Italia tendenzialmente si riconosce
validità pressoché assoluta ai risultati
resi dal test così condotto (salvo rari
casi), negli USA sono considerati validamente condotti i test solamente se sussistono le specifiche condizioni dettate
dalle norme tecniche applicabili nella
materia in questione.
In particolare, alcune Corti Supreme Federali (p.es. Corte Suprema di Washington) hanno riconosciuto l’inammissibilità e, conseguentemente, la non utilizzabilità, di test alcolimetrici condotti in
modo non conforme a quanto stabilito
dalle norme tecniche del National Institute of Standards and Testing (NIST), che
contemplano, tra le altre cose, l’espressione dell’incertezza di misura associata
alla misura effettuata.
“La politica adottata (dal NIST) sulla riferibilità mette in evidenza le procedure
necessarie per la riferibilità: per assicurare la riferibilità dei risultati di misura ai
campioni mantenuti dal NIST, il singolo
deve riferire i risultati di misura ai campioni del NIST, in quanto assunti come
riferimento, attraverso una catena ininterrotta di confronti che tengono conto
dell’incertezza. La catena dei confronti
può essere corta, se l’utente possiede
strumenti e apparecchiature tarate direttamente dal NIST, o può essere più lunga
se l’utente fa riferimento ad altri confronti all’interno di una catena di confronti
che riconduce comunque a riferimenti
sviluppati e mantenuti dal NIST. Il tribunale a cui ci si appella darà peso a definizioni e termini tecnici promulgati da un
Ente competente. Ogni regolamento deve essere tale da non ingenerare ambiguità nel tribunale chiamato a considerare definizioni tecniche”.4
Le decisioni prese nell’ambito dei procedimenti giudiziari che importano analisi
tecniche, per espressa affermazione dei
giudicanti, fondano le loro basi sul portato che le prove scientifiche, per essere
qualificate tali, non solo devono essere
ammissibili e rilevanti sotto il profilo giuridico ma devono essere conformi a
quanto stabilito dalle specifiche tecniche
riconosciute dalla comunità tecnico-scientifica. In mancanza, i risultati derivanti
da attività di misura non potranno essere
T_M ƒ 296
N. 04ƒ
; 2013
▲
METROLOGIA
LEGALE E FORENSE
considerati attendibili e, pertanto, la prova del fatto (nel caso specifico la prova
dello stato di ebbrezza) dovrà essere fornita mediante altre risultanze (ad esempio testimonianze).
Diversamente rispetto a quanto avviene
negli USA, nei procedimenti nazionali
relativi alla guida in stato d’ebbrezza,
fatte salve alcune pronunce eccezionali,
in specie rese in primo grado, ove è stato contestato l’etilometro o comunque ove
si è dubitato del suo corretto funzionamento (sul punto si rinvia ad un precedente breve articolo su Tutto_Misure n. 4/
2012), lo strumento utilizzato per la rilevazione del tasso alcolimetrico viene
considerato attendibile e, conseguentemente, l’accertamento così condotto costituisce la base fondante della
decisione giudiziale, senza che venga
disposta alcuna ulteriore indagine sull’apparecchio.
Al riguardo va opportunamente precisato che l’accertamento sullo stato di
ebbrezza può essere legittimamente
fondato su altre evidenze, escludendo
quindi l’uso di qualsivoglia apparecchio di misurazione del tasso alcolimetrico. In particolare, possono costituire elementi rilevanti per la validità
dell’accertamento, anche singolarmente considerati, l’indicazione,
riportata nel verbale, della sintomatologia manifestata dal presunto trasgressore o l’osservazione del suo
comportamento effettuata dagli agenti. In tali casi, ovvero qualora gli
agenti accertatori rilevassero la presenza di determinati segnali, si ritiene
validamente accertato lo stato di
ebbrezza che va ricondotto nella fattispecie di cui all’art 186 lett. a) ovvero come illecito amministrativo.
Ne deriva che, anche nel caso in cui,
a seguito di un’indagine condotta
sullo strumento di misura (mediante,
ad esempio, apposita consulenza tecnica d’ufficio), l’etilometro risultasse
non conforme alle pertinenti norme
tecniche e non possedesse quindi i
requisiti per un’attendibile misurazione, la sussistenza di altri elementi,
purché espressamente riportati nel
verbale di accertamento e contestazione del reato (o dell’illecito se trattasi di fattispecie amministrativa) consentirebbe comunque di ritenere sussi-
stente una fattispecie illecita (di natura
amministrativa e non penale!!!).
Conclusivamente, per quanto riguarda
l’accertamento della sussistenza di fattispecie trasgressive, illeciti amministrativi
o penali, qualora l’accertamento coinvolga indagini di natura tecnica e, in particolare, comporti attività di misura, la considerazione riservata alle norme tecniche
riguardanti le attività di misura risulta
estremamente diversa in Italia rispetto a
quanto accade negli USA. In quest’ultimo
Paese, infatti, le problematiche tecniche
costituiscono oggetto di studio, anche da
parte dei legali difensori delle parti5 che,
mediante contestazioni di natura tecnica
sulla scorta degli standard di riferimento
nel campo delle misure, consentono l’ingresso della metrologia nelle aule giudiziarie al fine di rendere il giudice e, quindi, la decisione più vicini alla verità.
NOTE
1
Cfr “Forensic Metrology: a new application field for measurement experts across
techniques and ethics” di Alessandro
Ferrero e Veronica Scotti, in IEEE Instrumentation & Measurement Magazine
n. 1/2013.
2 Art 533 c.p.p.: Condanna dell’imputato – Il giudice pronuncia sentenza di
condanna se l’imputato risulta colpevole
del reato contestatogli al di là di ogni
ragionevole dubbio. Con la sentenza il giudice applica la pena e le eventuali misure
di sicurezza.
3 CSM Corte d’Appello di Milano – Milano 9/02/2010 – Atti del convegno: L’ingresso della prova scientifica nel processo
penale (quesiti, tipi di accertamenti, rapporti con periti e consulenti, ecc.) con particolare riguardo all’evoluzione nel tempo
e alla fallibilità della scienza in rapporto
alla decisione da adottarsi “al di là di ogni
ragionevole dubbio”.
4 Supreme Court of Washington – No.
74579-0, No. 74602-8, No. 746036/July 2004
5 Per un’utile illustrazione di casi giudiziari
trattati in USA, comportanti l’introduzione
di problematiche tecniche in ambito forense, si veda Ted Vosk – attorney in Seattle –
Forensic Metrology: The Key to the Kingdom, National Forensic Blood and Urine
Testing Seminar, Georgia Association of
Criminal Defense Lawyers, San Diego CA,
May 14, 2009
METROLOGIA
LEGALE
▲
Maria Cristina Sestini
La realizzazione
del Mercato Unico
Il New legal Framework e la Direttiva 22/2001/CE (MID) sugli strumenti di misura
La progressiva realizzazione del mercato interno
costituisce
uno dei pilastri dell’Unione europea
e uno dei fondamentali
obiettivi che
l’Europa ha
perseguito
ritenendo
che questo fosse basilare per la prosperità, la crescita e l’occupazione. In
tale ottica, da anni, l’Unione mira a
costituire uno spazio senza frontiere interne in cui le persone, le
merci, i servizi e i capitali circolino
liberamente, in conformità del trattato
che ha istituito la Comunità europea;
è proprio per tale motivo che l’attività
di normazione e regolazione di livello
europeo mira a creare un vero e proprio spazio integrato, aperto e concorrenziale, in cui si affermino sempre
più la mobilità, la competitività e l’innovazione, anche congiuntamente
alle politiche settoriali dell’Unione.
D’altro canto, al fine di rendere effettivi questi obiettivi, è evidente come
l’Unione ritenga di dover spazzar via
ogni genere di ostacoli che ritardino o
impediscano l’efficacia normativa,
cercando quanto più possibile di armonizzare le legislazioni degli Stati
Membri, adattandole ai processi di allineamento internazionali così come
alle nuove sfide tecnologiche.
In tale generale contesto il Parlamento
Europeo e il Consiglio hanno adottato
il 9 luglio 2008 quello che è stato
definito il “goods package”, composto dal Regolamento (CE) n. 764, che
stabilisce procedure relative all’applicazione di determinate regole tecniche nazionali a prodotti legalmente
commercializzati in un altro Stato
membro, il Regolamento (CE) n. 765,
che pone norme in materia di
accreditamento e vigilanza del
mercato per quanto riguarda la
commercializzazione dei prodotti, e
infine la Decisione n. 768, relativa a
un quadro comune per la commercializzazione dei prodotti, tutti provvedimenti il cui obiettivo corrisponde dall’esigenza di ridisegnare un quadro
normativo più attuale per l’implementazione del mercato unico, dal
momento che erano stati evidenziati i
limiti e le debolezze del precedente.
In particolare l’Unione, nonostante l’adozione della legislazione di armonizzazione, aveva constatato la presenza sul mercato di prodotti non conformi o persino pericolosi, cosicché
anche la fiducia nella marcatura CE
appariva essere diminuita. Si era inoltre generata una situazione di svantaggio per gli operatori economici
che invece avevano correttamente rispettato le norme, provocando altresì
l’alterazione di quelle condizioni di
equilibrio che sono alla base del mercato unico.
Un altro grosso limite era inoltre dovuto al fatto che gli Stati, nell’adottare e
applicare le direttive integrandole nel
proprio contesto normativo generale,
efficacia molto diversa a seconda dei
Paesi interessati. Le stesse procedure
per la designazione degli Organismi
Notificati da parte delle Autorità nazionali risultavano non coerentemente
applicate, la qual cosa aveva poi recato, di conseguenza, palesi inefficienze nel sistema di accertamento
della conformità dei prodotti.
L’insieme dei provvedimenti sopra
richiamati andava quindi a completare e rafforzare il quadro normativo
già esistente delineando, in particolare attraverso il Regolamento (CE)
765/2008 e la decisione 768/
2008/CE, il cosiddetto “New Legal
Framework”, il quale comportava
altresì l’esigenza di aggiornare le altre direttive più specifiche, come la
Direttiva 2004/22/CE sugli strumenti
di misura. In tale ambito, in particolare, il regolamento aveva introdotto
nuove regole sull’accreditamento, prevedendolo come strumento fondamentale per la valutazione di conformità,
e aveva anche stabilito i requisiti per
l’effettuazione di un’efficace sorveglianza del mercato. La decisione
d’altro canto offriva una serie di strumenti normativi, come nuove e univoche definizioni, e la precisa individuazione delle responsabilità degli
producevano anche effetti distorsivi
sul mercato. Questo appariva determinato dal fatto che, sul piano prati- Camera di Commercio di Prato,
co, la capacità dissuasiva nel caso di Responsabile Servizi di Metrologia
prodotti non conformi risultava avere [email protected]
T_M
N.
4/13 ƒ 297
operatori e degli organismi notificati.
In linea con il Single Market Act
(NdA: Communication from the Commission to the European Parliament,
the Council, the Economic and Social
Committee and the Committee of the
Regions, COM – 2011 – 206 final),
che ribadiva la necessità di restaurare
la fiducia dei consumatori, occorreva
dunque allineare tutte le precedenti
norme con le nuove previsioni, uniformandole e rendendole più facilmente
applicabili. Una consultazione pubblica con gli esperti nazionali, gli stakeholders e le associazioni degli industriali, tenutasi nel 2010, oltre alle
altre informazioni raccolte, ha consentito alla Commissione di condurre
l’analisi d’impatto che, rispetto ad
altre ipotesi, rendeva auspicabile l’allineamento al New Legal Framework
tramite strumenti normativi, prevedendo quindi l’integrazione delle nuove
previsioni nella normativa già esistente. Questa soluzione infatti prometteva di migliorare la competitività dei
fabbricanti e degli organismi notificati, offrendo a tutti eguale trattamento
nel mercato interno, senza peraltro
produrre ulteriori costi per gli operatori che già rispettavano le regole.
È da mettere in rilievo come la proposta di adeguamento della direttiva
MID al nuovo quadro normativo,
peraltro basato sull’articolo 114 del
Trattato, sia stata ispirata da due
principi. In primo luogo si è interpretato il principio di sussidiarietà
tenendo conto che la competenza sul
mercato interno è certamente condivisa tra Unione Europea e Stati membri,
ma che l’azione al livello nazionale
debba essere limitata a questioni territoriali in considerazione del fatto
che soltanto un’azione di tipo normativo coordinata a livello europeo può
raggiungere gli obiettivi posti dalla
Direttiva e, in particolare, un’efficace
sorveglianza del mercato. D’altro
canto il principio di proporzionalità imponeva che le modificazioni
da introdurre nella MID fossero limitate al raggiungimento degli obiettivi
stabiliti, soprattutto rendendo la normativa esistente più trasparente e
chiara, senza aggiungere ulteriori
gravami sulle imprese. E infatti uno
T_M ƒ 298
N. 04ƒ
; 2013
■
METROLOGIA
LEGALE E FORENSE
degli adeguamenti che perseguono
proprio l’esigenza d’intelligibilità
della direttiva è l’uniformazione delle
definizioni attraverso l’armonizzazione delle stesse con quelle del New
Legal Framework, così da renderne
univoca la lettura.
Quanto all’effettività dell’implementazione della Direttiva, è stata proposta
una più puntuale declinazione delle
responsabilità per i fabbricanti e i
loro rappresentanti oltre che per i distributori e gli importatori. In base a
questa precisazione i distributori
dovranno assicurarsi che lo strumento
rechi la marcatura CE, il nome del
fabbricante e la presenza delle istruzioni e della documentazione prescritta, mentre gli importatori, oltre a ciò,
dovranno farsi carico di verificare che
i fabbricanti abbiano applicato una
procedura di accertamento della conformità e rendano disponibile alle
autorità la documentazione tecnica.
Questi inoltre sono tenuti a conservare una copia della dichiarazione di
conformità e a indicare il loro nome e
indirizzo sul prodotto, sull’imballo o
sulla documentazione di accompagnamento: in tal modo s’intende assicurare la completa tracciabilità ovvero la certa riconduzione dello strumento fino all’operatore economico
responsabile dello stesso.
La proposta riguarda anche la presunzione di conformità ai requisiti essenziali, già prevista dalla Direttiva
MID nel caso in cui lo strumento soddisfi gli standard armonizzati; il nuovo testo, in linea con un progetto di regolazione sulla standardizzazione
europea adottato dalla Commissione
il primo di giugno del 2011 (che tra
l’altro prevede il coinvolgimento della
European Standardization Organization e la partecipazione degli stakeholder nel processo di standardizzazione) adotta alcune modifiche prevedendo i casi in cui gli standard coprano solo parzialmente i requisiti essenziali prescritti dalla direttiva.
Una serie d’importanti allineamenti
riguarderà inoltre la revisione delle
procedure per l’accertamento della
conformità e la corretta apposizione
della marcatura CE; ancor più rilevanti sono però le nuove previsioni sui
criteri per la notificazione degli
organismi notificati. Inoltre anche
i “subsidiaries” e i “subcontractors”
dovranno dimostrare di possedere i
requisiti e le competenze, già richiesti
all’organismo stesso, attraverso un
processo di notificazione completamente rivisitato e basato di norma sull’accreditamento, ferma restando la
possibilità degli altri Stati membri di
sollevare le proprie obiezioni riguardo al processo di notificazione.
Un’importante novità è infine costituita dalla rivisitazione della procedura
di salvaguardia, resa più snella e più
efficace. La nuova procedura contempla una fattiva e basilare fase di
scambio d’informazione tra gli Stati
interessati, alla quale segue una valutazione esplicita da parte della Commissione soltanto in caso di disaccordo tra gli Stati membri interessati. Più
semplicemente, qualora gli Stati interessati concordino riguardo alla non
conformità di uno strumento, questi
sono di fatto tenuti ad adottare le
misure appropriate sul rispettivo territorio di competenza, così da assicurare un’efficiente tutela dei consumatori e realizzare il completamento del
mercato unico.
SPAZIO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
▲
Rubrica a cura di Franco Docchio, Alfredo Cigada, Anna Spalla e Stefano Agosteo
Dalle Associazioni Universitarie
di Misuristi
THE ITALIAN UNIVERSITY ASSOCIATIONS FOR MEASUREMENT
This section groups all the significant information from the main University
Associations in Measurement Science and Technology: GMEE (Electrical and
Electronic Measurement), GMMT (Mechanical and Thermal Measurements),
AUTEC (Cartography and Topography), and Nuclear Measurements.
RIASSUNTO
Questa rubrica riassume i contributi e le notizie che provengono dalle maggiori Associazioni Universitarie che si occupano di scienza e tecnologia delle
misure: il GMEE (Associazione Gruppo Misure Elettriche ed Elettroniche), il
GMMT (Gruppo Misure meccaniche e Termiche), l’AUTEC (Associazione Universitari di Topografia e Cartografia) e il Gruppo di Misure Nucleari.
GMEE: GRUPPO MISURE
ELETTRICHE ED ELETTRONICHE
L’Assemblea
dei Ricercatori GMEE – Trento
L’Assemblea dei ricercatori GMEE si è
tenuta l’11 settembre 2013, presso l’Università di Trento. Tra le comunicazioni, una relazione di La Monaca sull’ultima Summer School 2013 tenutasi a
Barcellona, una presentazione, da
parte di Angrisani, del CeSMA – Centro di Servizio al territorio per le Misurazioni Avanzate – dell’Università di
Napoli Federico II, la presentazione,
da parte di Daponte, del Workshop
Metrology for Aerospace, che si terrà a
Benevento, il 29-30 maggio, 2014, la
presentazione, da parte di Arpaia, del
congresso TC4 dell’IMEKO, che si
terrà il 15-17 settembre, 2014, e delle
Borse di Studio bandite dal CERN.
Con rammarico, Ferraris informa l’Assemblea che il dottorato in “Scienza e
Tecnica delle Misure” del Politecnico di
Torino è stato soppresso per motivi
amministrativi. L’Assemblea si rammari-
GMEE, la rivitalizzazione della commissione didattica e una sempre maggiore attenzione alla crescita dei giovani ricercatori.
Su proposta di Betta, l’Assemblea ha
poi eletto all’unanimità come Presidente del GMEE per il prossimo triennio Dario Petri, il cui mandato avrà
inizio al termine dell’Assemblea. Sempre su sua proposta, l’Assemblea ha
eletto all’unanimità come Segretario
del GMEE per il prossimo triennio Pasquale Daponte, il cui mandato avrà
inizio al termine dell’Assemblea. Annarita Lazzari è stata confermata all’unanimità quale Rappresentante dei
Soci Sostenitori nel Consiglio Direttivo. Inoltre Roberto Buccianti è stato
eletto Rappresentante dei Soci Ordinari nel Consiglio Direttivo.
Per quanto riguarda i rappresentanti
delle Unità Operative, l’Assemblea
approva di considerare confermati gli
attuali rappresentanti, a meno che le
sedi interessate non inviino una
segnalazione di variazione. A questo
proposito l’Unità di Brescia informa di
avere eletto come proprio rappresentante Giovanna Sansoni. In conformità alla vigente normativa, i soci
Andria, Carbone, Catelani, Landi,
Narduzzi, Sardini sono stati eletti
membri del Comitato di Coordinamento GMEE. Andò, Attivissimo,
Carullo, Cataliotti, Ferrigno, Malcovati, Salmeri, Rapuano, Tellini sono stati
votati all’unanimità componenti della
Commissione didattica. Infine, Benetazzo, Savino, Ferraris sono stati
eletti membri del Comitato Etico e
Deontologico. A. Ferrero è stato confermato tesoriere all’unanimità.
Betta ha ricordato che la nuova versione del sito web dell’Associazione è
operativa.
ca per la notizia e unanime esprime
l’auspicio che possa essere attivata la
prossima edizione del dottorato. Flammini ha presentato il Sensor Application Symposium (SAS) della IEEE I&M
Society, che si terrà nel 2014 in Nuova
Zelanda.
Betta ha ricordato all’Assemblea il convegno sui sensori che si terrà nel 2014
a Udine, e che è in corso di stampa il
primo volume della collana Franco
Angeli sulle misure; il volume riguarda
i Sensori e ne è autore M. Savino.
È seguita una relazione del Presidente
sulle attività del GMEE nel triennio
2010-2013 (importante per le numerose novità legislative introdotte). Il
GMEE presenta oggi 44 Unità operative (di cui 35 universitarie e 1 straniera) e 248 soci (di cui la metà strutturati nel SSD ING-INF/07); il calo
del numero di soci juniores (80 nel
2012) può rappresentare una delle
criticità per lo sviluppo del GMEE.
Illustra anche l’andamento della scuola Gorini, l’attenzione e l’impegno del
GMEE per la Terza missione, anche
attraverso Tutto_Misure e il progetto
DITRIMMIS. Proiettando l’analisi al
prossimo futuro Betta auspica la creazione di un’unica Associazione Misure che riunisca il GMEE e l’MMT, la
pratica implementazione dei contenuti del documento per la valorizzazione delle attività dei ricercatori del [email protected]
T_M
N.
4/13 ƒ 299
Ringrazia in particolare l’Unità di Bari
per l’attività svolta a favore del sito e
degli atti delle riunioni annuali, ora
editi dalla casa editrice Aracne. Docchio ha presentato un breve rendiconto sullo stato della rivista Tutto_Misure,
illustrando i principali dati relativi ai
contributi editoriali ricevuti e sollecitando nuovi contributi. Il Premio di
dottorato C. Offelli ha ricevuto quest’anno 4 domande. La Commissione
ha conferito il premio a Paolo Pivato,
dell’Unità di Trento. La borsa di studio
per ricerca all’estero è stata assegnata a Grazia Barchi, della stessa Unità
di Trento.
Per la Giornata della Misurazione
2014 l’organizzazione è stata affidata
a Domenico Mirri, stante il successo
delle edizioni degli ultimi anni da lui
curate. Narduzzi ha relazionato sull’andamento dell’ultima edizione della
Scuola Gorini. Dalla discussione è
emerso il suggerimento di valutare l’opportunità di offrire la scuola anche a
studenti di provenienza internazionale.
Il Congresso annuale GMEE 2014 si
terrà ad Ancona, l’8-10 settembre. La
settimana successiva è inoltre previsto
il Convegno IMEKO-TC4, a Benevento, mentre la settimana precedente
sarà organizzata la Scuola Gorini.
Premio IEEE alla Carriera
per il Prof. Massimo D’Apuzzo
L’amico e collega Massimo D’Apuzzo, membro del GMEE, ha ottenuto il
prestigioso premio “Career Excellence Award”
della IEEE I&M
Society. Le nostre
congratulazioni
più vive e sincere
a Massimo, uno
dei padri fondatori e un pilastro
della nostra Associazione.
L’assegnazione di questo prestigioso
premio internazionale è un più che
meritato riconoscimento all’entusiasmo, alla passione e alla competenza
che Massimo ha profuso in questi anni
per favorire lo sviluppo del GMEE e
delle misure in Italia.
Congratulazioni a Massimo a nome
della Redazione di Tutto_Misure!
T_M ƒ 300
N. 04ƒ
; 2013
▲
SPAZIO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
Dimissioni del Prof.
Andrea Ferrero
dal Politecnico di Torino
Riceviamo dall’amico e collega
Prof. Andrea Ferrero, Ordinario di
Misure Elettriche
ed Elettroniche
del Politecnico di
Torino, la seguente lettera di accompagna-mento
alle sue dimissioni dalla sua Università.
Caro Dario e cari colleghi,
Dopo 32 anni passati al Politecnico
di Torino di cui 23 da dietro la cattedra ho deciso rassegnare le dimissioni per iniziare una nuova esperienza professionale e di vita. Con
molti di voi ho condiviso una lunga
carriera fatta di ricerca, concorsi e
convegni ove scoprivo ogni volta di
più la vitalità della ricerca misuristica in Italia.
A volte con meraviglia altre con
curiosità mi hanno sempre affascinato i mille ambiti diversi dove i nostri
ricercatori applicano tecniche e
metodologie comuni per garantire la
qualità della misura. Da circa 13
anni, prima da associato e poi da
ordinario, ho fatto parte di molte
commissioni di concorso fino all’ultima avventura dell’ASN.
Ho così avuto modo di conoscere da
vicino molti di voi e di condividere
l’onere della scelta prima con i miei
“Maestri” e oggi con coloro con i
quali avevo a suo tempo condiviso
ansie e speranze dei concorsi. Tutte
queste occasioni hanno via via
cementato rapporti umani che vanno
al di là del semplice rapporto di
lavoro anche grazie alle nostre
riunioni annuali e al loro aspetto
“ludico” oltre che scientifico.
Auguro a tutti voi di continuare come
sempre a tener alta la cultura misuristica in Italia a nel mondo e per i più
giovani di costruire quelle solide relazioni interpersonali che oggi rendono
la scrittura di queste righe un po’
amara.
Un caro saluto a tutti
Andrea Ferrero
Il Presidente del GMEE, Dario Petri,
ha scritto al Gruppo:
Carissimi,
ho ricevuto dall’amico e collega Andrea Ferrero l’inattesa notizia delle
sue prossime dimissioni dal Politecnico di Torino. Sono convinto che
questa decisione rappresenti una
importante scelta nel suo percorso
professionale. A titolo personale e a
nome del GMEE gli auguro di continuare a raccogliere tutti i successi e
le soddisfazioni che giustamente
merita.
Auspico anche che il GMEE possa
continuare a contare sul suo importante contributo scientifico e
umano.
Un caro saluto
Dario
Ciao Andrea, da Tutto_Misure
La Rivista Tutto_Misure e il suo
Comitato Editoriale salutano Andrea,
gli augurano buon lavoro e buona fortuna per il suo nuovo futuro professionale, e si augurano di averlo ancora
gradito collaboratore.
GMMT: GRUPPO MISURE
MECCANICHE E TERMICHE
Assemblea dei Ricercatori del
Gruppo di Misure meccaniche
e Termiche a Trento
Il giorno 11 settembre, a Trento si è tenuta l’Assemblea annuale del gruppo di
Misure Meccaniche e Termiche. È stato
ancora una volta sancito e rafforzato il
percorso di avvicinamento con il gruppo
di Misure Elettriche ed Elettroniche, grazie anche agli interventi dei colleghi
Franco Docchio, che ha fornito una efficace sintesi sulla situazione della rivista
Tutto Misure e sui futuri piani editoriali, e
a quello di Pasquale Daponte, che ha
N. 04ƒ
;2013
Marco Mugnaini Editor
in Chief di rivista Internazionale
L’Ing. Marco
Mugnaini, dell’Unità di Siena, è stato eletto Editor in
Chef della Rivista Internazionale “International Journal of Instrumentation Technology”, edita da Interscience.
www.inderscience.com/jhome.
php?jcode=IJIT
Unità di Brescia:
recenti nomine
Alessandra
Flammini è
stata eletta
nel Consiglio di Amministrazione del CSMT
(Centro Servizi Multisettoriali e Tecnologici)
che, sotto la
Direzione Scientifica del Prof. Riccardo Pietrabissa, intende evolvere da un
Centro di Servizi a un Centro di Attrazione per nuove imprese e Trasferimento Tecnologico.
■
offerto una panoramica assai apprezzata e interessante sulle attività e possibilità
di partecipazione alle varie iniziative di
IMEKO, associazione da lui stesso presieduta.
In un panorama legislativo e normativo mutevole la carrellata solitamente
offerta dal Presidente sulle nuove disposizioni di legge è dunque risultata
più leggera rispetto alle passate assemblee.
Alcuni gli aspetti meritevoli di nota.
L’organico del gruppo presenta
parecchie novità, alcuni abbandoni,
ma fortunatamente anche muovi
ingressi: il Prof. Revel, nuovo associato ad Ancona, l’Ing. Tarabini
nuovo ricercatore a tempo determinato tipo A a Milano.
L’attenzione dell’Assemblea ha riguardato una valutazione della
nuova formula di convegno introdotta quest’anno, con una sessione riguardante i laboratori didattici, per
un approfondimento dei contenuti
della lettera pubblicata sull’ultimo
numero di Tutto_Misure, proprio sul
tema dei laboratori didattici, e una
sessione di tutorial, svoltasi con 5
interventi su aspetti di base riguardanti il mondo della visione: la formula ha trovato interesse, soprattutto
nei giovani e si lavorerà per mantenere attiva questa nuova iniziativa
negli anni a venire.
Altro momento interessante è stato
la sintesi offerta dal collega Prof.
Nicola Paone, riguardante la sua
esperienza come coordinatore dei
valutatori ANVUR della qualità
della ricerca. Prestando attenzione
a non rivelare dati sensibili, il collega Paone ha offerto una serie di
punti di vista assolutamente originali, che hanno aiutato a una corretta
ed equilibrata interpretazione dei
risultati del complesso processo di
valutazione del sistema universitario.
L’Assemblea ha poi confermato alla
presidenza il Prof. Michele Gasparetto.
Il neo presidente ha dichiarato di volere conservare la carica per un anno,
allo scopo di preparare alla successione qualche giovane meritevole, cui
lasciare la guida del gruppo il prossimo
anno ad Ancona.
SPAZIO ASSOCIAZIONI
UNIVERSITARIE MISURISTI
Paritetica del Dipartimento ai sensi
del Decreto su Autovalutazione, Valutazione e Accreditamento (AVA).
Franco Docchio, Presidente della
Commissione per il Trasferimento Tecnologico del Dipartimento di Ingegneria Meccanica e Industriale, è stato
nominato dal Direttore del Dipartimento membro del Tavolo di Ateneo
per il Trasferimento Tecnologico dell’Università di Brescia.
Unità di Messina
vincitrice
di Progetto Samsung
Il Prof. Nicola Donato, Direttore del
Laboratorio di Sensori e Sistemi di
Trasduzione dell’Università di Messina, ci comunica
che il suo
Progetto
“SmArt
sensors
For brEath anaLYsis, SAFELY” redatto
a quattro mani insieme al collega Giovanni Neri, è stato selezionato dal
Samsung Advanced Institute of Technology (SAIT) nell’ambito del Global
Research Outreach Program (GRO)
per il 2013. Il Progetto ha durata triennale.
Di seguito il link della pagina
Samsung con la lista dei vincitori e del
comunicato della conferenza stampa
svolta presso l’Ateneo di Messina.
w w w. s a i t . s a m s u n g . c o . k r /
saithome/Page.do?method=
main&pagePath=01_about/
&pageName=2013gro
Giovanna Sansoni è stata recentemente nominata Coordinatrice Didattica per il Dipartimento di Ingegneria
dell’Informazione. Giovanna è anche
Responsabile del Corso di Laurea
Magistrale in Ingegneria Elettronica,
nonché membro della Commissione
w w w. u n i m e . i t / _ s l i d e r _ i n _
evidenza/la_salute_a_portata_
di_smartphone-5541.html
www.tempostretto.it/news/
eccellenze-progetto-dipartimen
to-ingegneria-universit-messinaconquista-samsung.html
Complimenti al Prof. Donato!
T_M ƒ 301
N. 04ƒ
; 2013
▲
NEWS
VIETNAM, LA SCANSIONE LASER “INCONTRA” GLI ANTICHI IMPERATORI
CAM2 (Gruppo americano FARO Technologies, Inc. NASDAQ:
FARO), prestigioso fornitore di tecnologia di misura 3D, imaging e realizzazione, ha annunciato che SI2G S.r.l. ha utilizzato con risultati eccellenti un CAM2 Laser Scanner Focus3D
nel progetto internazionale di recupero e valorizzazione
della storica cittadella imperiale di Huê’ in Vietnam.
SI2G srl, Sistemi Informativi Intelligenti per la Geografia
(www.si2g.it), è uno Spin-off dell’Università Politecnica delle
Marche, nato nel 2008 su iniziativa di ricercatori con esperienza pluriennale nelle varie discipline per lo studio del territorio e
dell’ambiente, a partire dall’informatica e dalla fotogrammetria.
L’impresa si occupa di acquisire, analizzare, elaborare, archiviare e distribuire “dati ambientali” in formato digitale, con un
approccio sistemico integrato e multidisciplinare, fornendo servizi di telerilevamento del territorio, fotogrammetria, topografia,
cartografia e ICT.
Eva Savina Malinverni, Professore associato di Topografia dell’Università Politecnica, spiega come mai SI2G abbia di recente investito in un Laser Scanner Focus3D, innovativo strumento di
scansione laser della CAM2, che permette rilevazioni 3D con
grande precisione e semplicità: “Dopo tanti anni di esperienza
cartografica acquisita lavorando con diversi strumenti geodetici,
abbiamo deciso di ampliare le nostre conoscenze e le possibilità applicative in fatto di rilevazione, introducendo all’interno
della nostra struttura un laser scanner”.
La scelta è caduta sul CAM2 Focus3D, strumento che abbina a
un’elevata precisione di rilevazione una grande facilità d’uso.
“Conoscevamo questo strumento per precedenti collaborazioni
ed esperienze e ritenevamo che avrebbe potuto fare la differenza nella rilevazione di elementi architettonici, in particolare
nei progetti di ricerca internazionali. Oggi possiamo dire di
aver fatto la scelta giusta: il Laser Scanner Focus3D può infatti
essere adoperato in maniera davvero semplice, come una normale fotocamera digitale. Possiamo portarlo con noi ovunque,
anche in aree difficilmente raggiungibili o in Paesi del secondo
o terzo mondo in cui sarebbe difficile giustificare, anche solo
dal punto di vista burocratico, l’utilizzo di apparecchiature vistose”.
CAM2 Laser Scanner Focus3D è in effetti uno strumento compatto, leggerissimo (appena 5 kg) e con ingombro assai ridotto
pari a 24 x 20 x 10 cm,
che l’operatore può portare con sé sempre e ovunque. Inoltre, la tecnologia
WLAN consente di avviare, arrestare, visualizzare
o scaricare le scansioni a
distanza.
Eva Savina Malinverni aggiunge: “Abbiamo acquistato il dispositivo lo scorso febbraio e in pochi
mesi abbiamo preso dimestichezza e maturato la
giusta esperienza. CAM2
Focus3D ci è stato di fondamentale aiuto soprattutto per due interessantissimi progetti che SI2G, in
collaborazione con l’Uni-
T_M ƒ 302
versità Politecnica delle Marche, ha svolto in Vietnam”. Si è trattato di attività svolte su iniziativa del Ministero degli Affari Esteri italiano (responsabile scientifico universitario il Prof. F. Pugnaloni) per la salvaguardia dei siti storici e architettonici nel
mondo. “In
¸ particolare, ci siamo occupati delle carceri fortificate di Quang Tri e della cittadella imperiale di Huê’”.
La città imperiale di Huê’, dichiarata nel 1993 “Patrimonio dell’Umanità” dall’UNESCO, è probabilmente il sito architettonico
più grande e celebre di tutto il Vietnam: da qui governarono gli
imperatori della dinastia Nguyen tra il 1802 e il 1945. Essa è
costruita sul modello del Palazzo Imperiale di Pechino e presenta mura, fossati, porte fortificate, ponti e decorazioni che la rendono un luogo suggestivo, di grande interesse artistico e storico.
“Tutta l’area – riprende la Professoressa – fu completamente
distrutta durante la guerra del Vietnam, ed è ora in fase di
restauro grazie alla sovvenzione di diversi sponsor internazionali. Noi, in particolare, abbiamo operato sulla cosiddetta
“Porta Est”, elemento architettonico molto complesso costituito
da decorazioni in maiolica e fregi di ogni tipo. La rilevazione
sarebbe stata un’operazione davvero lunga e complicata se
avessimo utilizzato le normali tecniche fotogrammetriche”.
CAM2 Laser Scanner Focus3D, invece, ha permesso all’equipe
di SI2G di portare a termine il lavoro in poche ore e di ottenere, con sole 17 scansioni, risultati davvero sorprendenti: “Abbiamo rilevato la splendida Porta Est della città imperiale di Huê’ in
pochissimo tempo, acquisendo una griglia 3D costituita da
milioni di punti, con una distanza di pochi millimetri l’uno dall’altro, che ci ha permesso di ricavare una mesh 3D con texture
fotorealistica in cui è possibile leggere ogni dettaglio di forma e
colore delle strutture originali”.
Hanno contribuito all’acquisizione e all’elaborazione dei dati
anche il Prof. Fangi e i suoi collaboratori, gli Ingegneri Tassetti e Bozzi dell’Università Politecnica delle Marche. Malinverni
conclude: “Non va dimenticato che abbiamo lavorato in condizioni critiche, in una zona a elevato flusso turistico. Lo strumento non ha minimamente risentito della temperatura di quasi
40 °C, né dell’elevatissimo tasso di umidità, pari a circa
l’85%. CAM2 Laser Scanner Focus3D si è rivelato uno strumento molto maneggevole, utilizzabile anche in luoghi “scomodi” e difficilmente accessibili, semplice nel suo utilizzo e
molto versatile. I nostri colleghi stranieri in Vietnam ne sono
rimasti impressionati”.
Per ulteriori informazioni: www.cam2.it
SPAZIO DELLE ALTRE
ASSOCIAZIONI
■
Rubrica a cura di Franco Docchio e Alfredo Cigada
Notizie dalle altre Associazioni
A dimostrazione di quanto proposto e
discusso con i partecipanti sono stati
infine illustrati alcuni esempi già in
uso in alcuni laboratori.
ALATI si ripropone come vettore
d’innovazione e assistenza per
tutti i laboratori accreditati promuovendo altre iniziative formative,
focalizzando l’attenzione sulle opportunità che il mercato offre, selezionando gli opportuni strumenti HW e
SW per poter far fronte alle problematiche quotidiane.
Sarà quindi riproposta un’altra
giornata formativa sullo stesso
argomento presentando altre esperienze pratiche applicative del documento. Ma le iniziative non si limiteranno solo a questo ma anche a indagini capillari per poter affrontare e
risolvere tutti gli aspetti dei problemi
tecnico organizzativi dei laboratori di
taratura in Italia.
Paolo Giardina, Presidente A.L.A.T.I.
OTHER ITALIAN ASSOCIATIONS
This section reports the contributions from Associations wishing to use
Tutto_Misure as a vehicle to address their information to the readers.
RIASSUNTO
Questa rubrica riassume i contributi e le notizie che provengono dalle
Associazioni che vedono nella Rivista uno strumento per veicolare le loro
informazioni al pubblico di Tutto_Misure.
A.L.A.T.I.: GIORNATA
DI FORMAZIONE
SU ACCREDIA DT-02-DT
Orgogliosi del successo ottenuto in
collaborazione con il Politecnico di
Milano, nella giornata di formazione
relativa al doc. ACCREDIA “DT-02DT “GUIDA ALLA GESTIONE DEL
SISTEMA INFORMATIVO DEI
LABORATORI” riassumiamo brevemente i contenuti del corso.
Consapevoli che ormai i fogli di calcolo elettronici sono entrati a pieno titolo tra gli strumenti utilizzati nei laboratori di taratura per la gestione della
catena di misura, dell’acquisizione
dei dati e molto spesso per la deter-
minazione degli errori e delle incertezze associate, non possiamo esimerci dal fatto che anche questi oggetti,
partecipando alla catena di misura,
in quanto elaboratori di dati, vadano
trattati alla stessa stregua di uno strumento di misura.
Cosi come contemplato in diversi punti anche dalla norma ISO/IEC 17025,
è stata nostra intenzione analizzare
tali aspetti attraverso i seguenti contenuti didattici:
• Illustrazione dei requisiti del
documento ACCREDIA DT-02-DT;
• Presentazione di esempi dei documenti di registrazione necessari e di metodologie applicative;
• Requisiti minimi di una procedura
di validazione di un foglio di
calcolo elettronico utilizzato per la
registrazione dei dati di misura ed la
determinazione dell’incertezza:
❏ struttura del foglio di calcolo;
❏ controllo del formato dei
dati in ingresso;
❏ controllo del formato dei
dati in uscita secondo le
regole del documento sulla
compilazione del certificato
di taratura IO-09-DT e del
documento DT-04-DT sulle
principali regole di scrittura;
❏ tipologia del set di dati in
ingresso al foglio di calcolo
e dei corrispondenti risultati
attesi.
ASSOCIAZIONE ITALIANA
PROPRIETÀ TERMOFISICHE (AIPT)
L’AIPT assegna il Premio
“Ermanno Grinzato”
al Dott. Francesco Zonta
Cari lettori di Tutto
Misure,
è con grande
piacere che il
Comitato Direttivo dell’A.I.P.T.
– Associazione
Italiana Proprietà
Termofisiche
comunica l’avvenuta
assegnazione del Premio “Ermanno
[email protected]
T_M
N.
4/13 ƒ 303
N. 04ƒ
; 2013
■
SPAZIO DELLE ALTRE
ASSOCIAZIONI
Grinzato” al merito scientifico al Dott.
Francesco Zonta.
Il Premio è stato istituito al fine di
promuovere tra i giovani ricercatori
lo studio e le applicazioni delle
proprietà termofisiche, in ambito
sia scientifico che industriale, ed è
dedicato alla memoria di Ermanno
Grinzato, socio dell’A.I.P.T. che ci
ha prematuramente lasciati il 21
agosto 2012 dopo una lunga attività di ricerca presso l’Istituto per le
Tecnologie della Costruzione del
C.N.R., sezione di Padova. Ermanno Grinzato è stato fino all’ultimo un lucido e brillante ricercatore,
organizzatore e animatore della
comunità scientifica nella quale ha
operato.
A concorrere all’assegnazione del
premio, pari a 2.000 euro al lordo
degli oneri fiscali e cortesemente
offerto dall’azienda Mimesis Srl
(www.mimesis.eu), sono stati ammessi giovani ricercatori di cittadinanza italiana, oppure residenti in Italia,
con laurea o dottorato di ricerca in
discipline di ambito scientifico-tecnologico conseguiti da non oltre 10 anni. La partecipazione è stata numerosa e qualificata e ha visto i candidati
presentare alla Commissione giudicatrice, nominata dal Comitato direttivo
e formata da Francesco Righini, Giuseppe Ruscica ed Elena Campagnoli,
prima un elaborato scritto in lingua
inglese e, successivamente, in occasione del XIX Convegno annuale dell’A.I.P.T., una relazione orale.
Il Convegno annuale dell’A.I.P.T. si
è tenuto il 19 settembre u.s. a Bologna, presso il Dipartimento di Ingegneria Industriale dell’Università di
Bologna, grazie all’ospitalità accordata dal Prof. Gian Luca Morini e
dal suo gruppo di lavoro e al supporto di Netzsch (www.netzsch-thermal-analysis.com) ed Energy Seal
Italia (www.energy-seal.it). Durante
il Convegno sono state presentate
relazioni da parte sia degli associati all’A.I.P.T., sia dei concorrenti al
Premio. La proclamazione formale
del vincitore è avvenuta al termine
dei lavori e, dopo una relativamente lunga camera di consiglio per la
presenza di vari lavori meritevoli,
T_M ƒ 304
ha visto la Commissione assegnare
il Premio al sopraccitato Dott.
Zonta.
Francesco Zonta, laureato con
lode in Ingegneria Meccanica
presso l’Università di Udine nel
2006, è diventato Dottore di
Ricerca in Tecnologie chimiche ed energetiche nel 2010.
Dal medesimo anno svolge attività
di ricerca presso l’Università di
Udine nel campo dello scambio termico turbolento, dei flussi turbolenti
multifase e dei metodi numerici per
la termofluidodinamica.
Il lavoro premiato, intitolato ‘’The
effect of temperature dependent
fluid thermophysical properties on
heat and momentum transfer in turbulent mixed convection’’, si è incentrato sull’impiego di tecniche di
supercalcolo per l’analisi dei processi di raffreddamento ad acqua di
dispositivi elettronici soggetti a elevate dissipazioni termiche come, ad
esempio, i supercalcolatori, e ha
permesso di verificare come la
variazione delle proprietà termofisiche del fluido di raffreddamento
possa persino inibire lo scambio termico turbolento (inducendo fenomeni di rilaminarizzazione locale) e
avere quindi un ruolo determinante
nel computo del coefficiente globale
di scambio termico.
Nel constatare con piacere il successo dell’iniziativa presso i giovani
ricercatori, che Ermanno Grinzato
ha sempre avuto a cuore nella sua
attività scientifica e organizzativa,
formuliamo a tutti loro e, in particolare, a Francesco Zonta e agli altri
che hanno concorso al Premio gli
auguri più sentiti per una carriera
piena di soddisfazioni.
Il Comitato direttivo A.I.P.T.: Alberto
Muscio (Presidente), Elena Campagnoli (Segretario), Francesco Righini
(Tesoriere), Giuseppe Ruscica, Paolo
Coppa (Revisori dei Conti).
▲
LO SPAZIO
DEGLI IMP
Marco D’Arienzo, Marco Capponi, Pierino De Felice
La metrologia delle radiazioni ionizzanti
nella radioterapia molecolare
Dalla misura dell’attività alla valutazione della dose al paziente
METROLOGY OF IONIZING RADIATIONS IN MOLECULAR
RADIATION THERAPY
Molecular radiation therapy is a unique form of radiotherapy where a high
radiation dose is delivered internally through the administration of radiopharmaceuticals. Recent research indicates that, as a consequence of biological variation across patients, the absorbed dose can vary, for the same
administered activity, by as much as two orders of magnitude. It is clear that
there is a need of accurately assessing both the activity administered to a
patient and the radiation dose delivered to a tumor area. This requires an
innovative metrological support.
RIASSUNTO
La radioterapia molecolare è una tecnica medico-nucleare per la terapia
dei tumori nella quale un’elevata dose è somministrata a organi interni
mediante somministrazione di radiofarmaci. Studi recenti hanno dimostrato
che, a causa delle variazioni biologiche e anatomiche tra pazienti, la dose
assorbita da un determinato organo o tessuto può variare, a parità di attività somministrata, anche di due ordini di grandezza. È evidente, quindi,
la necessità di determinare in modo accurato l’attività somministrata al
paziente e la dose rilasciata al tumore e agli organi sani. Ciò richiede un
supporto metrologico dedicato e innovativo.
ASPETTI METROLOGICI DELLA
RADIOTERAPIA MOLECOLARE
L’impiego di iodio radioattivo agli inizi del XX secolo per la cura delle patologie della tiroide ha rappresentato,
per certi versi, la prima forma di radioterapia molecolare. Negli ultimi
vent’anni, la crescente disponibilità di
radionuclidi impiegati a scopo terapeutico ha favorito l’introduzione di
nuove tecniche di radioterapia molecolare, sempre più efficaci e mirate.
Nella moderna radioterapia molecolare il radionuclide è legato a un farmaco o ad altro agente chelante che
presenta particolari affinità di legame
con la sede tumorale. La somministrazione del complesso molecolare così
formato (radiofarmaco) è seguita da
un accumulo selettivo del radionuclide
all’interno del distretto anatomico
patologico, all’interno del quale verrà
rilasciata la dose di radiazione terapeutica. Questa può variare ampia-
mente a seconda delle caratteristiche
fisiche e fisiologiche del singolo paziente, della cinetica specifica del radiofarmaco e del radionuclide impiegato. Recenti studi hanno dimostrato
che, a parità di attività somministrata,
la dose alla sede tumorale può variare anche di due ordini di grandezza
[1,2]. Questa circostanza è particolarmente critica dal punto di vista clinico poiché, in uno scenario di sottodosaggio, il paziente non ottiene alcun beneficio terapeutico dal trattamento mentre, in una situazione di sovradosaggio, il paziente riceve una
dose maggiore di quanto sarebbe necessario al trattamento della patologia, con conseguente irraggiamento
indebito degli organi sani.
Nella radioterapia con fasci esterni
sono già utilizzati protocolli di misura
dosimetrici, condivisi a livello internazionale, che stabiliscono ben definiti
livelli di accuratezza e tolleranza nell’erogazione della dose (entro il 5%
T_M
[3]). Per contro, nella radioterapia
molecolare non si dispone ancora di
una procedura standardizzata per la
valutazione della dose al paziente e,
per la maggior parte dei trattamenti,
la metodologia per la somministrazione personalizzata del radiofarmaco non è ancora sufficientemente definita.
La necessità di conoscere in modo accurato l’attività somministrata al paziente e la dose rilasciata al tumore e
agli organi sani richiede un supporto
metrologico innovativo alla radioterapia molecolare, che sia in grado di
garantire l’affidabilità e la riferibilità
delle misure effettuate a livello clinico.
In questo contesto, l’Istituto Nazionale
di Metrologia delle Radiazioni Ionizzanti (INMRI) dell’ENEA ha contribuito alla formulazione di un progetto di
ricerca metrologica dedicato alla radioterapia molecolare. Il progetto
“Metrology for Molecular Radiotherapy” (MetroMRT) è stato ammesso al
finanziamento da parte dell’European
Metrology Research Programme (EMRP)
e conta attualmente 28 partecipanti
(6 Istituti Metrologici Primari Europei
direttamente finanziati e 22 centri di
ricerca clinica a supporto del progetto, essendo direttamente interessati
per loro attività di ricerca o di pratica
clinica). Il progetto è iniziato nel mese
di giugno 2012 e ha durata triennale.
Istituto Nazionale di Metrologia
delle Radiazioni Ionizzanti (INMRI),
ENEA, C.R. Casaccia
[email protected]
N.
T_M
4/1
3 ƒ 305
DALLA MISURA DELL’ATTIVITÁ
ALLA VALUTAZIONE DELLA DOSE
Gli aspetti metrologici nei trattamenti
di radioterapia molecolare sono molteplici. Nel seguito, la catena metrologica è analizzata nei singoli passaggi.
Misura dell’attività
somministrata
La metrologia dei radionuclidi è ritenuta oggi una scienza matura. Tuttavia, affinché tutta l’energia sia depositata localmente, i radionuclidi impiegati nella terapia medica sono molto
spesso (in alcuni casi esclusivamente)
emettitori beta di bassa energia. Questa circostanza impone metodologie e
tecniche dedicate per la determinazione dell’attività, sia nelle misurazioni con campioni primari, sia in quelle
effettuate a livello clinico.
Ad esempio, nei trattamenti di radioembolizzazione epatica con 90Y legato a microsfere in resina o vetro, gli
elettroni (raggi beta) emessi dal radionuclide depositato sulla superficie o
all’interno della microsfera possono
essere da questa autoassorbiti, ponendo quindi specifici problemi di
misura dell’attività. A questa circostanza si aggiungono inoltre problemi
legati alla sedimentazione delle microsfere che non costituiscono una soluzione omogenea con il liquido fisiologico in cui sono immerse. Per l’90Y
legato a microsfere in resina o vetro
sussiste quindi l’esigenza metrologica
di realizzare un sistema primario di
misura dell’attività, a oggi non disponibile. Nell’ambito del progetto MetroMRT l’INMRI sta lavorando sulla
realizzazione di un rivelatore Čerenkov TDCR (Triple to Double Coincidence Ratio) [4] che consenta di
estendere la consolidata tecnica
TDCR, utilizzata in misure con scintillatori liquidi [5], a misure di radioattività che facciano uso della radiazione
Čerenkov emessa da particelle cariche energetiche.
Il metodo, alquanto innovativo, permette non solo una misura diretta dell’attività del radionuclide ma funge
anche da selettore d’impurezze di tipo β, eventualmente presenti nella
T_M ƒ 306
N. 04ƒ
; 2013
▲
LO SPAZIO
DEGLI IMP
soluzione. Obiettivo di tali misure è lo
sviluppo di un sistema primario di
misura dell’attività di microsfere di
90Y in modo da consentire la taratura
per tale radionuclide di strumenti di
misura dell’attività in uso presso centri
di produzione di radio farmaci e/o
centri di medicina nucleare presso
strutture ospedaliere.
Misura dell’attività nel volume
di interesse
attraverso procedure
di imaging quantitativo
Nei trattamenti di radioterapia molecolare larga parte dell’attività somministrata al paziente si accumula preferenzialmente all’interno del distretto
tumorale. Tuttavia, inevitabilmente,
parte dell’attività si localizzerà anche
all’interno di organi o tessuti sani. La
determinazione dell’attività all’interno di un determinato distretto anatomico è possibile grazie a tecniche
d’imaging quantitativo con gamma
camera o PET (Positron Emission
Tomography). A tal fine è necessario
effettuare la taratura dei suddetti
sistemi e sviluppare opportune catene
di riferibilità.
Una gamma camera è costituita da
un sistema a due o tre testate di
misura in grado di acquisire immagini scintigrafiche grazie all’impiego di cristalli rivelatori (generalmente NaI(Tl)) montati sulle testate e
accoppiati a fotomoltiplicatori. Le
immagini scintigrafiche rappresentano la distribuzione della radioattività all’interno del distretto anatomico.
Per definizione una gamma camera
è in grado di rivelare radiazione
fotonica, quali radionuclidi gammaemettitori e, in alcuni casi, radionuclidi beta-emettitori che producono
radiazione gamma di frenamento
sufficientemente energetica da emergere dal paziente.
I sistemi PET forniscono informazioni
di tipo funzionale, e impiegano come
rivelatori un elevato numero di cristalli (generalmente BGO, LSO o di GSO)
assemblato in blocchi, ciascuno dei
quali accoppiato a un gruppo di fotomoltiplicatori. Questi blocchi, nel numero di un centinaio, vengono organizzati a formare un anello con dia-
metro di 80-90 cm. I sistemi PET sono
in grado di rivelare in coincidenza i
fotoni da 0,511 MeV emessi a seguito dell’annichilazione di un positrone
(β+) con un elettrone della materia,
fornendo un’informazione sulla posizione dell’evento.
La taratura di un sistema d’imaging
consiste nella determinazione del
coefficiente di conversione (Bq/
cps⋅s-1) tra il rateo di conteggio del
sistema di acquisizione (cps⋅s -1 ) e
l’attività di un radionuclide (Bq) all’interno di un determinato volume
d’interesse in un organo del paziente. Essa è eseguita acquisendo l’immagine di una sorgente campione in
geometria e attività note in determinate condizioni di riferimento. Il
coefficiente di conversione è funzione del radionuclide e del sistema di
rivelazione utilizzato. La successiva
elaborazione dell’immagine e l’applicazione di opportuni fattori di correzione che tengano conto dei diversi effetti fisici che contribuiscono a
degradare la qualità dell’immagine
consentono la determinazione dell’attività nelle condizioni cliniche di
misura.
Attualmente non sono disponibili procedure standardizzate per la taratura
di sistemi SPECT o PET. Le pubblicazioni internazionali di riferimento riportano l’esistenza di più metodiche
di taratura e di più algoritmi di correzione delle immagini, non sempre
confrontabili tra loro a causa della diversità degli algoritmi e dei procedimenti di calcolo.
Nell’ambito del progetto MetroMRT
l’INMRI collabora al raggiungimento
dei seguenti obiettivi:
I) il consolidamento della riferibilità
metrologica dei campioni di attività
impiegati nella fase di taratura della
gamma camera;
II) lo sviluppo di protocolli di taratura
standardizzati e validati dagli istituti
metrologici nazionali partecipanti;
III) la determinazione dei principali algoritmi e fattori di correzione che intervengono nel processo d’imaging;
IV) la valutazione dell’incertezza composta nella determinazione dell’attività tramite procedure d’imaging quantitativo.
N. 04ƒ
;2013
Integrazione temporale delle
immagini acquisite tramite
imaging quantitativo
Ai fini della valutazione della dose
assorbita dall’organo o tessuto d’interesse è necessaria la determinazione
del numero totale di particelle emesse
all’interno di esso, ottenibile eseguendo l’integrale della curva attivitàtempo calcolata nel volume selezionato. A livello clinico la curva attivitàtempo si determina acquisendo una
serie d’immagini a diversi intervalli
temporali, seguendo cioè la biocinetica del radiofarmaco per periodi sufficientemente lunghi. Le curve attivitàtempo seguono generalmente una
cinetica esponenziale o multiesponenziale a seconda dei tempi con cui l’attività viene assorbita o rilasciata dal
distretto d’interesse:
Attualmente non si dispone di una
procedura standardizzata per l’integrazione delle curve attività-tempo e
le funzioni esponenziali descritte nella
relazione (1) sono generalmente derivate tramite procedure d’interpolazione di dati clinici. Il valore finale dell’integrale (2) sarà quindi affetto da
approssimazioni e incertezze legate
alla particolare procedura d’interpolazione adottata, al campionamento
temporale dei dati clinici e specifica
alla cinetica del radiofarmaco. Una
serie d’immagini total body planari,
relative allo stesso paziente somministrato con radiofarmaco 111In-Zevalin
e acquisite in tempi differenti, fino a
144 h è riportata in Fig. 1. La curva
attività-tempo è valutata delineando
una regione d’interesse e calcolando
l’attività contenuta all’interno di tale
regione in funzione del tempo. Uno degli
obiettivi
del
progetto MetroMRT è la determinazione dell’incertezza associata al valore di à quando
tale grandezza è valutata
secondo le diverse procedure attualmente
riportate nella
Figura 1 – Sequenza d’immagini total body planari acquisite sullo stesso
letteratura e l’inpaziente a diversi istanti dopo la somministrazione del radiofarmaco
dividuazione
111In-Zevalin. È chiaramente visibile la fase vascolare fino a 24 h dopo
di un’affidabile
la somministrazione. Dopo 72 h dalla somministrazione diviene
procedura d’invisibile anche la lesione sovraclaveare
terpolazione
dei punti speri(1) mentali.
A( t ) = ∑ Ai ( 0 )e − λi t
i
dove Ai(0) è l’attività iniziale dell’iesima componente esponenziale e λi
la costante di rimozione effettiva, data dalla somma della costante di decadimento fisica e della costante di rimozione biologica. Per quanto detto,
dunque, la grandezza à è data dalla
seguente relazione:
˜ =
A
∞
A ( 0)
i
∫0 A( t )dt = ∑ λ
i
i
[Bq × s ]
(2)
Determinazione della dose
Nota l’attività cumulata in un determinato organo o tessuto, la dose assorbita D nel volume d’interesse è determinata tramite la seguente relazione:
D=÷S
(3)
dove S (Gy/Bq⋅s) rappresenta la dose
assorbita nella regione bersaglio per
trasformazione nucleare all’interno
della regione sorgente. I fattori S
▲
LO SPAZIO
DEGLI IMP
dipendono dalla geometria d’irraggiamento e dal radionuclide, e sono
calcolati generalmente tramite tecniche Monte Carlo. Non esistono oggi
misure sperimentali di tale fattore riferibili a campioni primari di dose assorbita. Di conseguenza, i fattori S dipendono in maniera sostanziale dall’accuratezza dei dati nucleari disponibili e dalla tecnica di calcolo impiegata. Uno degli obiettivi del progetto
MtroMRT è sviluppare catene metrologiche utili alla determinazione sperimentale dei fattori S.
CONCLUSIONI
Attualmente non esistono in radioterapia molecolare protocolli di dosimetria clinicamente accettati, e gli studi
dosimetrici sono generalmente eseguiti sulla base d’iniziative individuali e
delle risorse tecniche disponibili presso i singoli centri che eseguono dosimetria a livello clinico. Di conseguenza i risultati dosimetrici sono oggi difficilmente confrontabili. A riscontro di
tale circostanza, recenti lavori di letteratura riportano differenze tra valore
di dose calcolato e valore misurato tra
il 10% e il 30% per misure su fantoccio in condizioni di riferimento, e
incertezze tipo nell’intervallo 10%100% per misure su paziente.
Al fine di armonizzare e rendere omogenee le procedure dosimetriche è
quindi necessario sviluppare opportune catene di riferibilità che consentano di confrontare le valutazioni dosimetriche su paziente.
Il principale obiettivo del progetto
MetroMRT attualmente in corso, al
quale l’INMRI contribuisce significativamente, è proprio lo sviluppo della metrologia di base necessaria a
garantire la riferibilità delle procedure dosimetriche in radioterapia
molecolare. La definizione di procedure standardizzate per la dosimetria clinica in radioterapia molecolare unitamente al consolidamento della riferibilità metrologica dei campioni di attività impiegati nella pratica clinica consentiranno, in futuro,
di personalizzare i trattamenti di radioterapia molecolare, con imme-
T_M ƒ 307
N. 04ƒ
; 2013
■
LO SPAZIO
DEGLI IMP
ization by means of a new TDCR-Cerenkov counting technique. Appl. Radiat.
Isot. 68(6), 1116-1120.[8] R. Broda, P.
Cassette, K. Kossert, 2007. Radionuclide Metrology Using Liquid Scintillation
Counting. Metrologia 44, 36-52.
5. R. Broda, P. Cassette, K. Kossert,
2007. Radionuclide Metrology Using
Liquid Scintillation Counting. Metrologia 44, 36-52.
diato beneficio del paziente sottoposto a terapia con le radiazioni. L’adozione di protocolli di misura dosimetrici condivisi a livello internazionale
risulta infatti fondamentale per la corretta determinazione della dose terapeutica somministrata ai pazienti e il
conseguente miglioramento delle possibilità di guarigione.
for radioiodine ablation in differentiated thyroid cancer”, Eur J Nucl Med
Mol Imaging 37:270-275 (2010).
3. International Commission on Radiation
Units and Measurements. Prescribing,
recording, and reporting photon beam
therapy: ICRU report 50. Bethesda, MD:
International Commission of Radiation
Units and Measurements, 1993.
4. Kossert, K., 2010. Activity standard-
RIFERIMENTI BIBLIOGRAFICI
Marco D’Arienzo si è laureato in Fisica nel 2003 presso l’Università Roma Tre e nel 2006 ha conseguito la specializzazione in
Fisica Medica presso l’Università di Roma Tor Vergata. Dal 2010
è ricercatore presso l’Istituto Nazionale di Metrologia delle Radiazioni Ionizzanti (INMRI) del C.R. ENEA Casaccia, dove è responsabile della sezione Campioni Primari Alte Dosi. È responsabile
scientifico in ENEA del progetto europeo “Metrology for Molecular Radiotherapy” (MetroMRT).
NEWS
▼
1. G.D. Flux, M. Bardies, C. Chiesa et al,
“Clinical radionuclide therapy dosimetry:
the quest for the “Holy Gray””, Eur J Nucl
Med Mol Imaging 34,1 (2007).
2. G.D. Flux, H. Masud, S.J. Chittenden et al, “A dose-effect correlation
SOLUZIONI INNOVATIVE PER LA
SICUREZZA DI PROCESSO ATTRAVERSO
IL CONTROLLO QUALITÀ INTEGRATO
Kistler ha recentemente presentato, nell’ambito della fiera SPS
IPC (26-28 novembre 2013 - Norimberga), nuovi componenti, sistemi e soluzioni complete per i controlli di qualità, mirate
sulla massima flessibilità, garanzia ed efficienza.
Nuova flessibilità nella misura della coppia
La nuova flangia di misura KiTorq System è in grado di fornire
all’operatore del banco prova una flessibilità senza pari nella
misurazione della coppia per i motori elettrici a combustione
interna, ingranaggi , pompe e compressori nei settori automobilistico e dell’ingegneria energetica , aeronautica e astronautica , medicina e ingegneria di processo. La base di questo
sofisticata innovazione risiede soprattutto nella separazione
dei corpi di misura e nell’unità di valutazione, così come nella
loro combinabilità modulare.
Il Sistema KiTorq è costituito da
un corpo di misura, ovvero il
rotore 4551A con una nuova
taglia di flangia, e da un’unità di
valutazione statore 4542A, che
integra vari protocolli di comunicazione, dal Profibus DP all’EtherCAT e Ether-net/IP. Così come
il rotore 4551A, Kistler offre
anche il modello a flangia
4550A di dimensioni in accordo
con il formato DIN ISO 7646.
Entrambi i rotori possono essere combinati con lo stesso statore, progettato per essere semplice da installare e per agevolare l’adattamento dei vari componenti sotto test, senza la necessità di dover ricostruire completamente l’impianto di prova.
Gli utenti beneficiano di un alto grado di flessibilità per quanto riguarda la scelta dei componenti adeguati per il rispettivo
T_M ƒ 308
banco di prova , consentendo tempi d’installazione e manutenzione ridotti. Inoltre, il design senza statore semplifica l’assemblaggio: così come il sensore non dev’essere collocato
all’interno di un anello/antenna.
Con un trasferimento completamente digitale, il sistema KiTorq
offre la massima dinamica e precisione: con un livello di precisione < 0,05% e una banda passante di 10 kHz, esso offre
la possibilità di configurare vari campi di misura impostabili
direttamente dall’operatore.
Sistemi per il monitoraggio
dei processi manuali e automatizzati
A SPS IPC Drives 2013, Kistler ha presentato alcuni accorgimenti meccanici applicati alla serie maXYmos, per un’integrazione facile e veloce nei processi manuali (presse a mano,
ecc.) oltre che in contesti automatizzati. Gli strumenti della
famiglia maXYmos facilitano la visualizzazione e la valutazione dei processi, quindi forniscono oggettivamente la garanzia
della qualità del processo integrato. Le deviazioni rispetto al
livello di qualità desiderato possono essere identificate tramite
una diagnosi “precoce” e rimosse dal processo di produzione,
aumentandone così l’efficienza e diminuendone i costi.
L’impiego di questi strumenti contribuisce a una
riduzione dei tempi di
fermo non programmati,
aumenta la disponibilità
della
macchina
e
aumenta la produttività
complessiva del processo di produzione. Oltre
a ciò, maXYmos consente la tracciabilità dei
risultati di processo, perché i monitor possono documentare tutti i dati in modo che i
pezzi difettosi possano sempre essere identificati univocamente.
Kistler offre ai propri clienti maXYmos BL (Basic Level) e maXYmos TL (Top Level), rispettivamente mono canale e multi canale, entrambi facili da usare e intuitivi.
Per ulteriori informazioni: www.kistler.com
MANIFESTAZIONI
EVENTI E FORMAZIONE
■
2014
eventi in breve
2014
7-9 GENNAIO
Lisbon, Portugal
International Conference on Pervasive and Embedded Computing
and Communication Systems (PECCS 20914)
www.peccs.org
11-12 GENNAIO
Phuket, Thailand
2014 International Conference on Artificial Intelligence
and Software Engineering (AISE2014)
www.aise2014.org
12-14 GENNAIO
Shenzen, China
The 5th International Conference on Information Technology in Education
www.engii.org/workshop/CITE2014January/Home.aspx
11-14 FEBBRAIO
Castelldefels, Spain
11th International Multiconference on Systems, Signals & Devices
www.ssd-conf.org/ssd14
17-19 FEBBRAIO
Roma, Italy
Secondo Convegno Nazionale Sensori
www.aisem.eu/CNS/Home.html
22-23 FEBBRAIO
Shanghai, China
International Conference on Electrical, Control and Automation (ICECA 2014)
www.ic-eca.org
22-23 FEBBRAIO
Shenzen, China
2014 International Conference on Energy, Environment
and Materials Engineering (EEME2014)
www.eeme2014.org
22-23 FEBBRAIO
Shenzen, China
2014 International Conference on Advanced Materials, Testing and Information
Engineering(AMTIE2014)
www.amtie.org
3-5 MARZO
Angers, France
BIODEVICES 2014 - Int’l Conf. on Biomedical Electronics and Devices
www.biodevices.biostec.org
4-7 MARZO
Orlando, USA
5th International Multi-Conference on Complexity, Informatics
and Cybernetics: IMCIC 2014
www.2014iiisconferences.org/imcic
16-17 APRILE
Torino, Italy
Affidabilità e Tecnologie - Ottava edizione
www.affidabilita.eu
20-24 APRILE
Chamonix, France
BIOTECHNO 2014
www.iaria.org/conferences2014/BIOTECHNO14.html
25-28 APRILE
Dalian, China
7th Annual world congress of Industrial Biotechnology (IBIO-2014)
www.bitlifesciences.com/ibio2014
5-6 MAGGIO
Torino, Italy
8th Workshop on Analysis of Dynamic Measurements
www.inrim.it/ADM2014
24-25 MAGGIO
Shanghai, China
2014 International Conference on Management and Engineering (CME 2014)
www.cme2014.org
27-31 MAGGIO
Torino, Italy
Advances in Foundations of Quantum Mechanics
and Quantum Information with atoms and photons
www.inrim.it/~brida/Quantum_2014
29-30 MAGGIO
Benevento, Italy
IEEE International Workshop on Metrology for Aerospace
www.metroaerospace.org
8-13 GIUGNO
Montecatini Terme, Italy 13th International Ceramics Congress
www.cimtec-congress.org/2014/abstract_submission.asp
12-15 GIUGNO
Chicago, USA
2014 IEEE International Technology Management Conference (ITMC2014)
http://ieee-tmc.org/itmc2014
18-20 GIUGNO
Ischia, Italy
International Symposium on Power Electronics, Electrical Drives,
Automation and Motion (SPEEDAM 2014)
www.speedam.org
26-27 GIUGNO
Kohala Coast, Hawaii, USA ASPE/ASPEN Summer Topical Meeting
www.aspe.org
28-29 GIUGNO
Shanghai, China
2014 International Conference on Materials Science
and Engineering Technology (MSET 2014)
www.icmset.org
8-10 SETTEMBRE
Ancona, Italy
Congresso GMEE 2014
www.gmee.org
15-17 SETTEMBRE
Benevento, Italy
20th IMEKO TC-4 Symposium
http://conferences.imeko.org/index.php/tc4/tc4_2014
T_M
N.
4/13 ƒ 309
N. 04ƒ
; 2013
▲
NEWS
UN NUOVO SVILUPPO PERMETTE DI CAPIRE MEGLIO
LE PRESTAZIONI DEGLI ASSI ROTANTI
Con il lancio del nuovo software rotativo fuori asse per il calibratore XR20-W, Renishaw ha ampliato ulteriormente la propria
serie di soluzioni per la verifica delle prestazioni di allineamento e posizionamento degli assi rotanti delle macchine utensili.
Grazie a questo software, il dispositivo XR20-W può essere utilizzato anche su macchine utensili a cinque assi che non permettano l’installazione del calibratore sul centro di rotazione. In
combinazione con il già consolidato sistema AxiSetTM Check-Up
di Renishaw, che fornisce verifiche rapide e accurate delle condizioni degli assi e dei punti di rotazione, questo dispositivo fornisce un gran numero di informazioni a chi debba ottimizzare le
prestazioni di macchine con assi rotanti.
XR20-W “fuori asse”
Il calibratore consente di misurare le prestazioni di posizionamento degli assi rotativi con un’accuratezza di ± 1 secondo d’arco utilizzando un laser XL-80. La funzione di test “fuori asse” permette di eseguire verifiche su una maggiore varietà di macchine
utensili rispetto al passato: questo significa migliore ritorno dell’investimento e possibilità di offrire maggiori servizi ai propri
clienti.
Il metodo per le misure fuori asse prevede la sincronizzazione
dei movimenti degli assi lineari e rotativi in modo che il fascio
del laser XL-80 sia allineato durante l’intero test. Dato che l’asse
lineare si sposta, le misure effettuate dal dispositivo XR20-W
potrebbero includere errori angolari aggiuntivi (ad esempio di
beccheggio) provenienti dall’asse lineare. Questi errori sono
misurati separatamente con il laser e le ottiche angolari e possono essere rimossi dai risultati di prova dell’asse rotativo. Il risultato finale è un gruppo di dati che rappresenta, separatamente
dagli altri, gli errori dell’asse rotativo.
Il software rotativo fuori asse è un’opzione aggiuntiva di XR20W e include un pacchetto di utilità software, generatori di programmi e un manuale in formato elettronico.
AxiSet™ Check-up
La conoscenza della posizione dei centri di rotazione degli
T_M ƒ 310
assi rispetto agli assi lineari è fondamentale
per effettuare lavorazioni corrette. Se la
posizione di questi punti non è nota in
maniera molto accurata, il controllo della
macchina non può guidare gli assi in
maniera affidabile e i risultati di lavorazione saranno incoerenti.
AxiSet Check-Up fornisce un metodo di
prova accurato e ripetibile usando routine
di ispezione automatiche su un oggetto calibrato, e include un’analisi semplice ma
completa. I controlli di allineamento e prestazioni di posizionamento sono eseguiti in
modo rapido e conforme agli standard e
permettono di monitorare nel tempo il funzionamento di macchine complesse. Tutte le
prove utilizzano tastatori a contatto Renishaw collocati nel mandrino, vale a dire
un’opzione standard su molte macchine
multiasse, in combinazione con routine di
ispezione generate usando macro software
specifiche per il modello di macchina e fornite con AxiSet
Check-Up. Il piazzamento è rapido e semplice: per eseguire
la prova l’utilizzatore, utilizzando una base magnetica, colloca all’interno dell’area di lavoro della macchina una sfera
tarata; con le macro del software personalizzato la sonda
effettua misure su diversi punti della sfera. I risultati delle
misure sono inviati a un PC e presentati in un foglio elettronico di Microsoft® Excel® per consentire una chiara analisi
dei dati in vari formati, inclusa una rappresentazione grafica delle prestazioni che evidenzia gli errori di centraggio e
di inseguimento, una semplice funzione che compara due
gruppi di prove su una stessa macchina, un semplice test
“passa / non passa” contro una tolleranza definita e una
schermata di analisi storica per confrontare le prestazioni
degli assi rotativi nel tempo.
Altre prove e verifiche
Per assicurare l’ottimizzazione dell’analisi degli assi rotanti
utilizzando Check-Up è importante che i tre assi lineari si muovano in maniera corretta. Questo requisito dovrebbe essere
ottenuto eseguendo le correzioni con un laser Renishaw XL-80,
e verificato regolarmente con un ballbar Renishaw QC20-W.
Insieme al sistema XR20-W e ad AxiSet Check-up, queste
potenti soluzioni assicurano che i pezzi della più alta qualità
possano essere prodotti in maniera affidabile e riproducibile
su centri di lavoro a cinque assi e macchine di tornitura-fresatura.
Si tratta di un portafoglio di prodotti ricchissimo in grado di fornire una soluzione diagnostica che non teme confronti e mira ad
eliminare completamente le variazioni all’interno dei processi di
lavorazione, per massimizzare la produttività durante il taglio
dei metalli.
Per ulteriori informazioni sui prodotti Renishaw per la taratura e
il monitoraggio delle prestazioni, vedere i siti Web
www.renishaw.com/calibration
e www.renishaw.com/AxiSet
COMMENTI
ALLE NORME
▲
COMMENTI ALLE NORME: LA 17025
A cura di Nicola Dell’Arena ([email protected])
Non conformità, azioni correttive, azioni preventive,
reclami e miglioramento - Parte nona
Miglioramento e azioni preventive
A great success has been attributed to this interesting series of comments by
Nicola Dell’Arena to the Standard UNI CEI EN ISO/IEC 17025.
RIASSUNTO
Prosegue con successo l’ampia e interessante serie di commenti di Nicola
Dell’Arena alla norma UNI CEI EN ISO/IEC 17025. I temi trattati sono: La
struttura della documentazione (n. 4/2000); Controllo dei documenti e
delle registrazioni (n. 1/2001 e n. 2/2001); Rapporto tra cliente e laboratorio (n. 3/2001 e n. 4/2001); Approvvigionamento e subappalto
(n. 3/2002 e n. 1/2003); Metodi di prova e taratura (n. 4 /2003,
n. 2/2004 e n. 3/2004); Il Controllo dei dati (n. 1/2005); Gestione delle
Apparecchiature (n. 3/2005, n. 4/2005, n. 3/2006, n. 3/2006, n. 4/2006,
n. 1/2007 e n. 3/2007); Luogo di lavoro e condizioni ambientali
(n. 3/2007, n. 2/2008 e n. 3/2008); il Campionamento (n. 4/2008 e
n. 1/2009); Manipolazione degli oggetti (n. 4/2009 e n. 2/2010), Assicurazione della qualità parte 1.a (n. 4/2010); Assicurazione della qualità
parte 2.a (n. 1/2011); Assicurazione della qualità parte 3.a (n. 2/2011).
Non conformità, azioni correttive, ecc. parte 1.a (n. 4/2011), parte 2.a
(n. 1/2012), parte 3.a (n. 2/2012), parte 4.a (n. 3/2012), parte 5.a
(n. 4/2012), parte 6.a (n. 1/2013), parte 7.a (n. /2013), parte 8.a
(n. 3/2013).
AZIONI PREVENTIVE
La norma ISO 9000 definisce azione
preventiva come “l’azione per eliminare la causa di una non conformità
potenziale o di altre situazioni potenziali indesiderabili”. Non era necessario aggiungere la seconda parte
“situazioni…” poiché la non conformità si riscontra su attività tecniche e
gestionali (cioè su situazioni). La definizione pone l’accento sul termine
potenziale, cioè su qualcosa che può
accadere subito, che non può acca-
dere o accadere nel futuro (breve o
lungo?). Il termine potenziale reca con
sé qualcosa di indefinito, e molti dubbi
sulla sua applicazione. Una società potrebbe obiettare: “perché dovrei occuparmi (e spendere dei soldi) per un
problema che potrebbe accadere ed
essere risolto tra 10 anni?”.
La definizione continua con due note.
La prima “una non conformità potenziale può dipendere da più cause” è
così ovvia e banale che, se non ci
fosse stata, sarebbe lo stesso, anche
se raramente mi è capitato di vedere
una non conformità dipendere da più
cause. La seconda “un’azione preventiva si adotta per prevenire il verificarsi (di una non conformità), mentre
un’azione correttiva si adotta per prevenirne la ripetizione”, è un delirio
pericoloso, poiché l’azione correttiva
è stata sempre applicata dapprima
per eliminare la non conformità, e poi
per evitare che si possa ripetere.
Le azioni preventive non esistevano
nelle prime norme sulla garanzia della
qualità, e neppure nelle norme per i
laboratori. Esse sono state introdotte
solo di recente, e sinceramente se non
fossero state introdotte il sistema qualità
non ne avrebbe risentito. A mio parere
non era necessario introdurre la differenza tra azione correttiva e preventiva. Tutte le norme sui sistemi qualità
erano basate sul principio che “prevenire è meglio che curare”, cioè erano
basate sulla prevenzione dei problemi.
Per esempio, il controllo della progettazione era stato introdotto per prevenire
che un errore in fase di progettazione
non si ripercuotesse nella fase di funzionamento dell’impianto. Nonostante
la definizione, un’azione preventiva
corregge qualcosa di esistente, e pertanto non ho mai capito perché introdurla e perché non chiamarla azione
correttiva. Praticamente nelle norme
sono stati introdotti due requisiti identici
ma con modalità di attuazione che
sono fortemente differenti.
Sinceramente devo ammettere che chi
ha introdotto questo termine nelle norme non mi rimane particolarmente simpatico. Naturalmente quello che prescrive la norma dev’essere applicato.
IDENTIFICAZIONE
Il punto 4.12.1 della ISO 17025 riporta due prescrizioni. La prima è
“devono essere identificati i miglioramenti necessari e le possibili fonti di
non conformità, sia di natura tecnica,
sia riguardanti il sistema di gestione”.
Nell’applicare la norma bisogna sempre tenere distinti i due casi che portano poi ad adottare le azioni preventive: (i) opportunità di miglioramento; (ii) possibili non conformità.
La prima cosa da dire è che non era
necessario specificare che si applica a
problemi di natura tecnica e di sistema
di gestione, in quanto il sistema di
T_M
N.
4/13 ƒ 311
una semplice registrazione, se esiste,
o in qualsiasi altro modo. Generalmente il riesame della Direzione serve
più ad adottare la soluzione che nella
fase di segnalazione. Per le opportunità di miglioramento non era necessario introdurre un apposito requisito:
bastava indicare le modalità di applicazione nel capitolo 4.10 della
norma. Così invece il problema è trattato in tre requisiti diversi della
norma: il 4.10, il 4.12 e in quello del
riesame della Direzione con una leggera confusione nell’applicazione.
PIANI DI AZIONE
La seconda prescrizione afferma
“quando sono identificate opportunità
di miglioramento o quando è necessaria un’azione preventiva, devono
essere sviluppati, attuati e monitorati
dei piani di azione al fine di ridurre la
probabilità del verificarsi di tale non
conformità e trarre vantaggio dalle
▼
gestione comprende tutto, compresi i
problemi tecnici (purtroppo il normatore se ne scorda sempre). Secondo me
era meglio utilizzare il termine individuare al posto del termine identificare.
La prima prescrizione è banale: bisogna solamente identificare i miglioramenti e le possibile fonti di non conformità. Chi può identificare e come si
identifica? Praticamente tutto il personale può identificare. I momenti sono
tanti: durante le attività di prova/taratura, audit interni, riesame delle procedure, informazioni di ritorno dal cliente, informazioni dal mercato, riesame
della direzione, audit esterni. La prescrizione è facile, ma le difficoltà nascono nel momento di decidere se esiste e quanto pericolo reca con sé la
non conformità potenziale, mentre le
opportunità di miglioramento sono più
facili da individuare. La cosa più semplice è quello di far sempre pervenire
la segnalazione e poi far decidere dall’Alta Direzione se attuarla.
La segnalazione può avvenire con
NEWS
N. 04ƒ
; 2013
■
COMMENTI
ALLE NORME
ESTENSIMETRI MINIATURA
PER USO OEM
Gli estensimetri miniatura Micro-Measurements sono progettati per offrire prestazioni
superiori a un minor costo per il cliente OEM
(Original Equipment Manufacturer). Questi
estensimetri possono essere usati in molte applicazioni, in particolare in quelle applicazioni ove lo spazio a disposizione è ristretto o dove è necessario limitare il consumo
in corrente, come negli apparati alimentati da batterie.
Gli estensimetri miniatura Micro-Measurements possiedono infatti una elevata resistenza elettrica in una griglia molto piccola, per esempio una resistenza da 10
kOhm in una griglia di soli 1 mm x 1 mm. La resistenza molto elevata consente di
aumentare la tensione di alimentazione per ottenere un’uscita più elevata.
Caratteristiche
• Uscita più elevata rispetto agli estensimetri tradizionali, grazie a griglie più corte;
• Alta resistenza elettrica - fino a 20 kOhm;
• Dimensioni miniaturizzate;
• Basso consumo di corrente;
Gli estensimetri miniatura sono disponibili nelle seguenti versioni:
• lineari con resistenze da1, 5, 10 kOhm;
• 2 griglie a mezzo ponte da 1 e 5 kOhm;
• 4 griglie a ponte intero da 1 e 5 kOhm per celle di carico;
• 4 griglie al taglio, ponte intero, da 1 e 5 kOhm per torsiometri;
• 4 griglie a diaframma da 5 kOhm per trasduttori di pressione.
Per ulteriori informazioni: www.luchsinger.it
T_M ƒ 312
opportunità di miglioramento”.
Come si legge, essa parte subito con un
pezzo forte, “piani di azione”, senza
valutare se è veramente necessario per
l’argomento preparare documenti di
pianificazione. Per le opportunità di
miglioramento sicuramente si dovrà utilizzare un documento di pianificazione,
mentre per le possibili non conformità
dipende dalla gravità della risoluzione
se utilizzare un piano o la semplice
registrazione. Per l’esperienza fatta
basta l’identica registrazione utilizzata
per le azioni correttive.
Per non sbagliare la norma parla al
plurale, e quindi si dovrebbe preparare più piani di azione: invece basta
preparare un solo piano per ogni argomento. La norma non porta un nome per questo documento, nel caso
del miglioramento si potrebbe chiamarlo “Piano di miglioramento”.
La norma prescrive che bisogna “sviluppare, attuare e monitorare piani di
azione”. Nel caso delle opportunità di
miglioramento, il Piano può essere preparato dal Responsabile della Qualità,
a seguito della decisione presa e poi firmata per approvazione dall’Alta Direzione; deve essere attuato da colui cui
compete la responsabilità (indicata nel
piano) e alla fine è necessaria la verifica che esso sia stato attuato e che l’azione sia stata efficace (generalmente il
Responsabile della Qualità). Nel piano
bisogna riportare: le azioni da effettuare, le risorse da impiegare (economiche
e di personale), i tempi di attuazione e
tutte le responsabilità (di attuazione e di
verifica). Naturalmente la norma non lo
dice, ma tutto dev’essere documentato:
ne consegue che oltre al Piano c’è bisogno di qualcosa per documentare le
azioni fatte.
Nel caso di una potenziale non conformità il generico modulo utilizzato per le
azioni correttive è validissimo ed esplica i due compiti: sia quello di pianificazione che quello di documentazione
delle azioni fatte. Naturalmente il modulo deve contenere tutte la fasi: dalla
segnalazione alla verifica finale.
CONCLUSIONE
Spero fortemente che questo requisito sia
tolto dalle future revisioni della norma.
▲
STORIA E
CURIOSITÀ
Mario F. Tschinke
Segnali pneumatici
nella metrologia
Il TUBO, grande incompreso
PNEUMATIC SIGNALS IN METROLOGY
The role of tubes in everyday life, in instrumentation and in making the industrial revolution possible, is briefly described here.
RIASSUNTO
Alcune notizie sulla tecnologia dei tubi e sul ruolo che essi hanno avuto e
hanno nella vita dei paesi industrializzati e nella metrologia.
I tubi esistono da sempre in natura:
non è stato necessario inventarli. La
vita nostra e degli animali dipende
dal buon funzionamento di tubi corti e
lunghi che trasportano una varietà di
sostanze più o meno fluide su e giù
per il nostro corpo, ma solo nel 1500
Andrea Cesalpino (Arezzo, 1519 –
Roma, 1603) cominciò a capire come
funzionava la circolazione del sangue. Gli antichi usavano tubi naturali
per fare cerbottane, altri attrezzi e
salsicce. I doccioni di terracotta sono
molto antichi, ma non si possono considerare veri tubi. Di tubi metallici si
ha notizia solo da due o tremila anni,
ma fino a tempi molto più recenti
l’idraulica era ancora a pelo libero e
i gas si studiavano nei laboratori.
Si parla di trombe nella Bibbia, ma
quelle di Gerico erano ricavate da
corna di capra. Gli Egizi, almeno
secondo Ghislanzoni - Verdi nell’”Aida”,
avevano vere trombe di ottone. Quanto ai Romani, il poeta Ennio (239 a.C.
– 169 a.C.) negli Annales canta: “àt
tuba tèrribilì sonitù taratàntara dìxit”.
I Romani avevano tubi di piombo e
qualcuno ha scritto addirittura che
l’Impero sarebbe caduto a causa di
un gigantesco caso di saturnismo. Le
prove non ci sono, anche per via
della riciclabilità di quel metallo.
In uso fino a tempi recenti per scarichi
e raccordi flessibili, oggi il piombo è
sparito dalle case insieme al diffusissimo cemento-amianto, purtroppo molto
meno riciclabile. Pare che la pneumatica sia nata un paio di secoli prima
bile grazie alla disponibilità di tubi di
ferro e di acciaio, realizzati per lo più
con lamiera saldata. Per le pressioni e
temperature degli impianti a vapore
hanno avuto un ruolo importante i tubi
senza saldatura prodotti a partire dal
1885 a Düsseldorf dai fratelli Reinhard
e Max Mannesmann con una tecnologia molto interessante: da un cilindro
pieno incandescente si ottiene dapprima un forato di grosso spessore con il
laminatoio obliquo; il forato, ancora
incandescente, passa a un altro laminatoio dal nome suggestivo di laminatoio a passo di pellegrino, che riduce
lo spessore e aumenta la lunghezza
fino a 10 volte quella iniziale. Questa
tecnologia permette però solo la produzione di tronchi di tubo di pochi metri. (La Mannesmann AG divenne una
multinazionale, che cent’anni dopo sarebbe passata ad occuparsi di telefonia fissa e mobile).
I limiti di lunghezza sono oggi superati con il ritorno dei tubi saldati con
nuove tecnologie.
della nostra era ed Erone certamente
bricolava sotto pressione nel I secolo
d.C., ma la tecnologia necessaria per
fabbricare tubi sottili non sarà sviluppata prima del 1600, o giù di lì. Si sa che
i Romani usavano livelli ad acqua, come quelli in uso ancora oggi, ma non si
ha notizia di come fosse realizzato il
tubo flessibile, forse con un budellino di
abbacchio. Galileo e Torricelli potevano disporre di tubi di vetro accuratamente calibrati (non possiamo fare a
meno di ricordare qui il compianto torr,
scippatoci dal metrico pascal).
Gli strumenti a fiato moderni, specialmente gli “ottoni”, sono sistemi pneumatici di tutto rispetto. Anche il cannello della pipa è un tubo – ne hanno
fatti di tutti i materiali immaginabili – e
non è un caso che in inglese il termine “pipe” comprenda sia il tubo che il
nobile attrezzo. Su scala diversa il sinonimo, o quasi, “tube” è il nome che
i londinesi usano per la loro amata
Università di Palermo
metropolitana.
La rivoluzione industriale è stata possi- [email protected]
T_M
N.
4/13 ƒ 313
Oltre che con molti acciai diversi, l’industria è in grado di produrre tubi di
tutte le misure di una varietà di altri
materiali. Il rame e le resine sintetiche
consentono l’estrusione con lunghezze illimitate.
Molti tubi, specialmente di acciaio e di
alluminio, sono destinati per tutta la
loro vita a non contenere e convogliare alcun fluido, pur essendo perfettamente in grado di farlo. Essendo un
solido di rivoluzione, un tubo ha infatti
uguale resistenza alla flessione per
tutte le giaciture del piano di sollecitazione intorno all’asse di simmetria. Rispetto al cilindro pieno, a parità di
massa impiegata può sopportare carichi di flessione e di torsione molto maggiori. I tubi di leghe di alluminio hanno
avuto un ruolo importante nelle strutture aeronautiche fino all’inizio della
Seconda Guerra Mondiale. Lo hanno
ancora insieme a quelli di acciaio, di
solito trafilati a freddo, nei telai di cicli
e motocicli. Invece quei miracoli della
metallurgia e della tecnologia che sono
i tubi ipodermici (cannule) trasportano
liquidi spesso preziosi, ma si buttano
via dopo pochi secondi di uso.
Tubi flessibili, dapprima di gomma naturale rinforzata con fibre, hanno reso
possibili gli attuali sistemi frenanti di
tutti i veicoli, a cominciare dai treni,
con aria compressa, e poi delle automobili con un fluido incomprimibile.
Molto usati i tubi corrugati in PVC e
PE, molto flessibili, che, murati “sotto
traccia” o interrati, proteggono cavi
elettrici e fibre ottiche. Quelli con diametro di pochi centimetri hanno una
proprietà imprevista: sono veri e propri generatori di segnali. Emettono
suoni se ci si soffia dentro e sono talvolta usati come strumenti musicali.
I tubi flessibili, o manichette, sono oggi
realizzati in una varietà di materiali,
quelli di polietilene o altra resina possono essere “spiralati”, cioè avere un
rinforzo di filo metallico antischiacciamento, oppure essere essi stessi “a spirale”, come quelli per aria compressa
di colore arancione che si vedono fra
le motrici e i semirimorchi o dai gommisti o quelli degli idropulsori dentali.
Urge una legge che punisca i riferimenti impropri alla gloriosa curva di
Archimede, Cartesio e Bernoulli. Oggi
T_M ƒ 314
N. 04ƒ
; 2013
▲
STORIA E
CURIOSITÀ
acquedotti in pressione, oleodotti e
gasdotti, sono realizzabili solo con tubi
metallici o di resina sintetica.
I primi servizi a rete, per acqua e gas,
erano necessariamente affidati ai tubi.
L’acqua corrente nelle case e nelle
camere di albergo è stata a lungo uno
status symbol, come oggi la vasca con
idromassaggio. Nel 1869 a Milano,
alimentate dall’usina di San Celso, in
fondo a Corso d’Italia, si accendevano
3.000 fiamme per l’illuminazione delle
strade, e 32.000 “becchi” privati nelle
case. Si ricorda che la centrale elettrica di Via Santa Radegonda – la seconda in Europa, dopo quella di Londra –
è stata costruita soltanto nel 1883. Sorgeva praticamente all’ombra del Duomo, aveva una bella ciminiera alta
52 m, macchine motrici alternative a
vapore e 4 dinamo a 110 V capaci di
alimentare circa 5.000 lampadine.
Una rete poco nota è quella che a Londra nell’800 distribuiva a piccole industrie acqua ad alta pressione per azionare presse.
Le reti hanno necessariamente determinato lo sviluppo di strumenti contatori di costo contenuto e di accuratezza accettabile.
Merita un posto in questa piccola rassegna la Posta Pneumatica, per quanto essa avesse compiti di puro trasporto, come quelli dei piccioni viaggiatori. Diffusa fin dai primi del ‘900
all’interno di strutture bancarie o commerciali, fu anche messa a disposizione del pubblico in grandi città per
inviare lettere da un ufficio postale a
un altro. In Italia ha funzionato a Milano, Roma e Napoli dal 1910 al 1981
e l’Italia fu l’unico Paese che stampò
francobolli appositi per questo servizio. Telegrammi, espressi e lettere arrivate per posta aerea erano inoltrati
gratuitamente per posta pneumatica
ove possibile. Chiaramente obsoleto
per la trasmissione di dati e informazioni, anche questo sistema mantiene
la sua nicchia per il trasporto di piccoli oggetti e banconote.
Se il misurando è la pressione di un
fluido il trasporto del segnale per
mezzo di un tubo fino allo strumento
indicatore o al trasduttore è inevitabile,
o quasi. La rivoluzione industriale, iniziata verso la fine del ‘700, non sarebbe stata possibile senza buoni manometri, che sopravvivevano alle caldaie
e si tramandavano di padre in figlio
fino ai nostri giorni. Eugène Bourdon (1808-1884) è stato un ingegnere e orologiaio parigino, che nel 1849
ha inventato il manometro Bourdon,
valido ancora oggi e molto più compatto e robusto dei manometri a U
pieni di liquido. La misura di portate
comprende spesso una conversione in
pressione, possiamo citare i venturimetri e simili dispositivi, in concorrenza
con gli ovvi mulinelli, con il Rotameter
“a gravità”, nato in Germania nel
1908, anche per gas, e con il misuratore a induzione elettromagnetica
Schlumberger, solo per liquidi.
Nelle catene di strumentazione compare ogni tanto un segnale pneumatico,
che si converte di solito al più presto in
elettrico, più facile da trasmettere e
processare. Nella strumentazione aeronautica tradizionale troviamo sistemi
pneumatici obbligati con i sensori
Pitot/Prandtl per la velocità e con
apposite prese per la pressione statica,
indicatrice della quota, in cui un tubicino porta la pressione a un adeguato
strumento a capsula meccanico. Anche
nelle macchine lavabiancheria il livello
dell’acqua è convertito in segnale
pneumatico per azionare il “pressostato”. Nelle tecnologie meccaniche può
essere utile un sistema pneumatico per
controllare dimensioni di pezzi, ad es.
di anelli per cuscinetti a sfere. Anche
gli sfigmomanometri che misurano la
nostra tensione arteriosa sono pneumatici. Oltre all’ingombro, l’inconveniente principale di questi sistemi consiste nel tempo non trascurabile che
impiega una variazione di pressione a
percorrere una certa distanza. In navi
e edifici hanno svolto un ruolo importante i Tubi Portavoce, in cui una bella
N. 04ƒ
;2013
NEWS
▼
soffiata segnalava la chiamata con un
fischietto e poi il tubo trasmetteva le
piccole variazioni di pressione prodotte parlando. (Speaking Tube o Voicepipe, Sprachrohr).
Negli anni ’30, per merito dell’ingegnere americano Claude Elwood Shannon (1916-2001), si comincia a parlare di circuiti logici, che seguono le regole enunciate dall’inglese George Boole
(1815-1864) già nel lontano 1850. Le
vene fluide si sono rivelate molto adatte
per realizzare questi sistemi: esse hanno
infatti una proprietà esclusiva, l’effetto
Coanda, che rende possibile la realizzazione, fra l’altro, di elementi bistabili
molto semplici. Coanda, parola vagamente inquietante, sembra un gerundio,
è il cognome dell’ingegnere rumeno
Henri Marie Coanda (1886-1972, sulla
a finale ci andrebbe una specie di accento che i normali sistemi di videoscrittura non offrono), che però era di casa
in tutta l’Europa ed è stato un pioniere
dell’aeronautica.
Nel 1960 nasce la fluidica, e quindi
NUOVO SERVIZIO DI
TARATURA SEMPLIFICATA
DAKKS PER TRASDUTTORI
DI FORZA
In ambito di Sistema Qualità, sono sempre maggiori i requisiti imposti per le
procedure di taratura accreditate con
certificati di taratura. Fino a oggi, per
quanto riguarda i trasduttori di forza soltanto procedure di taratura dispendiose
e costose erano in grado di assolvere a
tali requisiti. Il nuovo servizio di taratura
DAkks semplificato di HBM Test & Measurement garantisce il superamento degli
audit. Si possono tarare senza problemi
trasduttori di forza, sia nella tecnica di
misurazione industriale per il monitoraggio di produzione sia in banchi prova
nel settore R&S.
La procedura si basa sull’esperienza e la
competenza del laboratorio di taratura
DAkks di HBM, il primo a essere accreditato in Germania ai sensi della DIN
EN ISO/IEC 17025 (ex ambito DKD),
da anni sinonimo di sicurezza e precisione. I suoi impianti di taratura, i miglio-
la logica fluida. Per convertire un
segnale elettrico in un valore di pressione è necessaria una sorgente di aria
compressa pulita a 150 kPa, l’aria passa attraverso una strozzatura tarata e
arriva a un ugello con efflusso nell’atmosfera modulabile a mezzo di una
valvola flapper a sua volta comandata
da una elettrocalamita. Il segnale di
uscita si preleva fra la strozzatura e l’ugello. Con ugello completamente aperto la pressione in uscita sarà ancora
circa 20 kPa, che si fa corrispondere
allo zero, dato che pressioni più basse
darebbero una trasmissione incerta. Il
valore massimo sarà circa 100 kPa con
il flapper a fine corsa. Questi sistemi
avevano vantaggi significativi sui relé
elettromagnetici, ma furono presto messi in ombra dalla irresistibile ascesa dell’elettronica a stato solido, che offre costi e ingombri di gran lunga inferiori. I
sistemi di controllo completamente
pneumatici hanno ancora la loro nicchia per ambienti esplosivi o in presenza di forti campi elettromagnetici.
ri dal punto di vista della tecnica di misurazione, hanno incertezze di misurazione
certificate pari allo 0,005% - 0,02% del
valore effettivo.
Normalmente la verifica delle normative
di riferimento utilizzate viene effettuata
tramite misurazioni comparative con PTB,
dove il certificato di taratura assume automaticamente il ruolo di certificazione di
tracciabilità. Questo certificato contiene
inoltre una valutazione della conformità e
dell’incertezza della misurazione, a
garanzia del superamento degli audit.
Oltre all’elevata precisione degli impianti,
la procedura comprende anche il range più
ampio di stadi di taratura esistente nel
DAkkS, che spazia da 2,5 N a 5 MN per
forza di trazione e pressione. La nuova taratura DAkkS è disponibile per trasduttori di
forza allo stesso prezzo vantaggioso di una
taratura di fabbrica.
▲
STORIA E
CURIOSITÀ
Sono stati usati comandi pneumatici
per gli organi (strumenti musicali da
chiesa o da concerto), quando, per
grandi impianti, la consolle si trova a
una certa distanza dalle canne. Gli
organisti dovevano abituarsi al ritardo fra comando ed effetto e il sistema
fu presto soppiantato da comandi
elettrici e ora anche digitali.
Pneumatico è anche, nel suo piccolo, un
comando molto diffuso in Italia, noto
come “Batteria CATIS”, per lo sciacquone del WC. E, per concludere, YouTube,
un tubo virtuale, ma molto attuale, che
non sarebbe nato se prima non fossero
arrivati i veri tubi in carne e ossa.
Mario F. Tschinke, classe 1929, ingegnere, è stato Professore Ordinario di
Misure Meccaniche nella
Facoltà di Ingegneria di
Palermo. Collocato a riposo, si occupa di storia della scienza e
della tecnica, bricolage metalmeccanico e giardinaggio.
mercato nell’industria delle misurazioni
e prove. HBM offre prodotti per la catena di misurazione completa, dalle prove
virtuali a quelle fisiche. Le sedi di produzione sono situate in Germania, USA e
Cina; HBM è presente in più di 80 paesi
nel mondo.
Per ulteriori informazioni:
www.hbm.com/it/menu/prodotti/t
rasduttori-e-sensori/forza
HBM Test and Measurement
Fondata in Germania nel 1950, Hottinger
Baldwin Messtechnik (HBM Test and Measurement) si è costruita una reputazione
come leader mondiale di tecnologia e del
Gli impianti di taratura di HBM
vantano una gamma di taratura
che si estende da pochi Newton
fino al range dei Mega Newton
T_M ƒ 315
N. 04ƒ
; 2013
▲
NEWS
LA VISIONE ARTIFICIALE NEL CONTROLLO QUALITÀ DEI RASOI
Da oltre 60 anni, BIC è presente in 160 Paesi di tutti i
continenti e il suo marchio è uno dei più conosciuti al
mondo: BIC® Cristal è la penna a sfera più venduta nel
mondo e l´azienda è il maggiore produttore di articoli
di cancelleria in Europa, America Latina e Africa, oltre
a essere un leader mondiale negli accendini tascabili
griffati. Nel 1975, BIC ha rivoluzionato il mondo della
rasatura con il suo primo rasoio monolama “usa e
getta”. Le vendite dei suoi rasoi a tre lame e a quattro
lame stanno crescendo fortemente e l´azienda è il
secondo maggior produttore mondiale di rasoi “usa e
getta”. Nel 2012, BIC ha riportato un fatturato netto di
2.482 milioni di euro, il 20% del quale derivante dai
rasoi.
Ogni rasoio BIC® è prodotto in uno dei tre stabilimenti
nel Nord della Francia (Verberie), in Grecia (Atene) e in
Brasile (Manaus). Lo stabilimento di Verberie ha installato il sistema di visione Serie XG di Keyence sulle sue
linee di assemblaggio dei rasoi BIC® Comfort Twin.
“Eseguiamo diverse verifiche di controllo della qualità. Cerchiamo lame
mancanti o difettose: ispezioniamo i
coperchi, che sono piccole parti di
plastica che tengono a posto le
lame, verifichiamo le strisce lubrificanti difettose o mal posizionate e,
infine, verifichiamo le barre frontali,
ossia le parti che scivolano sulla
pelle”, afferma Jean-Philippe Pollet,
Direttore del Progetto Assemblaggio
per i rasoi BIC® Comfort Twin/Classic. “I rasoi hanno lame lucenti e
lubrificate con barre frontali scanalate che rendono difficoltoso il rilevamento”, aggiunge Pollet “Il sistema che utilizzavamo in precedenza
scartava anche rasoi buoni, quindi
dovevamo rieseguire il controllo, facendolo però manualmente. Avevamo bisogno di un sistema di visione che
potesse superare questi problemi, eseguire numerose verifiche e ispezioni e sostenere le nostre elevate velocità di
produzione”.
Grazie all’installazione del sistema di visione Keyence,
l´impianto incrementato la sua affidabilità di rilevamento, soprattutto per tre ragioni: in primo luogo, le telecamere in miniatura del sistema hanno liberato spazio per
l´illuminazione, più grande a prestazioni più elevate, di
Keyence. Inoltre la risoluzione è più fine, nonostante le
elevate velocità di produzione: la telecamera in miniatura da 2 megapixel di Keyence è la più piccola del
mondo e trasferisce tutti i 2 milioni di pixel in 59 ms.
Infine il rilevamento è stabilizzato dagli algoritmi integrati di ottimizzazione delle immagini (filtri immagine).
Il sistema è caratterizzato da una serie di filtri in tempo
reale, incluso un filtro di correzione che elimina le
T_M ƒ 316
ombre e i riflessi sulle
superfici del target. A
differenza delle soluzioni adottate da altri
sistemi di visione, che
applicano la stessa
correzione a ogni immagine, il filtro di correzione ombre si adatta alle variazioni in
tempo reale.
“Gli algoritmi e gli
strumenti software hanno fortemente influenzato la
nostra decisione di scegliere Keyence, così come il
design compatto delle telecamere, perché non c´è molto
spazio per mettere altre cose sulle nostre macchine di
assemblaggio. Infine, anche l´intuitività e la facilità di
programmazione del sistema costituiscono un vantaggio. È facile modificare le impostazioni, e questo è
molto importante. Siamo riusciti a sviluppare rapidamente interfacce utente intuitive che permettono ai nostri
operatori di cambiare da soli le soglie di rilevamento e
le altre impostazioni”, spiega Pollet.
I sistemi di visione Serie XG di Keyence offrono un
ambiente opzionale di programmazione basato su PC,
chiamato VisionEditor, che è intuitivo, semplice e totalmente customizzabile. La programmazione viene eseguita sotto forma di un diagramma di flusso, in cui gli
utenti devono semplicemente trascinare e depositare i
´blocchi´ di elaborazione, caratterizzato da un´ampia
gamma di algoritmi e filtri.
“Il sistema di
visione Keyence
combina qualità
e stabilità di
rilevamento.
Esso ci ha permesso di ottenere una riduzione
di sei volte del
nostro tasso di
scarto dei rasoi
e di eliminare il
controllo manuale. Come si può immaginare, i conseguenti vantaggi economici sono considerevoli. Inoltre,
nonostante le telecamere siano miniaturizzate, esse
acquisiscono anche immagini a colori. Di conseguenza, possiamo verificare le sfumature delle strisce di
lubrificazione, cosa che in precedenza non era possibile. Infine, nonostante sia necessario avere un minimo
di conoscenza di base sulla tecnologia della visione, è
molto facile imparare a utilizzare il sistema”, conclude
Pollet.
Per ulteriori informazioni: www.keyence.it/PRXG7
STORIA E
CURIOSITÀ
▲
MISURAZIONI “PARTICOLARI”
a cura della Redazione ([email protected])
Misurazioni particolari
Tartarughe, laer show e windsurf...
MISURARE ESATTAMENTE
I RAGGI LASER
DURANTE I LASER SHOW
I laser show sono affascinanti, ma non
sempre innocui. A fine di evitare lesioni oculari, per legge sono stati fissati
valori limite, che devono essere rispettati dagli organizzatori di laser show.
Le misurazioni effettuate durante i laser show hanno dimostrato che spesso
i valori limite vengono superati di molto. Negli ultimi anni il numero di laser
show è sensibilmente aumentato, non
da ultimo anche perché i prezzi per
tali sistemi sono diminuiti.
Misurazione in tempo reale
Finora era molto difficile valutare il potenziale di pericolosità di un laser show
completo. Per questo motivo, l’Istituto
federale svizzero di metrologia (METAS)
in collaborazione con l’Ufficio federale della sanità pubblica (UFSP), ha sviluppato un nuovo sistema di valutazione: il Laser Show Risk Analyzer
(LASRA). Il LASRA consente di misurare e controllare sul posto il laser show
programmato nella sua interezza nel
settore destinato al pubblico. Se lo
show supera il valore limite, si può
cercare di trovare soluzioni con gli
organizzatori. Spesso bastano adeguamenti tecnici minori per minimizzare il rischio e rispettare i valori limite della OSLa. In tal modo si possono
effettuare laser show sicuri senza con-
travvenire a un divieto.
L’hardware del LASRA consiste essenzialmente di un fotosensore, che in
una prima fase di misurazione rileva
le caratteristiche relative alla potenza
del laser utilizzato. In una seconda
fase il software del LASRA analizza
direttamente il programma che pilota
il laser show. In base a ciò il LASRA
determina se vi è superamento dei valori limite nel settore destinato al pubblico. Il LASRA è stato testato in modo
intensivo nella fase pilota di questi ultimi mesi.
L’apparecchio funziona
in modo affidabile, è
stato accolto favorevolmente dagli organizzatori e dalle autorità, e
ha pure già suscitato
interesse a livello internazionale.
Per ulteriori informazioni: Istituto federale di
metrologia METAS, 3003 BernWabern, Tel. 0041/583870111 www.metas.ch
se di noleggiare l’apparecchiatura necessaria e si rivolse alla HBM, leader
nei sistemi di misurazione, che si offerse di svolgere tale compito gratuitamente. Alla fine di Febbraio 2013, la
HBM Benelux rese disponibile il sistema di acquisizione dati espressoDAQ,
il relativo software catman e il supporto di alcuni propri specialisti di misura,
per effettuare la pesatura a tre punti di
una tartaruga gigante presso lo Zoo
olandese di Blijdorp.
LA PESATURA
DI UNA TARTARUGA GIGANTE
Una delle teorie più probabili fu verificata misurando il baricentro del
guscio. Grazie alla strumentazione
all’avanguardia, ciò si poteva effettuare senza dover rovesciare sul dorso il vulnerabile animale dal peso di
150 kg.
I ricercatori si chiedevano da tempo
perché il guscio delle tartarughe giganti avesse forma così ampiamente
variabile nelle diverse isole delle
Galapagos. Si riteneva, inoltre, che la forma specifica del
guscio rendesse più facile per
la tartaruga rotolare nel modo
giusto per sdraiarsi sul dorso,
cosa che accade frequentemente nell’ambiente roccioso
del suo habitat naturale. Esistevano varie ipotesi, ma nessuno disponeva dei dati necessari per verificarle.
Il ricercatore olandese Arie
van der Meijden, quindi, deci-
Tre Celle di Carico
La struttura per eseguire la misurazione, appositamente costruita dal personale HBM e dai ricercatori, consisteva
di due piastre. Tre celle di carico tipo
Z6FC4/100 kg (strumento robusto e
affidabile, il cui alto livello di resistenza alla polvere e all’umidità è molto
utile nei giardini zoologici) erano fissate alla piastra inferiore, ciascuna
con una punta arrotondata sporgente
quale punto di appoggio; questi punti
di appoggio, che entrano nei recessi
circolari situati nella piastra superiore,
sono spaziati fra loro in modo equidistante e il triangolo così formato è
sempre stabile. Poiché i punti di ap-
T_M
N.
4/13 ƒ 317
poggio formano un triangolo equilatero, è facile calcolare il baricentro usando la geometria. Un lato della piastra fu
sollevato con un martinetto, conseguendo l’effetto di spostare il peso e quindi
il baricentro, necessario per determinare l’altezza di quest’ultima.
I dati così rilevati erano necessari per
posizionare il baricentro in un ambiente 3D. Fattori importanti nella pesatura erano il carico nominale di
100 kg e il carico di servizio di 150 kg,
per cui il sensore non si sarebbe guastato se tutto il peso della tartaruga
fosse gravato su di esso. Al fine di
raggiungere la desiderata accuratezza di 10 g, fu scelta la versione C4
da 4000 d, con un intervallo verticale minimo dello 0,0066%.
Acquisizione Dati
Piazzando la tartaruga sulla piastra
superiore, con il suo baricentro all’interno del triangolo, ogni trasduttore di
forza fornisce una parte della forza
causata dal peso dell’animale. Per
determinare il baricentro si deve calcolare l’equazione (y=ax+b) per ogni
punto di appoggio. Ciò crea tre linee
che dovrebbero intersecarsi nel baricentro.
Il terzo punto è per la verifica ed è
necessario per determinare la massa
totale. Durante la misurazione, veniva
anche inclinata la piastra superiore,
spostando così il baricentro. Era necessario conoscere anche il peso della piastra superiore e la posizione del
suo baricentro, al fine di sottrarre dal
risultato l’effetto dello spostamento del
suo baricentro.
Spostando il baricentro di un certo angolo era possibile determinare la sua
altezza.
Per poter determinare le coordinate
T_M ƒ 318
N. 04ƒ
; 2013
▲
STORIA E
CURIOSITÀ
3D del baricentro relative alla piastra,
la tartaruga doveva restare nella stessa posizione rispetto alla struttura.
L’intero allestimento fu ricostruito fotogrammetricamente per determinare la
posizione del baricentro della tartaruga.
Per le misurazioni fu utilizzato il compatto sistema di acquisizione dati tascabile universale espressoDAQ tipo
DQ430, che può misurare quattro segnali contemporaneamente, collegato
alla porta USB di un laptop e quindi
immediatamente pronto all’uso. Non
erano necessari alimentatori o cavi
aggiuntivi e tale caratteristica fu molto
utile poiché le misurazioni venivano
effettuate nella gabbia della tartaruga, che non disponeva di prese di
corrente.
Il software catmanAP si occupava di
ricevere i dati di misura dalle tre celle
di carico. Trattandosi del peso della
tartaruga, la cadenza di campionamento di 20 misurazioni al secondo
era sufficiente.
La cosa più importante era che i dati
delle tre celle di carico fossero rilevati simultaneamente. Le misurazioni erano filtrate da un filtro passa-basso Bessel con frequenza di taglio impostata a 4 Hz, filtro già integrato nello strumento espressoDAQ. Per alimentare le celle di carico fu usata
una frequenza portante con tensione
di 2,5 V, garantendo così che certi
segnali elettrici di interferenza non
avessero alcun effetto sul segnale di
misura.
Un ottimo esempio di come la ricerca,
anche quando è rivolta a un ambito
non propriamente industriale o strettamente collegato al business, possa trovare partner in grado di offrire soluzioni di misura innovative e risorse
umane provviste di elevatissimo knowhow a costo zero (o molto basso), il
cui ritorno sarà comunque interessante a livello mediatico.
e all’abilità dei surfisti, è principalmente uno dei componenti della
tavola da surf a contribuire all’ottenimento dei record di velocità: la
pinna montata sotto la tavola. Nell’ambito di un progetto di ricerca
condotto dagli studenti della Università di Vienna, sono state effettuate
misurazioni spettacolari per trovare
la “pinna perfetta”.
È un dato di fatto che alcuni progetti
di misura abbiano requisiti specifici:
sia per l’apparecchiatura di misura e
prova sia per coloro che effettuano le
misurazioni.
Le misurazioni in diretta sulla pinna
di una tavola da surf G1 (pinne
Pfaffi), iniziate dal DI Peter Pfaffenbichler (www.pfaffi.at) e da cinque studenti dell’Università di Vienna, erano il cuore del progetto: un
surfista professionista doveva
acquisire i valori di sette punti di
misura a una velocità fino a 50 chilometri all’ora.
La sfida: era essenziale che sia gli
estensimetri installati sulla pinna sia
l’apparecchiatura di misura posta nello zaino e sulla tavola da surf (laptop
e amplificatore di misura) fossero protette, in modo da fornire risultati a
“tenuta d’acqua”, nel vero senso della
parola.
Componenti delle tavole
da surf:
high-tech ma sottovalutati
La squadra di ricercatori sperava di
ottenere conoscenze approfondite
CON LA PINNA PERFETTA VERSO dalle prove per migliorare l’ulteriore
sviluppo della pinna: sebbene si tratti
IL RECORD DI WINDSURFING
di un componente high-tech, montato
Quali fattori concorrono al raggiun- su tutte le tavole da surf, essa viene
gimento di nuovi record di velocità spesso sviluppata per tentativi e concon i windsurf? Oltre alla destrezza seguente correzione degli errori. Le
N. 04ƒ
;2013
NEWS
▼
prove rigorose per l’ottimizzazione
sistematica del componente sia in laboratorio sia in campo, che da lungo
tempo vengono effettuate su molti
altri componenti e assemblaggi, sono
invece molto rare in questo settore
specifico.
Con il loro progetto di ricerca, i futuri
ingegneri dell’Università di Vienna
desideravano cambiare lo stato delle
cose, mandando la tavola da surf “in
pista”. L’eccitazione era quindi palpabile quando, durante una coppa del
mondo di surf, la tavola venne provata sul lago Neusiedl in Austria nell’Ottobre del 2012, in presenza
di vento a raffiche. Le prove furono effettuate su una tavola da surf modello Formula 167 Wide Starboard.
Nella pinna, sotto la tavola furono installati sette estensimetri prodotti dalla
HBM: tre del tipo XY41 (resistenza 350 Ohm), per misurare la torsione, e quattro del tipo LY41 (resistenza
350 Ohm), per misurare le deformazioni.
Gli estensimetri e il relativo cablaggio erano completamente annegati
nella pinna di laminato di carbonio,
per garantire che le caratteristiche
idrodinamiche non venissero influenzate.
RISCOPRI I SISTEMI
DI TARATURA INTEGRATI
“SYSTEMS SMCS”
A fronte di una crescente richiesta del
mercato, WIKA ripropone in nuova
veste i sistemi integrati di taratura
della strumentazione di processo.
Forte della pluriennale tradizione
SCANDURA, leader nella produzione
dei banchi di taratura di pressione,
temperatura e segnali elettrici, che
integrano ora anche l’ampia gamma
di controllori di pressione MENSOR e
innovativi software di gestione delle
tarature, WIKA è in grado di proporre
soluzioni alle più svariate richieste nel
campo della taratura integrata.
Oltre alle tradizionali proposte dei ban-
■
STORIA E
CURIOSITÀ
struire e riprodurre tutti
i dati di misura rilevati
dal vero. I risultati delle
serie di prove erano
chiari e i ricercatori
furono in grado di ottimizzare la pinna, ottenendo maggiori velocità durante la coppa del
mondo.
Prove e apparecchiature di prova affidabili
sono ciò che conta
nelle situazioni in cui le
misurazioni non possono fallire e ove non esistano, o siano
Risultati a “tenuta d’acqua”
Per l’acquisizione dei dati e la con- poche, le opportunità di ripetere le
versione analogico/digitale fu impie- prove.
gato l’amplificatore espressoDAQ
USB della HBM, ultra compatto, affi- Vincitore del premio
dabile e facile da usare, collegato a nella competizione mondiale
un notebook. Per la misurazione con Il progetto guadagnò anche l’attenestensimetri circuitati a mezzo e ponte zione internazionale: ad esempio,
e a ponte intero fu usato il modulo nell’“espressoDAQ Global ApplicaDQ430 per espressoDAQ: questo tion Contest”, una competizione per
modulo può essere collegato a PC idee particolarmente innovative per
e notebook mediante la porta USB e l’impiego di apparecchiature di misuconsente cadenze di campionamento ra e prova, vinse il secondo premio.
La “giuria” era costituita dai lettori
di max 40.000 valori al secondo.
La prova in campo sul lago fornì dati delle newsletter HBM, che partecipaimportanti per lo sviluppo di un banco rono e votarono il progetto in gran
prova a scala ridotta, con cui rico- numero.
fiche necessità,
ottenendo così
la migliore soluzione strumentale con il vantaggio di disporre anche di
un comodo piano di lavoro.
Sono parte integrante dei
banchi tutte le
opzioni di servizio che rendono il
sistema di taratura completamente
autonomo e “integrato”, quali:
– alimentazioni elettriche;
– alimentazioni pneumatiche;
– moduli configuratori bus di campo
HART®, FIELDBUS® e PROFIBUS®;
– segnali elettropneumatici predefiniti.
chi modulari in Rack 19” e di quelli in esecuzione predefinita, nuovo impulso è stato
dato alla produzione dei Systems
“SMCS” (Scandura Modular Calibration
Solution), che si avvale di nuove proposte
e soluzioni tecniche. Questi banchi di
taratura, grazie alla loro naturale flessibilità di realizzazione, possono essere configurati sulle specifiche esigenze del cliente, utilizzando moduli predefiniti oppure Per ulteriori informazioni:
variando gli stessi in funzione delle speci- www.wika.it
T_M ƒ 319
T U T T O _ M I S U R E
Anno XV - n. 4 - Dicembre 2013
ISSN: 2038-6974
Sped. in A.P. - 45% - art. 2 comma 20/b
legge 662/96 - Filiale di Torino
Direttore responsabile: Franco Docchio
Vice Direttore: Alfredo Cigada
Comitato di Redazione: Salvatore Baglio,
Antonio Boscolo, Marcantonio Catelani,
Marco Cati, Pasquale Daponte, Gianbartolo Picotto,
Luciano Malgaroli, Massimo Mortarino
Redazioni per:
Storia: Emilio Borchi, Riccardo Nicoletti,
Mario F. Tschinke
Le pagine delle Associazioni Universitarie di Misuristi:
Stefano Agosteo, Bruno Andò, Filippo Attivissimo,
Alfredo Cigada, Domenico Grimaldi, Anna Spalla
Lo spazio delle altre Associazioni: Franco Docchio,
Alfredo Cigada
Le pagine degli IMP: Maria Pimpinella
Lo spazio delle CMM: Alberto Zaffagnini, Alessandro Balsamo
Comitato Scientifico: ACISM-ANIMA (Roberto
Cattaneo); AEI-GMTS (Claudio Narduzzi);
AIPnD (Giuseppe Nardoni); AIPT (Paolo Coppa)
AIS-ISA (Piergiuseppe Zani); ALATI (Paolo Giardina);
ALPI (Lorenzo Thione); ANIE (Marco Vecchi);
ANIPLA (Marco Banti, Alessandro Ferrero);
AUTEC (Anna Spalla),CNR (Ruggero Jappelli);
GISI (Abramo Monari); GMEE (Giovanni Betta);
GMMT (Paolo Cappa, Michele Gasparetto);
GRUPPO MISURISTI NUCLEARI (Stefano Agosteo)
INMRI – ENEA (Pierino De Felice, Maria Pimpinella);
INRIM (Rodolfo Zich, Paolo Vigo, Franco Pavese);
ISPRA (Maria Belli); OMECO (Clemente Marelli);
SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa);
SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione e Stampa:
la fotocomposizione - Torino
Autorizzazione del Tribunale di Casale Monferrato
n. 204 del 3/3/1999.
I testi firmati impegnano gli autori.
A&T - sas
Direzione, Redazione,
Pubblicità e Pianificazione
Via Palmieri, 63 - 10138 Torino
Tel. 011 0266700 - Fax 011 5363244
E-mail: [email protected]
Web: www.affidabilita.eu
Direzione Editoriale: Luciano Malgaroli
Massimo Mortarino
È vietata e perseguibile per legge la riproduzione totale o
parziale di testi, articoli, pubblicità e immagini pubblicate
su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc.
ABBONAMENTO ANNUALE: 40 EURO
(4 numeri cartacei + 4 numeri telematici)
ABBONAMENTO BIENNALE: 70 EURO
(8 numeri cartacei + 8 numeri telematici)
Abbonamenti on-line su: www.tuttomisure.it
L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento
effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il
presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato
della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO
•
•
•
•
E
Il tema: Misure per l’ambiente
Visione artificiale
TRV: Caratterizzazione dei Materiali
Misure per la comunicazione
molto altro ancora...
ABBIAMO
LETTO PER VOI
■
La Redazione di Tutto_Misure ([email protected])
We have read for you
LA METROLOGIA DIMENSIONALE:
TEORIA E PROCEDURE DI TARATURA
Gianfranco Malagola, Aldo Ponterio
396 pp. – Esculapio Edizioni (2013)
ISBN 978-88-74886-074
Prezzo: € 39,00
Questo volume, risultato della lunga esperienza scientifica e industriale degli autori nel settore metrologico, può risultare di grande utilità per quanti hanno a che
fare quotidianamente con le misure dimensionali nell’industria meccanica. Dovete
scegliere quale strumento di misura usare? State pensando di accostarvi al mondo
della metrologia a coordinate, magari per acquistare una CMM, oppure per verificare in modo adeguato le tolleranze geometriche? Volete che il vostro sistema di
gestione della strumentazione sia conforme alla normativa garantendo la riferibilità metrologica delle misure ed effettuando adeguatamente il processo di conferma
metrologica? Volete affrontare con consapevolezza i problemi di misura e quelli di
stima dell’incertezza?
Il volume vi sarà di valido aiuto! Contiene infatti, rispetto alla precedente edizione,
un’ampia sezione riguardante la taratura degli strumenti con esempi completi di
procedure di taratura per i più comuni strumenti di misura meccanici. Rappresenta
quindi un ottimo punto di partenza per chi in azienda vuole eseguire autonomamente il processo di taratura, avendo approfondito la conoscenza sulle caratteristiche degli strumenti e sulla loro gestione. La sua lettura può essere utile anche per
la formazione tecnica, con particolare riferimento agli studenti di Ingegneria che
affrontano i problemi delle misure meccaniche.
Il volume può essere acquistato, anche on-line, tramite il sito dalla Società Editrice
Esculapio di Bologna www.editrice-esculapio.it, andando nel Catalogo e
selezionando la voce “Ingegneria” quindi “Meccanica”. Sul sito potete trovare il
Sommario completo del libro e la Presentazione dello stesso.
Gli autori
Gianfranco Malagola, laureato in ingegneria elettrotecnica, dopo una prima
esperienza nei laboratori di prova e ricerca nel settore elettrico, ha ricoperto l’incarico di Direttore Tecnico presso numerose industrie nel settore delle macchine
utensili e della strumentazione industriale. Nel settore metrologico ha svolto un’intensa attività divulgativa, è autore di innumerevoli articoli sulle problematiche di
misura ed è “Esperto Tecnico senior di Misure (Spec. Misure Meccaniche)”, certificato CEPAS.
Aldo Ponterio, laureato in ingegneria elettronica, ha svolto attività di ricerca e
sviluppo nel settore delle misure ed un’intensa attività formativa in campo metrologico erogando centinaia di corsi di formazione su tematiche di misura. È autore di
numerose pubblicazioni in ambito metrologico, partecipa all’attività di normazione
in ambito nazionale (UNI) nel campo delle apparecchiature di misura ed è inoltre
“Esperto Tecnico senior di Misure (Spec. Misure Meccaniche)”, certificato CEPAS.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO
Affidabilità & Tecnologie p. 246-247-248-249
Aviatronik
4a di cop.
Bocchi
p. 272
Cibe
p. 258
DL Europa
p. 244
DGTS
p. 264
HBM
p. 254-316-317-318
Hexagon Metrology
p. 294
IC&M
p. 270
Instrumentation Devices
p. 280
Keyence
p. 241-316
Kistler Italia
p. 308
Labcert
3a di cop
T_M ƒ
N. 320
4/13 ƒ 320
LMS Italiana
LTTS
Luchsinger
Mitutoyo Italiana
Optoprim
PCB Piezotronics
Physik Instrumente
Renishaw
Rupac
Tattile
WIKA
CAM2
p. 282
p. 292
p. 256-312
p. 242
p. 291
p. 284
p. 280
p. 262-304
2a di cop.
p. 250
p. 319
p. 302
T U T T O _ M I S U R E
Anno XV - n. 4 - Dicembre 2013
ISSN: 2038-6974
Sped. in A.P. - 45% - art. 2 comma 20/b
legge 662/96 - Filiale di Torino
Direttore responsabile: Franco Docchio
Vice Direttore: Alfredo Cigada
Comitato di Redazione: Salvatore Baglio,
Antonio Boscolo, Marcantonio Catelani,
Marco Cati, Pasquale Daponte, Gianbartolo Picotto,
Luciano Malgaroli, Massimo Mortarino
Redazioni per:
Storia: Emilio Borchi, Riccardo Nicoletti,
Mario F. Tschinke
Le pagine delle Associazioni Universitarie di Misuristi:
Stefano Agosteo, Bruno Andò, Filippo Attivissimo,
Alfredo Cigada, Domenico Grimaldi, Anna Spalla
Lo spazio delle altre Associazioni: Franco Docchio,
Alfredo Cigada
Le pagine degli IMP: Maria Pimpinella
Lo spazio delle CMM: Alberto Zaffagnini, Alessandro Balsamo
Comitato Scientifico: ACISM-ANIMA (Roberto
Cattaneo); AEI-GMTS (Claudio Narduzzi);
AIPnD (Giuseppe Nardoni); AIPT (Paolo Coppa)
AIS-ISA (Piergiuseppe Zani); ALATI (Paolo Giardina);
ALPI (Lorenzo Thione); ANIE (Marco Vecchi);
ANIPLA (Marco Banti, Alessandro Ferrero);
AUTEC (Anna Spalla),CNR (Ruggero Jappelli);
GISI (Abramo Monari); GMEE (Giovanni Betta);
GMMT (Paolo Cappa, Michele Gasparetto);
GRUPPO MISURISTI NUCLEARI (Stefano Agosteo)
INMRI – ENEA (Pierino De Felice, Maria Pimpinella);
INRIM (Rodolfo Zich, Paolo Vigo, Franco Pavese);
ISPRA (Maria Belli); OMECO (Clemente Marelli);
SINAL (Paolo Bianco); SINCERT-ACCREDIA (Alberto Musa);
SIT (Paolo Soardo); UNIONCAMERE (Enrico De Micheli)
Videoimpaginazione e Stampa:
la fotocomposizione - Torino
Autorizzazione del Tribunale di Casale Monferrato
n. 204 del 3/3/1999.
I testi firmati impegnano gli autori.
A&T - sas
Direzione, Redazione,
Pubblicità e Pianificazione
Via Palmieri, 63 - 10138 Torino
Tel. 011 0266700 - Fax 011 5363244
E-mail: [email protected]
Web: www.affidabilita.eu
Direzione Editoriale: Luciano Malgaroli
Massimo Mortarino
È vietata e perseguibile per legge la riproduzione totale o
parziale di testi, articoli, pubblicità e immagini pubblicate
su questa rivista sia in forma scritta sia su supporti magnetici, digitali, ecc.
ABBONAMENTO ANNUALE: 40 EURO
(4 numeri cartacei + 4 numeri telematici)
ABBONAMENTO BIENNALE: 70 EURO
(8 numeri cartacei + 8 numeri telematici)
Abbonamenti on-line su: www.tuttomisure.it
L’IMPORTO DELL’ABBONAMENTO ALLA PRESENTE PUBBLICAZIONE È INTERAMENTE DEDUCIBILE. Per la deducibilità del costo ai fini fiscali fa fede la ricevuta del versamento
effettuato (a norma DPR 22/12/86 n. 917 Art. 50 e Art. 75). Il
presente abbonamento rappresenta uno strumento riconosciuto di aggiornamento per il miglioramento documentato
della formazione alla Qualità aziendale.
NEL PROSSIMO NUMERO
•
•
•
•
E
Il tema: Misure per l’ambiente
Visione artificiale
TRV: Caratterizzazione dei Materiali
Misure per la comunicazione
molto altro ancora...
ABBIAMO
LETTO PER VOI
■
La Redazione di Tutto_Misure ([email protected])
We have read for you
LA METROLOGIA DIMENSIONALE:
TEORIA E PROCEDURE DI TARATURA
Gianfranco Malagola, Aldo Ponterio
396 pp. – Esculapio Edizioni (2013)
ISBN 978-88-74886-074
Prezzo: € 39,00
Questo volume, risultato della lunga esperienza scientifica e industriale degli autori nel settore metrologico, può risultare di grande utilità per quanti hanno a che
fare quotidianamente con le misure dimensionali nell’industria meccanica. Dovete
scegliere quale strumento di misura usare? State pensando di accostarvi al mondo
della metrologia a coordinate, magari per acquistare una CMM, oppure per verificare in modo adeguato le tolleranze geometriche? Volete che il vostro sistema di
gestione della strumentazione sia conforme alla normativa garantendo la riferibilità metrologica delle misure ed effettuando adeguatamente il processo di conferma
metrologica? Volete affrontare con consapevolezza i problemi di misura e quelli di
stima dell’incertezza?
Il volume vi sarà di valido aiuto! Contiene infatti, rispetto alla precedente edizione,
un’ampia sezione riguardante la taratura degli strumenti con esempi completi di
procedure di taratura per i più comuni strumenti di misura meccanici. Rappresenta
quindi un ottimo punto di partenza per chi in azienda vuole eseguire autonomamente il processo di taratura, avendo approfondito la conoscenza sulle caratteristiche degli strumenti e sulla loro gestione. La sua lettura può essere utile anche per
la formazione tecnica, con particolare riferimento agli studenti di Ingegneria che
affrontano i problemi delle misure meccaniche.
Il volume può essere acquistato, anche on-line, tramite il sito dalla Società Editrice
Esculapio di Bologna www.editrice-esculapio.it, andando nel Catalogo e
selezionando la voce “Ingegneria” quindi “Meccanica”. Sul sito potete trovare il
Sommario completo del libro e la Presentazione dello stesso.
Gli autori
Gianfranco Malagola, laureato in ingegneria elettrotecnica, dopo una prima
esperienza nei laboratori di prova e ricerca nel settore elettrico, ha ricoperto l’incarico di Direttore Tecnico presso numerose industrie nel settore delle macchine
utensili e della strumentazione industriale. Nel settore metrologico ha svolto un’intensa attività divulgativa, è autore di innumerevoli articoli sulle problematiche di
misura ed è “Esperto Tecnico senior di Misure (Spec. Misure Meccaniche)”, certificato CEPAS.
Aldo Ponterio, laureato in ingegneria elettronica, ha svolto attività di ricerca e
sviluppo nel settore delle misure ed un’intensa attività formativa in campo metrologico erogando centinaia di corsi di formazione su tematiche di misura. È autore di
numerose pubblicazioni in ambito metrologico, partecipa all’attività di normazione
in ambito nazionale (UNI) nel campo delle apparecchiature di misura ed è inoltre
“Esperto Tecnico senior di Misure (Spec. Misure Meccaniche)”, certificato CEPAS.
LE AZIENDE INSERZIONISTE DI QUESTO NUMERO
Affidabilità & Tecnologie p. 246-247-248-249
Aviatronik
4a di cop.
Bocchi
p. 272
CAM2
p. 302
Cibe
p. 258
DL Europa
p. 244
DGTS
p. 264
HBM
p. 254-315-317-318
Hexagon Metrology
p. 286-294
IC&M
p. 270
Instrumentation Devices
p. 280
Keyence
p. 241-316
Kistler Italia
p. 308
T_M ƒ
N. 320
4/13 ƒ 320
Labcert
LMS Italiana
LTTS
Luchsinger
Mitutoyo Italiana
Optoprim
PCB Piezotronics
Physik Instrumente
Renishaw
Rupac
Tattile
WIKA
3a di cop
p. 282
p. 292
p. 256-312
p. 242
p. 291-304
p. 284
p. 280
p. 262-310
2a di cop.
p. 250
p. 319
Scarica

T_M N. 4/13 ƒ 277 - Affidabilità & Tecnologie