05. 2005
2,50
anno III n.3
&
rivista quadrimestrale per la diffusione della cultura statistica
edizioni
&
rivista quadrimestrale per la diffusione della cultura statistica
Statistica & Società anno III n. 3, 2005
Reg. Trib. di Roma nº 504/2002 2/9/02
Rassegna quadrimestrale
gratuita per i soci SIS
SOMMARIO
Struttura Organizzativa:
Direttore Responsabile
Daniela Cocchi
pag.
Direttore Scientifico
Luigi D’Ambra
Condirettori
Marcello Chiodi (Didattica, Dottorati di Ricerca,
Informatica, Intervista, Statistica e mondo della
produzione)
Giuliana Coccia (Escursioni, Management,
Mercato del lavoro, Statistica ufficiale,
Territorio)
Comitato Editoriale
Marcello Chiodi
Daniela Cocchi
Giuliana Coccia
Luigi D’Ambra
Responsabili di Sezione
Giuseppe Bove
Dottorati di Ricerca
Enrico Del Colle
Territorio
Gianfranco Galmacci Informatica
Achille Lemmi
Management
Alberto Lombardo
Statistica e mondo della
produzione
M. Gabriella Ottaviani Didattica
Alessandra Righi
Statistica ufficiale
Andrea Vannucci
Escursioni
Alessandro Viviani
Mercato del lavoro
Intervista
Segreteria di Redazione
Michele Gallo
Dipartimento di Scienze Sociali
Università degli Studi di Napoli – L’Orientale
Piazza S. Giovanni Maggiore, 30 – 80124 – Napoli
Tel. 081 6909411 fax 081 675187
e-mail: [email protected]
Finito di stampare nel mese di luglio 2005
rce edizioni Piazza Bagnoli, 19 – Napoli
Tel 081 2303416 – fax 081 2428946
e-mail: [email protected]
una copia
2,50
ESCURSIONI
Luigi Ferrari: Scientificità e professionalità statistica nelle
ricerche di mercato
Aziende, Statistica, Statistici
3
6
Franco Tassinari
Scenari per L’Europa al 2030: una ricerca dell’IRPPS
12
Rossella Palomba
I sondaggi politici. Come garantire la qualità dei dati e la
correttezza delle interpretazioni?
17
Piergiorgio Corbetta
Un modello di regressione PLS per lo studio delle emissioni
di sostanze inquinanti
20
Enrico Ciavolino, Giovanni Meccariello
Tavola rotonda “Metodi, Modelli e Tecnologie
dell’informazione a supporto delle decisioni”
26
DISTRIBUTORI DI: ASAP, ACTIVSTATS, BOUNDARYSEER, CLUSTERSEER, DATA DESK, EVIEWS, GAUSS, LINDO. LINGO, MUPAD,
RATS, SCIENTIFIC NOTEBOOK, SCIENTIFIC WORD, SCIENTIFIC WORKPLACE, SPACESTAT, STAT/TRANSFER, STATA, WHAT’S BEST
STATA 9.0
TStat S.r.l., distributore unico del software Stata in Italia, è lieta di annunciare il lancio
della nuova versione di Stata, Stata 9, che rappresenta una importante revisione del software.
Stata è un software statistico completo le cui potenzialità sono in grado di soddisfare
un’ampia gamma di utenti accademici e professionali, in discipline quali economia, statistica, sociologia, psicologia, biostatistica, epidemiologia e altre. Stata 9 include una vasta
gamma di funzioni statistiche e capacità di data management complete. E’ facile da usare
per utenti alle prime armi, ma allo stesso tempo offre opzioni di programmazione sofisticate per gli utenti più esperti. Nuove potenzialità sviluppate da altri utenti e aggiornamenti
ufficiali possono essere installati semplicemente tramite internet.
Principali novità
MATA, un nuovo linguaggio di programmazione matriciale
•
Mata è un linguaggio di programmazione a tutti gli effetti, che compila le istruzioni in linguaggio numerico, le ottimizza e
le esegue molto velocemente. Mata è anche alla base di molte nuove potenzialità di Stata 9, quali i modelli “linear mixed”
e i modelli probit multinomiali.
•
Mata usa routine LAPACK per le operazioni matriciali avanzate, quali il calcolo di autovalori e autovettori, le decomposizioni
di Cholesky, LU, QR e SV.
•
Mata può essere utilizzato in modalità batch per modelli di grandi dimensioni o 0in modo interattivo.
Stimatori per dati derivanti da indagini campionarie
•
Stata 9 include due nuovi stimatori di varianza per dati derivanti da indagini campionarie (survey data): “balanced repeated
replications” (BRR) e “survey jackknife”. Tra le novità, sono inclusi anche “Multistage designs” e “poststratification”.
Linear mixed models
•
Nuovi stimatori per specificare e stimare modelli “two-way”, “multilevel”, e con “hierarchical random-effects” (MANOVA,
MANCOVA, Rank-order Logit, Bootstrap e altri)
Analisi multivariata
•
Quattro nuove metodologie per l’analisi multivariata: “multidimensional scaling”, “correspondence analysis”, “biplot anaysis”
e “Procrustean analysis”.
•
Nuove potenzialità nei metodi esistenti, specialmente per l’analisi dei fattori e dei componenti principali.
Modelli probit multinomiali
•
Includono ora la possibilità di specificare varie strutture di correlazione e strutture definite dall’utente.
Altri modelli statistici
•
I modelli probit e tobit possono ora includere regressori endogeni. I metodi di stima includono massima verosimiglianza e
stimatori a due stadi.
•
Regressioni con Poisson troncata a zero e binomiale negativa.
•
Regressioni “stereotipe logistic”.
•
Morelli ARIMA stagionali con errori standard robusti.
•
Minimi quadrati non-lineari.
Gestione dei dati
•
Supporto XML e banche dati FDA NDA
Interfaccia utente e grafici
•
Interfaccia utente potenziata con editore multiplo di file do, visualizzatori multipli, finestre di grafici multiple e molto altro.
Ampio supporto di processori 64-bit
Ulteriori informazioni su Stata 9.0 possono essere ottenute dalla TStat S.r.l.: Tel 0864 210101
Fax 0864 206014 – Email [email protected] – Sito Internet – www.tstat.it
Statistica & Società
3
ESCURSIONI Testimonianze di cultura, pratica e professione statistica all’esterno della Società
Luigi Ferrari: Scientificità e professionalità statistica nelle ricerche di mercato
Inauguriamo volentieri questa sezione di “Statistica e Società” con un’intervista a Luigi Ferrari,
presidente dell’ASSIRM (www.assirm.it), l’Associazione che raggruppa gli istituti Italiani di Ricerche
di Mercato, Sondaggi d’Opinione e Ricerche Sociali. Costituita nel 1991 su iniziativa di 14 aziende leader del settore, l’ASSIRM è cresciuta fino a rappresentare oggi, con 35 aziende associate, praticamente l’intero settore della ricerca privata. Ferrari è uno
dei maggiori conoscitori e più noti protagonisti di
questo settore: dopo essere stato fra i promotori della costituzione di ASSIRM, ne è stato presidente per
ben quattro mandati: dall’inizio delle sue attività fino
al 1995, e poi ancora dal 2001 ad oggi. In campo
internazionale, dal 1993 al 1999 è stato membro del
Consiglio di ESOMAR, l’associazione mondiale dei
professionisti della ricerca. Questi suoi incarichi istituzionali si accompagnano ad una notevole attività
di imprenditore e professionista: laureato in Economia nel 1968, si è formato nel marketing di
Procter&Gamble. Nel 1971 ha fondato Explorer
Marketing Research, rapidamente attestatosi fra i
primi istituti di ricerca in Italia per volume d’attività, e l’ha diretto fino alla sua incorporazione nel gruppo internazionale IPSOS. Poi, evidentemente non
ancora soddisfatto, nel 2001 ha fondato una nuova
società di ricerca e consulenza, People Research, di
cui è oggi presidente.
Intervista realizzata da Andrea Vannucci, il 31
Gennaio 2005.
D. “Dottor Ferrari: il settore delle ricerche di mercato e dei sondaggi d’opinione è chiaramente un
ambito in cui la scienza statistica trova ampia applicazione. Come si configura in generale il tema
della qualità scientifica (sul piano metodologicostatistico) delle ricerche?”
R. “Nel campo delle ricerche cosiddette quantitative
– perché ovviamente di queste stiamo parlando –
bisogna distinguere fra le grandi ricerche continuative, multi-cliente, sia su panel che su cam-
pioni storicizzati, e le piccole ricerche ad-hoc,
realizzate per rispondere a un quesito specifico e
per un solo cliente. Per le prime, che tipicamente
si basano su grandi impianti campionari complessi, prevedono una serie ripetuta di rilevazioni e si
usano per analisi di trend di lungo termine, la
qualità statistica è di norma molto buona. Va osservato che queste ricerche richiedono investimenti economici molto elevati, e quindi gli istituti che le realizzano sono quei pochi, più grandi, che contano sul ritorno garantito da contratti
pluriennali. Tutto ciò richiede e giustifica una
metodologia molto solida. Per quanto riguarda
invece la parte delle ricerche ad-hoc, che spazia
dai piccoli product-test alle grandi indagini sulla
brand-image, ogni scelta metodologica deve confrontarsi invariabilmente con la necessità di trovare un equilibrio fra il budget assegnato dal committente e i risultati che si desidera ottenere. La
struttura e la dimensione dei campioni non sono
più necessariamente quelle “ideali” sul piano statistico, bensì quelle che consentono un’analisi
soddisfacente a fronte di un dato costo di esecuzione della ricerca (ovviamente, sempre con un
limite minimo sotto il quale non si può che consigliare al committente di soprassedere o riconsiderare il suo investimento). In questi casi spesso il disegno campionario è più giustificato dalla
pratica che non dalla teoria. Può essere allora giusto fare un product-test con 400 casi in 4 città,
anche se non è un campione statistico ben rappresentativo di tutta l’Italia, perché le evidenze
che si cerca di misurare sono comunque abbastanza grandi, e nell’esperienza pratica si verifica che anche con un prodotto di ricerca di questo
tipo si riesce a dare al cliente le risposte che gli
servono. In buona parte delle ricerche quantitative
ad-hoc la statistica viene giocoforza applicata in
modo non strettamente rigoroso, vuoi perché i
campioni sono di dimensioni limitate, vuoi perché i casi sono estratti “per quota” e non in modo
4
D.
R.
D.
R.
Statistica & Società
probabilistico, o anche perché capita spesso di
dover fare delle analisi di incrocio le cui basi finiscono per essere piccole. D’altra parte, se su
una ricerca specifica il cliente può spendere un
budget limitato, il compito del ricercatore è di trovare la miglior soluzione compatibile con le risorse disponibili. In questi casi, non potendo basare le valutazioni sul test statistico rigoroso, sono
l’esperienza e la competenza del ricercatore che
devono suggerire quali evidenze possono essere
ritenute indicative, valutando con attenzione le
concomitanze, cercando conferme e controprove,
e usando tutte le altre informazioni che si hanno
su un dato fenomeno di mercato.”
“Ma il committente, quanto è attento alla qualità
scientifica della ricerca?”
“Il cliente non è quasi mai interessato ai dettagli
metodologici, ma solo al fatto che la ricerca riesca a rispondere alle sue domande: questo è quello
che i clienti intendono per “qualità”. Può capitare di incontrare il responsabile interno delle ricerche che ha una formazione tecnica, ed è magari più attento ad alcuni aspetti pratici di
reperimento o elaborazione, ma comunque non
va dimenticato che anche in questi casi il cliente
non è lui, bensì il suo “cliente interno”, quello
che deve prendere delle decisioni basate sui risultati della ricerca. Assume quindi molta importanza il modo in cui i risultati sono analizzati,
integrati con altre informazioni; il ricercatore è
un consulente, che deve conoscere il mercato in
cui opera il cliente, e se è bravo riesce a segnalare al cliente quei fenomeni che sono importanti
anche quando non si può avere la garanzia del
test statistico. Per la correttezza statistica del prodotto il cliente si affida all’istituto, alla sua competenza, al suo nome, all’esperienza che si è consolidata con esso.”
“Quali sono stati i temi di ricerca – o i committenti – che hanno maggiormente favorito lo sviluppo metodologico delle ricerche, ponendo quesiti che hanno richiesto nuove tecniche, nuovi tipi
di analisi?”
“Storicamente, più o meno negli anni settanta, ci
sono state le grandi case automobilistiche che hanno dato un grande impulso, per esempio, alle tecniche di conjoint-analysis, e questo perché l’automobile è un prodotto complesso, il cui acquisto
è influenzato da molte variabili diverse, non solo
intrinseche al prodotto ma anche di immagine di
D.
R.
D.
R.
marca, di clima economico. Questo ha dato un
impulso notevole alle metodologie di ricerca e
analisi multivariata, sul quale poi, a rimorchio, si
è sviluppato molto anche in altri ambiti. Vent’anni più tardi, negli anni novanta, si sono usate le
stesse metodologie per studiare il mercato della
telefonia mobile, un settore in cui i comportamenti
di consumo sono, di nuovo, molto complessi, e
dove gioca molto l’emotività, l’innovazione. Oggi
si inizia ad applicare le analisi multivariate in campo finanziario, un ambito in cui c’è ancora molto
da crescere. Questo è certamente un buon esempio di un particolare settore di clienti che hanno
fatto sviluppare drasticamente una nuova metodologia di ricerca.”
“Tornando al tema della qualità; se distinguiamo
fra questionario, rilevazione, elaborazione e analisi, in quale di queste fasi si gioca maggiormente
la qualità scientifica di una ricerca di mercato?
Qual è la fase più critica sul piano metodologico?”
“La fase della raccolta dei dati è senz’altro quella più critica e determinante per la qualità della
ricerca: vale il principio del “garbage-in,
garbage-out”; se i dati raccolti sono scadenti, non
c’è disegno campionario o tecnica di analisi che
possa salvare il prodotto di ricerca. Al contrario,
se i dati raccolti sono buoni, l’analisi potrà magari essere mediocre, ma difficilmente potrà dare
luogo a errori grossolani. E questa della qualità
nella rilevazione è anche forse l’area di maggiore differenziazione fra gli istituti: la cura che si
mette nel realizzare questionari, nell’istruire gli
intervistatori e nel controllarli. Non è una coincidenza il fatto che gli istituti che garantiscono la
maggiore qualità nelle ricerche sono particolarmente accurati nel controllo delle strutture di rilevazione.”
“Su questi argomenti di cui abbiamo parlato, Lei
vede una qualche specificità in ciò che si osserva
in Italia rispetto ad altri paesi? Stiamo messi meglio, peggio...?”
“No, credo che la situazione Italiana sia assolutamente in linea con quanto avviene in altri paesi.
Il nostro è un mercato più piccolo, ad esempio, di
quello Inglese, Francese o Tedesco, ma sostanzialmente il livello scientifico delle ricerche è
analogo. Ci sono ovviamente delle differenze: in
Inghilterra la qualità del fieldwork è certificata da
un ente indipendente, in Germania si tende a fare
campioni enormi anche se il questionario è di so-
Statistica & Società
D.
R.
D.
R.
lito più elementare. Ma globalmente i problemi
di carattere scientifico sono gli stessi, non c’è una
qualità veramente diversa. Sto parlando specificamente del settore delle ricerche; se invece parliamo dei sondaggi, un settore più piccolo e dove
la “cassa di risonanza” è maggiore, lì le cose possono cambiare anche significativamente.”
“Vi è un ruolo distinto e riconoscibile per gli statistici nelle aziende di ricerche di mercato?”
“Per i motivi già ricordati, il ricercatore di mercato deve avere una competenza molto articolata,
e conoscere il settore in cui opera da consulente.
Quindi, la competenza metodologica “pura” non
è di per sé sufficiente. Certo, uno statistico che
voglia fare questa professione parte con un vantaggio notevole rispetto a chi ha svolto altri studi,
perché capisce l’essenza pratica del nostro mestiere che è quella di fare stime campionarie e trarne indicazioni generali. Deve però acquisire altre
competenze, tipicamente nel campo del
marketing, e deve in qualche modo accettare che
la sua conoscenza specifica venga utilizzata come
“ingrediente” di un prodotto più articolato e complesso. Ciò che della statistica si applica in questo settore è comunque una frazione abbastanza
limitata e molto specifica.”
“Abbiamo toccato il tema delle istituzioni che garantiscono la qualità. In Italia l’ASSIRM nacque
con una forte connotazione sul piano della qualità, e gli istituti che la costituirono volevano distinguersi rispetto ad altri proprio per le garanzie
di metodo, qualità, capacità tecniche che si impegnavano a fornire. Oggi invece l’ASSIRM raggruppa praticamente tutti gli istituti che fanno ricerche, e quindi non vi è più un valore di “differenziazione” di alcuni rispetto ad altri: come si
esprime, allora, l’attenzione alla qualità?”.
“L’ASSIRM era nata come un’associazione di istituti prevalentemente grandi, e si era data uno statuto molto limitativo: l’accettazione di un nuovo
associato prevedeva limiti di fatturato, di referenze. Questa scelta era legata a una fase storica in
cui si voleva creare una consapevolezza, un’identità di un settore che era poco conosciuto. Poi,
alla fine degli anni ’90, soprattutto in concomitanza con l’introduzione della normativa sulla
privacy, l’associazione si è trovata sempre più
spesso a svolgere un ruolo di rappresentante del-
5
la categoria ed è sembrato naturale e necessario
far evolvere l’ASSIRM in una vera e propria associazione di settore, fino ad associarsi in Confindustria. Ovviamente, questo ha comportato la
scelta di rimuovere i limiti all’ammissione di nuovi soci, in modo che qualsiasi azienda che svolga
quest’attività economica possa effettivamente associarsi ed essere rappresentata. L’ASSIRM ha
comunque mantenuto un rigido codice deontologico, dei propri criteri di certificazione di qualità,
e si è dotata di un comitato disciplinare che verifica, in modo oggettivo, l’applicazione degli
standard previsti da parte degli associati. L’attenzione alla qualità, quindi, è cambiata nelle forme
e nelle regole, ma non è per questo ridotta.”
D. “Quali opportunità vede per sviluppare un utile
rapporto fra un’associazione di imprese come
l’ASSIRM e un’associazione scientifica come la
SIS?”
R. “Noi crediamo che sia molto importante per
l’ASSIRM sviluppare una collaborazione con la
SIS, così come anche con tutte quelle istituzioni
che, pur se non in logica imprenditoriale e commerciale, hanno un comune interesse nel settore
delle ricerche basate su rilevazioni sul campo.
Certamente, un primo ambito di possibile collaborazione è quello della formazione: abbiamo già
sviluppato delle iniziative con alcuni istituti universitari, collaborando alla realizzazione di
master e ospitando degli accademici all’interno
dei nostri corsi di ricerche di mercato; queste iniziative devono essere ampliate. Ma credo anche
che sarebbe molto utile sviluppare una più intensa collaborazione fra le imprese private e le istituzioni universitarie e gli scienziati “teorici” in
generale. Su questo tema in particolare, credo che
il problema principale sia quello di snellire le modalità e i tempi con cui si può definire una collaborazione: per un’azienda che opera sul mercato, spesso i tempi che vanno dalla progettazione
alla realizzazione di una ricerca sono di poche
settimane, e questo spesso finisce per impedire
la collaborazione, ad esempio, con un istituto
universitario. Comunque, ritengo senz’altro utile aprire un canale fra ASSIRM e SIS per esplorare diverse opportunità di scambio, e sono certo
che anche quest’intervista contribuirà allo scopo!”.
6
Statistica & Società
Aziende, Statistica, Statistici
Franco Tassinari
Dipartimento di Scienze Statistiche “Paolo Fortunati”, Università di Bologna. e-mail: [email protected]
Incertezze dell’oggi
Se si conviene che la Statistica consista essenzialmente in un insieme di strumenti logici e matematico-probabilistici per la misura e il trattamento
di insiemi di informazioni configurabili come fenomeni di massa, ne deriva che la sua conoscenza non
solo è cruciale in ambito scientifico, ma fondamentale nella gestione aziendale e di non trascurabile
importanza nella vita quotidiana. È ovvio, d’altro
canto, che la formazione degli specialisti e la disseminazione del sapere e della cultura statistica nella
società sono compiti primari della comunità degli
statistici accademici.
Il tentativo di riaprire la discussione sulle prospettive della Statistica in Italia e, in particolare, sull’uso che ne viene fatto nelle aziende pone, a mio
parere, l’esigenza di partire da alcune considerazioni sull’attuale situazione universitaria e dalle incertezze che sembrano segnarne le prospettive. La marcata espansione degli iscritti e i cambiamenti profondi degli ordinamenti didattici rendono, giorno
dopo giorno, la vita degli atenei sempre più complicata. A ciò si aggiungono il blocco delle prese di servizio dei docenti vincitori di concorso, i tagli ai bilanci con le inevitabili ricadute negative sulla ricerca
e sulla didattica, i ritardi di una nuova disciplina dei
concorsi e della riforma dello stato giuridico dei docenti, la minaccia incombente di una sottrazione di
competenze e di riduzione dell’autonomia. Di particolare gravità mi sembra anche la mancanza di una
valutazione severa dei risultati delle modifiche introdotte agli ordinamenti didattici sui quali sembra
dovrà innestarsi la nuova architettura ad Y, che comporterà inevitabilmente per la sperimentazione in atto
da un triennio ulteriori complicazioni per la
coesistenza del vecchio, del nuovo e del nuovissimo
ordinamento e che si prolungherà per almeno altri
tre-quattro anni con un inevitabile aumento di gravi
incertezze per gli studenti e di problemi organizzativi per le facoltà.
Sostanzialmente, alla riforma degli ordinamenti
didattici il mondo accademico non si è opposto. Al
contrario, prestando scarsa attenzione al fatto che la
laurea triennale deve accorciare i tempi di permanenza dei giovani all’università e assicurare opportunità effettive di inserimento nel mercato del lavoro, una parte non trascurabile della corporazione accademica ha interpretato questi obiettivi introducendo nuove materie e aumentando in non pochi casi il
numero delle prove d’esame rispetto ai corsi di durata quadriennale e senza preoccuparsi eccessivamente di rinnovare forme e metodi della didattica. Il risultato è che la riforma – alla quale sono stati posti
in ritardo alcuni paletti con l’introduzione per i singoli corsi di studio di requisiti minimi in termini di
iscritti, di docenti e di strutture (non sempre rispettati) – ha prodotto una estrema diversificazione di lauree, in alcuni comparti addirittura eccessiva, a cui le
immatricolazioni non hanno ancora dato risposte
adeguate. Di fatto, impostando su basi specialistiche
numerosi corsi di studio triennali, si è sacrificata la
dimensione culturale generale dei processi formativi rendendo più rigida la transizione dei giovani nel
mondo del lavoro.
Il disorientamento nella scelta del corso di laurea e l’attuale stato di confusione delle facoltà universitarie si giustificano quindi ampiamente. E per
quanto riguarda l’area disciplinare in cui trovano
spazio le discipline statistiche, la difficoltà di valutare in modo chiaro le professionalità dei nuovi titoli
di studio inducono i giovani a preferire i corsi di laurea già ampiamente collaudati delle Facoltà di Economia, di Scienze politiche, di Giurisprudenza e di
Ingegneria.
Uno scoglio da superare
Nel quadro appena abbozzato le Facoltà di
Scienze Statistiche, che sono corsi di studio con pochi iscritti e che proprio per il rapporto favorevole
studenti/docenti sono in grado di formare giovani ben
Statistica & Società
preparati e di qualità professionali elevate, incontrano sotto diversi aspetti difficoltà non trascurabili. Ai
giovani che si laureano nelle discipline statistiche il
mercato del lavoro offre non solo la possibilità di
inserirsi in tempi estremamente rapidi in pressoché
tutti i settori produttivi, ma anche nuove opportunità
di lavoro favorite dal recente sviluppo delle tecnologie del trattamento delle informazioni e della comunicazione. Tuttavia, come qualche mese fa rilevava
Il Sole-24 Ore, queste facoltà non sono in grado attualmente di soddisfare la domanda potenziale di laureati. Quello del basso numero di laureati è lo scoglio da superare. Ma a fronte di una situazione all’apparenza favorevole, i corsi di laurea nelle discipline statistiche stentano paradossalmente ad attrarre i giovani, come dimostra da alcuni anni la crisi
delle iscrizioni che neppure le provvidenze previste
da quest’anno per i nuovi immatricolati e la recente
riforma degli ordinamenti didattici sembrano in grado di risolvere. Formulare una diagnosi sul calo delle iscrizioni, che non è congiunturale come qualcuno è portato a pensare, è difficile perché le cause sono
al tempo stesso numerose e complesse. Ma è certo
incontestabile che il livello tendenzialmente alto degli standard richiesti da questi corsi di studio (non
sempre pienamente giustificato) favorisce la concorrenza molto forte delle lauree economiche e
sociologico-politiche che non di rado i giovani prediligono per le minori difficoltà da affrontare. Parimenti incontestabile è la scarsa presenza e, di conseguenza, la visibilità limitata delle Facoltà di Scienze
Statistiche, cinque in tutto (a Milano, Padova, Bologna, Roma e Messina), alle quali si aggiungono i corsi
di laurea nelle discipline statistiche di alcune Facoltà di Economia, in un sistema universitario che conta oltre 500 facoltà distribuite fra 74 atenei (che sembrano molti ma che in realtà ci collocano in coda fra
i paesi dell’Ocde) e poco meno di 3000 corsi triennali
del nuovo ordinamento. Ovvio quindi che sia estremamente difficile attrarre giovani al di fuori dei tradizionali bacini di utenza dei singoli atenei.
Ma a mio parere vi sono anche altre ragioni che
spiegano il basso numero di iscritti; ragioni connesse alla scarsa cultura statistica del nostro paese, del
1
2
7
tutto anomala per una società sviluppata che nell’informazione e nella conoscenza dovrebbe trovare il
suo punto di forza. In Italia, coloro che hanno idee
abbastanza chiare sulla Statistica sono ancora relativamente pochi – direi, anzi – troppo pochi. Del resto, la disciplina manca od è sostanzialmente ignorata nell’istruzione secondaria, ha da tempo un ruolo
marginale in numerose facoltà di Economia ed è assente in pratica nei corsi di laurea in Ingegneria
gestionale e di Giurisprudenza, in corsi di studio cioè
deputati alla formazione dei quadri dirigenziali delle
aziende e della pubblica amministrazione. E a questo riguardo è appena il caso di sottolineare che se il
dirigente non ha quanto meno mentalità statistica sarà
difficile che capisca l’importanza delle tecniche
quantitative e ne favorisca l’impiego all’interno dell’azienda. C’è, d’altra parte, un altro aspetto che non
può non preoccupare: mi riferisco a quella sorta di
deresponsabilizzazione sociale che, come sostiene
Giacomo Becattini1 riferendosi agli economisti, accompagna la crescente specializzazione dei ricercatori e dalla quale non vanno esenti – di questo sono
convinto – neppure gli statistici.
Anche Stephen Gould riprende Benjamin
Disraeli
Lo scrittore inglese Herbert G. Wells sosteneva
circa un secolo fa che il pensare in termini statistici
sarà necessario un giorno per una vita civile ed efficiente quanto l’abilità del saper leggere e scrivere.
Wells, in fondo, aveva visto giusto, ma non fu buon
profeta. Più di recente Ian Hacking scrive che “la
gente ha imparato ad usare i numeri […] e saper calcolare è considerato altrettanto importante che leggere e scrivere”2. Ma tutto sommato siamo ancora
ben lontani dall’intendere correttamente la Statistica
e dall’acquisizione di uno stile di ragionamento statistico corretto. Sono ben note, d’altra parte, e forse
non casuali, le canzonature che circolano da molto
tempo sulla disciplina, che non servono a fare chiarezza ma piuttosto ad alimentare confusione e opinioni distorte: dalla battuta di Trilussa all’aforisma
attribuito a Disraeli, oltretutto continuamente ripre-
G. BECATTINI, Per una critica dell’economia contemporanea, in “Società Italiana degli Storici della Economia. La storia dell’economia nella ricerca e nell’insegnamento”, Bari, 1996, p. 255.
L’epistemologo canadese IAN HACKING ha dedicato un libro intitolato dall’editore italiano Il caso domato (Milano, 1994) al dibattito
ottocentesco sui rapporti fra scienza e probabilità e, in estrema sintesi, all’erosione del determinismo.
8
Statistica & Società
so 3. E difatti è di pochi mesi fa un articolo de
L’Espresso che riferiva come il biologo Stephen
Gould avesse riproposto la distinzione fra le bugie,
le dannate bugie e la statistica.
Non sono certamente pochi coloro che sostengono che non di rado il modo statistico di ragionare
può risultare più efficace del ricorso a strumenti e a
metodi complessi e ad elaborazioni sofisticate. Ma è
dubbio che una posizione di questo tipo possa essere
generalmente sostenuta.
La conoscenza superficiale della Statistica coinvolge anche e soprattutto numerose aziende, specie
di piccola e media dimensione, dove i metodi che
qualificano il corpus della disciplina risultano di fatto poco o niente utilizzati, mentre gli statistici occupano uno spazio assai limitato e posizioni marginali
o addirittura non esistono. Ovviamente generalizzare a questo riguardo non è lecito. Ed infatti, soprattutto le società di consulenza rilevano che nell’ambito di alcune piccole e medie aziende industriali
emerge la consapevolezza che il vero fattore di integrazione tra i processi aziendali è la circolazione efficiente dei dati e che il dato rappresenta l’elemento
integratore. Alla luce di questa visione vi sono aziende che hanno scoperto che la vera inefficienza consiste nell’avere al proprio interno dati eterogenei, raccolti e distribuiti in modo non programmato, non
comunicanti tra loro e, soprattutto, scarsamente utilizzati4. Se, d’altro canto, ci si sposta nell’ambito delle
grandi imprese una testimonianza esemplare è stata
portata al convegno dell’Istituto Internazionale di
Statistica tenutosi a Berlino nell’agosto 2003 dalla
Nestlé. Ma sono ancora molte, troppe le aziende in
cui è diffusa l’idea che la Statistica consista essenzialmente nella raccolta più o meno sistematica e organizzata di dati economici, amministrativi e contabili: un’idea della disciplina del tutto riduttiva e ancillare.
Nel sistema delle funzioni di controllo della gestione aziendale, che pure ha registrato in questi anni
uno sviluppo considerevole, non è stato introdotta a
livello operativo alcuna sostanziale utilizzazione dei
metodi statistici. In tal modo anche là dove viene
prodotta una grande quantità di informazioni, in
mancanza di competenze statistiche le funzioni di
controllo, organizzazione, elaborazione, analisi e in-
3
4
terpretazione dei dati apportano inevitabilmente alla
gestione aziendale contributi di conoscenza molto
inferiori alle loro potenzialità. Questo purtroppo sta
a significare che anche nell’insegnamento universitario i rapporti di interscambio soprattutto fra statistici e docenti di discipline aziendali non hanno fatto
grandi progressi. Così come non produssero risultati
significativi alcuni convegni dedicati alla Statistica
Aziendale congiuntamente promossi nel corso degli
anni Cinquanta da statistici e aziendalisti di chiara
fama. Sotto questo profilo mezzo secolo sembra passato quasi invano!
Un esempio sull’idea vaga che si ha della Statistica lo troviamo nel Documento della Commissione paritetica per i Principi di Revisione del Consiglio Nazionale dei Dottori commercialisti e del Consiglio Nazionale dei Ragionieri dal titolo “Il campionamento nella revisione” (l’edizione è del 1995)
dove si legge che il campionamento può essere fatto
o meno con metodi statistici e che “tutti i metodi di
campionamento, quando correttamente applicati, forniscono sufficienti ed appropriate evidenze
probative”. Ed ancora: ”il revisore deve usare il proprio giudizio professionale nel determinare e selezionare il campione da esaminare, nello svolgere sul
campione le procedure di revisione e nel valutare i
risultati ottenuti dalla applicazione di tali procedure
di revisione”. Non insisto nella citazione. Mi limito
soltanto a sottolineare la grossolanità e, in fondo, la
pericolosità di affermazioni come quelle riportate.
Le vicende recentissime dell’americana Enron e dell’italiana Parmalat testimoniano quanto meno lo scarso rigore con cui si effettuano revisioni e
certificazioni.
Gli eccessi della formalizzazione
Un’altra posizione ricorrente sulla Statistica è
quella di chi la immagina come una disciplina assai
vicina o addirittura coincidente con la matematica e
quindi una disciplina essenzialmente astratta. Ora,
se è vero che nelle riviste scientifiche la scena è dominata dal modo di esprimersi matematico – ed è da
condividere quindi la posizione di Alfredo Rizzi
espressa su questa rivista secondo il quale si sta as-
Negli Stati Uniti ha avuto un grande successo editoriale (oltre mezzo milione di copie vendute) un libretto di DURREL HUFF dal titolo
How to Lie with Statistics, corredato di illustrazioni umoristiche, pubblicato (New York – London) nel 1954 e ristampato nel 1982.
G. CAPITANI, La strategia è governare i dati, in “Il Sole – 24 Ore”, 22 gennaio 2004, p. 7.
Statistica & Società
sistendo ad una formalizzazione forse eccessiva dei
metodi statistici – è d’altra parte fuori discussione che
il matematico e lo statistico siano figure con fisionomie
funzionali e professionali nettamente distinte.
Quanto alle raccolte di dati statistici aziendali e
generali (le statistiche appunto, ufficiali e non, ma
non la Statistica) è superfluo almeno in questa sede
precisare che rappresentano un ingrediente indispensabile delle analisi quantitative. Gli analisti più avvertiti sottolineano peraltro e da tempo l’urgenza di
migliorare la capacità di lettura dei dati che documentano le tendenze e le principali trasformazioni
economiche sia a livello aziendale che dell’intero
sistema economico. Con ciò intendo dire che il dato
statistico prima di tutto va letto in modo corretto e
successivamente interpretato. Altra cosa dalla lettura, infatti, è l’interpretazione, che può essere diversa
se diversi sono i punti di partenza da cui ci si muove.
In altre parole, non ci si deve sorprendere se uno stesso risultato viene interpretato in modo diverso da
analisti che partono da punti di vista diversi.
In realtà, non sono tanto le statistiche che rappresentano la risorsa scarsa come molto spesso si
crede e si sente dire, quanto piuttosto la capacità di
leggerle correttamente, operazione certo non banale
che richiede la conoscenza critica dei processi formativi da cui i dati stessi provengono.
I risultati delle rilevazioni statistiche e i dati amministrativi e contabili (questi ultimi di importanza
cruciale per le esigenze conoscitive della gestione
aziendale e come supporto alle decisioni del management se utilizzati secondo un approccio statistico)
vanno in ogni caso qualitativamente migliorati e arricchiti. Questa però è questione diversa da quella a
cui ho fatto cenno sopra.
La gestione di un’azienda deve necessariamente utilizzare dati che siano omogenei nella forma e
nella sostanza per riuscire a descrivere in termini
comparativi i vari aspetti di interesse. Ma l’analisi
quantitativa dei processi economici interni ed esterni all’azienda è un’operazione complessa e – come
ho già detto – è cosa diversa della semplice lettura
dei risultati statistici.
La Statistica modernamente intesa è configurabile come un insieme di metodi, di tecniche e di modelli che per l’apporto decisivo della teoria della pro-
5
9
babilità sono utilizzabili in quelle situazioni in cui si
devono prendere decisioni in condizioni di incertezza. Sia chiaro, non strumenti per ricondurre alla certezza l’incertezza, che dipende da circostanze esterne e da aspetti non osservabili ed è un obiettivo impossibile da raggiungere, ma strumenti per ridurre –
o controllare, potrei dire – l’incertezza e i rischi connessi alla assunzione di decisioni errate.
Mi piace ricordare a questo punto quanto scriveva un grande statistico italiano, Rodolfo Benini5,
un secolo fa: obiettivo dell’analisi statistica è quello:
a) “di distinguere nei fenomeni di massa ciò che vi è
di tipico nella varietà dei casi [nel senso che risponde ad una nostra idea di perfezione], di costante nella variabilità, di più probabile nell’apparente accidentalità; b) di decomporre, fino al limite che la natura del metodo [statistico] consente, il sistema di
cause o forze, di cui essi fenomeni sono la risultante”. Quelli di Benini sono pilastri su cui la Statistica
è ancora solidamente ancorata.
La necessità di prendere decisioni in situazioni
aleatorie è tipica della vita delle aziende, dove non si
lavora mai sul certo ma sempre sul probabile (è una
espressione ripresa da de Finetti).
La produzione di grandi masse di dati e la possibilità di organizzarli in forma sistemica ha aperto
nuovi orizzonti al loro utilizzo. Con il contributo fondamentale e imprescindibile delle tecnologie informatiche, dal noto lavoro pionieristico di Harold
Hotelling del 1933 sulle componenti principali alle
attuali procedure del Data Mining l’analisi statistica
dei dati ha fatto molta strada. In ambito aziendale
tuttavia per una più estesa e corretta diffusione di
questi e dei metodi statistici in generale – giova ripeterlo – c’è ancora molto da fare. Sta agli statistici
quindi impostare una linea di azione tesa a consolidare nei manager, nei dirigenti e negli addetti ai controlli operativi della gestione la capacità di riconoscere, da un lato, l’utilità e la qualità dei dati da utilizzare e, dall’altro, la correttezza nell’uso dei metodi, in sostanza la verifica intelligente e flessibile delle condizioni della loro applicabilità; un percorso che
eviti soprattutto le scorciatoie e le seduzioni dei pacchetti informatici, sempre più potenti e versatili, ma
anche fonti potenziali di pericoli se vengono utilizzati in modo acritico.
R. BENINI, Principi di Statistica Metodologica, Torino, 1906, passim.
10
Statistica & Società
Inganni dei numeri e sconfitte dei Nobel
Mi sembra utile segnalare, anche se saranno noti
a numerosi lettori, due libri di godibilissima lettura,
resi disponibili nella traduzione italiana, che trattano essenzialmente il problema dell’analfabetismo
statistico e i pericoli che possono derivare dall’uso
improprio di metodi e modelli statistici. Del primo è
autore Gerd Gigerenzer6, direttore del Center for
Adaptive Behavior and Cognition del Max Planck
Institut di Berlino che da anni si occupa di probabilità, statistica e degli aspetti psicologici legati al comportamento in condizioni di incertezza. Punto di partenza del libro è la constatazione di come siano numerose le persone che non esitano quotidianamente
ad utilizzare dati statistici di varia natura senza riuscire ad interpretarli criticamente e mettendo in luce
di conseguenza scarsa dimestichezza con il ragionamento probabilistico e con le indagini statistiche; a
sua volta l’obiettivo è di fornire mediante il ricorso a
casi concreti illustrati in modo estremamente semplice gli strumenti mentali per imparare a ragionare
in modo statisticamente corretto attraverso una idonea rappresentazione del rischio.
Il secondo volume è di Nicholas Dunbar7, editor
tecnico-scientifico della rivista “Risk”. Nell’Introduzione all’edizione italiana cui è stato dato il curioso titolo Anche i Nobel perdono si racconta che
“con slogan come ‘gestione del rischio’ e ‘ingegneria finanziaria’ alcuni visionari [così li definisce l’autore] avevano accarezzato l’idea di rendere scientifico ciò che fino ad allora era stato pura speculazione e scommessa. Leader dei visionari erano Robert
C. Merton e Myron Scholes, premi Nobel per l’economia nel 1997 grazie alla loro teoria sul prezzo delle
opzioni”8. In precedenza, nel 1993, sulla base dei
risultati delle loro ricerche e con l’aiuto di importanti banchieri i due studiosi fondarono una società
finanziaria (Long-Term Capital Management), con
il proposito di ripulire il mercato da ogni inefficien-
6
7
8
9
za e di ottenere in cambio miliardi di dollari di utili
(come si verificò in breve tempo), apparentemente
senza assumersi rischi. Ma nell’estate del 1998 le
loro teorie e i modelli relativi smisero di funzionare
al punto che 14 banche dovettero fare fronte al disastro e creare sotto la guida della FED americana un
cuscinetto da tre miliardi e mezzo di dollari per sostenere lo LTCM mentre si procedeva al suo smantellamento.
Scopo del libro non è la demonizzazione dei
modelli statistici messi a punto dai due premi Nobel:
tutt’altro. La conclusione sostanziale è quella, anzi,
di sottolineare che le cause scatenanti di una vicenda
così complessa vanno ricercate nell’avidità degli
uomini che guidavano le banche, quindi nei modi
impropri di utilizzare i modelli e, in qualche misura
forse, nelle caratteristiche di molti cicli storici in cui
alla ‘bolla’ speculativa segue il crollo. Ma – come
osserva acutamente Guido Rossi9 riferendo il discorso
sulla cupidigia alla malattia del capitalismo finanziario – i comportamenti e la morale (o meglio la sua
scomparsa) sono soltanto un segmento del problema. Come è ovvio, l’esempio serve a sottolineare
ancora una volta i pericoli in cui può incorrere chi
applica in modo acritico metodi e modelli statistici e
quindi senza essere in grado di valutare il significato
delle ipotesi alla base dei vari procedimenti e la coerenza con la natura sostanziale del fenomeno. Non è
peraltro da escludere che nel modello in se possano
annidarsi equivoci pericolosi o forse anche errori sostanziali.
Aggiungo, riferendomi più in generale al quotidiano, che nelle fasi assai delicate dell’interpretazione dei risultati di una elaborazione statistica complessa può far danni – come ho appena osservato –,
in assenza di una buona conoscenza dei metodi utilizzati, la sempre maggiore accessibilità agli strumenti di calcolo automatico e il ricorso ingenuo ai
software statistici, peraltro strumenti indispensabili
allo specialista.
G. GIGERENZER, Calculated Risks, 2002 (nella traduzione italiana: Quando i numeri ingannano. Imparare a vivere con l’incertezza,
Milano, 2003.
N. DUNBAR, Inventing Money, Chichester, 2000 (traduz. italiana: Anche i Nobel perdono. Idee, persone e fatti della finanza, Milano,
2003).
L’impiego dei metodi statistici e della matematica nelle analisi finanziarie ha registrato negli ultimi 30-40 anni sviluppi notevoli. Si
è fatta chiarezza su alcuni fondamentali quesiti relativi alla finanza e, fra l’altro, su che cos’è il rischio, come va misurato e come può
essere gestito. Emblematica, a questo riguardo, è la teoria delle decisioni di Markowitz basata sul principio della diversificazione
del portafoglio.
G. ROSSI, Il conflitto epidemico, Milano, 2003.
Statistica & Società
Prognosi
Dopo alcuni accertamenti diagnostici, sia pure
pervasi da incertezze, mi permetto di suggerire, a mo’
di conclusione, alcuni interventi, individuando in
primo luogo i soggetti in grado di realizzarli.
Mi sembra ovvio sottolineare che l’azione di recupero dello stato di arretratezza in cui versa la conoscenza della Statistica in Italia vada affidata
prioritariamente ai Dipartimenti universitari di Scienze Statistiche e alla Società Italiana di Statistica, organismo istituzionalmente preposto alla diffusione della
cultura statistica. Alcune iniziative molto semplici e di
rapida attuazione potrebbero essere le seguenti:
a) Approfondire i rapporti fra dipartimenti di discipline statistiche, dipartimenti economici ed economico–aziendali per avviare in comune progetti
di ricerca nazionali.
b) Dare vita ad un bollettino di informazioni in una
prima fase (ma puntare al più presto ad una rivista) con una larga diffusione fra le aziende che
presenti criticamente dati statistici ufficiali mettendone in luce la qualità e la portata investigativa, che segnali con commenti adeguati risultati
di ricerche nazionali e internazionali di interesse
per le aziende, che illustri le caratteristiche dei
nuovi pacchetti informatici, ecc.
c) Prestare particolare attenzione ai programmi di
contenuto statistico della scuola superiore per
evitare, come si verifica da tempo, che le discipline statistiche là dove sono previste dai programmi ministeriali vengano trascurate o svolte da
personale incompetente. A tale fine risulterebbero utili corsi di formazione e di aggiornamento
per gli insegnanti.
Ma vi sono almeno altre due iniziative su cui è
opportuno riflettere.
11
d) Organizzare master in Statistica per l’azienda a
distanza. La diffusione della cultura statistica applicata a problemi aziendali deve anche transitare per una formazione rivolta a destinatari che già
ricoprono ruoli operativi in impresa. Un’esigenza formativa di questo tipo non può evidentemente
essere veicolata attraverso tradizionali master a
tempo pieno. In questo senso è importante evidentemente sfruttare le opportunità offerte dalle
nuove tecnologie formative. L’Università di Bologna, ad esempio, è in prima fila nell’implementazione di percorsi di e-learning appositamente
progettati per un utente già inserito nel mondo
del lavoro. Percorsi di studio personalizzati fruibili
in remoto attraverso un personal computer, affiancati da sessioni full immersion collocate nel fine
settimana, all’interno delle quali analizzare e discutere casi e problemi operativi, rappresentano
una ulteriore possibilità di diffusione del sapere
statistico che non dovrebbe essere trascurata.
e) Promuovere cicli di seminari tematici per incentivare i rapporti fra l’ambiente accademico e quello imprenditoriale. I seminari potrebbero favorire la costituzione di spin-off accademici, ossia
nuove attività imprenditoriali che traggono spunto da esperienze e ricerche realizzate presso i dipartimenti statistici che si occupano di problemi
delle aziende. L’opportunità di costruire spin-off
accademici su temi di ricerca statistica applicata
ai fenomeni economici e aziendali in particolare
rappresenta un’ulteriore opportunità che non può
non essere indagata e, se possibile, percorsa con
determinazione.
L’auspicio a questo punto è che la comunità
degli statistici soffermi l’attenzione sulle questioni
richiamate e in parte appena adombrate e ne faccia
oggetto di rapida e sistematica riflessione.
12
Statistica & Società
Scenari per L’Europa al 2030: una ricerca dell’IRPPS
Rossella Palomba
IRPPS (Istituto di Ricerche sulla Popolazione e le Politiche Sociali) CNR. e-mail: [email protected]
Studiare il futuro attraverso scenari
Decisori, amministratori pubblici, famiglie, singoli individui si pongono spesso domande sul futuro: come sarà il futuro? Quali azioni politiche possono realmente migliorare la qualità della vita dei cittadini? Come si risolveranno in futuro le controversie politiche in atto? La risposta a domande complesse come queste non può arrivare da studi disciplinari o settoriali siano essi di tipo demografico che
di mercato. Da questo tipo di analisi ci si può aspettare previsioni limitate ad alcuni settori della società
come il mercato del lavoro, le pensioni o il numero
di abitanti, tanto per rimanere in campo economico
o demografico, ma queste informazioni non sono
sufficienti a disegnare scenari futuri, ad individuare
politiche che mirino ad un reale progresso sociale e
misure appropriate per realizzarle.
Per cercare di ampliare la prospettiva sul futuro, la Commissione Europea ha finanziato recentemente l’IRPPS perché conducesse uno studio che
aveva l’obiettivo di disegnare scenari al 2030 in termini di grandi priorità politiche e di azioni concrete
destinate a realizzarle. Lo studio è stato condotto in
15 paesi europei (Austria, Belgio, Cipro, Estonia,
Finlandia, Germania, Italia, Lituania, Olanda, Polonia, Romania, Repubblica Ceca e Slovacca, Slovenia,
Svizzera, Ungheria) ed ha riguardato tre grandi temi:
invecchiamento, famiglia e fecondità e ruoli di genere. Uno studio analogo è stato condotto a livello di
organizzazioni internazionali europee quali ad esempio Commissione Europea, Parlamento, Consiglio
d’Europa. Per realizzare lo studio il gruppo di ricerca dell’IRPPS ha messo a punto una nuova metodologia di scenario planning.
Nelle previsioni demografiche o economiche
fatte dagli specialisti del settore, gli esperti stabiliscono delle ipotesi di sviluppo delle tendenze presenti. Queste ipotesi si rivelano spesso poco
realistiche e troppo riduttive della realtà complessa
oggetto di analisi, poiché tralasciano per semplicità
e necessità di analisi di considerare tutte le possibili
sinergie con settori diversi da quello di studio e si
limitano a periodi di tempo breve, poiché i dati su
cui si fondano sono soggetti a rapidi cambiamenti.
Uno scenario invece presenta immagini alternative
del futuro come conseguenza di possibili decisioni
(politiche, imprenditoriali o organizzative) senza
basarsi unicamente sulla estrapolazione delle tendenze esistenti. Ne deriva che il risultato di uno scenario
futuro (il cosiddetto scenario planning), non è mai
una fotografia accurata di quello che accadrà né va
confuso con tecniche previsive di tipo quantitativo.
Uno scenario è la descrizione quali-quantitativa di
una possibile realtà futura a seguito di decisioni prese: l’aspetto importante, a differenza di una previsione, è perciò l’obiettivo o gli obiettivi che si intendono raggiungere e la valutazione della loro fattibilità
alla luce di possibili azioni che si intraprendono.
L’idea sviluppata dal gruppo di ricerca
dell’IRPPS nella definizione di scenari possibili parte
dalla constatazione che è importante capire i problemi della realtà che ci circonda e le cause che li hanno
generati, ma, se partiamo solo da questo per progettare il domani, se guardiamo ed analizziamo la realtà sempre in maniera problematica - e in fondo anche semplicistica - non possiamo trovare soluzioni
innovative né avere “visioni innovative” del futuro.
È ovvio che le nostre azioni dipendano dalla storia
passata e dall’esperienza vissuta, ma la presenza di
un passato e di problemi nel presente non deve rappresentare un ostacolo per favorire la messa in atto
di nuove opzioni o un’insormontabile barriera ad
immaginare, sognare, disegnare un futuro migliore
o semplicemente a far emergere nuove possibilità.
Un atteggiamento che guarda solo alla negatività e
alle difficoltà del presente non fa altro che trasportare nel futuro i problemi di oggi. L’idea dell’IRPPS
è stata quella di disegnare un futuro che non parta da
una mera estrapolazione del presente e soprattutto
dei problemi del presente. Un possibile futuro nuovo svincolato dai problemi esistenti; quel futuro che
vorremmo vedere realizzato; il futuro che sogniamo.
In questo articolo verrà brevemente illustrato il
nuovo metodo di disegno di scenari e presentata una
sintesi dei risultati a livello europeo.
Statistica & Società
Il metodo
Disegnare uno scenario implica l’utilizzo della
creatività e l’impiego di tecniche adeguate. Nel nostro caso abbiamo utilizzato un tecnica di tipo policyDelphi integrata con metodologie di appreciative
inquiry e l’analisi SWOT (Strenghts, Weaknesses,
Opportunities, Threats).
Le indagini di tipo Delfi consentono attraverso
un processo iterativo di raggiungere il consenso sulla soluzione di problemi complessi nell’ambito di un
gruppo di esperti/patrocinatori di idee e pensieri, che
né entrano mai in contatto nel corso del processo né
sono al corrente di chi siano gli altri membri che compongono il gruppo. L’idea di base di una indagine Delfi
è quella di far circolare in forma anonima all’interno
del gruppo (panel) le diverse posizioni dei partecipanti, consentire a ciascuno di modificare la propria posizione una volta venuti a conoscenza di quelle degli altri e trovare così una convergenza sulle soluzioni possibili, anche in situazioni di forte discordanza iniziale e
eterogeneità delle posizioni ideologiche. L’anonimato
impedisce alle persone più autorevoli e influenti di prevalere sulle altre e consente a tutti di rivedere i propri
giudizi con maggiore libertà, senza dover difendere
davanti agli altri le proprie opinioni.
All’idea base della tecnica Delfi, cioè al raggiungimento del consenso sulla soluzione di un problema complesso, abbiamo abbinato la metodologia
della appreciative inquiry, che consiste nell’immaginare, valorizzare e apprezzare il meglio di ciò che
esiste, riflettere su come la società potrebbe essere e
favorire il dialogo su come dovrebbe essere.
Copperrider (1987), che è il fondatore di questa metodologia di indagine, ritiene infatti che i sistemi sociali possono evolvere verso l’immagine positiva che
hanno collettivamente creato. Il panel di esperti che
ha partecipato al nostro Delfi doveva perciò delineare il “sogno”, il futuro positivo da realizzare e raggiungere collettivamente, individuando le azioni politiche necessarie per realizzarlo in accordo con la
tecnica dell’ appreciative inquiry.
Il nostro obiettivo non era quello di disegnare
un futuro utopico, ma di immaginare scenari futuri
realistici e fattibili, che unissero il sogno di una società migliore alla sua messa in pratica attraverso
azioni politiche adeguate. Per far questo è stato chiesto agli esperti non solo di indicare quali obiettivi
politici andassero perseguiti per migliorare le società dei 15 paesi oggetto di analisi, ma anche il loro
grado di fattibilità.
13
Inoltre, una volta definito lo scenario per il 2030,
gli intervistati dovevano condurre un’analisi di tipo
SWOT. L’analisi SWOT è una delle metodologie attualmente più diffuse per la valutazione di progetti.
In generale, quando si fa una previsione o si disegna
uno scenario futuro si tende ad avere un solo punto
di vista. Se questo è troppo pessimistico si finisce
per stroncare le idee nuove e le possibilità di vera
innovazione; se è troppo ottimistico, si rischia di avventurarsi in un percorso difficile senza averne le
necessarie potenzialità.
Con l’analisi SWOT invece si è costretti ad analizzare un problema da quattro punti di vista diversi
e contrastanti. Si tratta di un procedimento di tipo
logico, sviluppato nell’ambito dell’economia aziendale, che consente di valutare i rischi e le potenzialità,
sia esogene che endogene, relative alla realizzabilità
di un progetto e di definire azioni strategiche e linee
di intervento per facilitare il successo del progetto
stesso. I fattori endogeni sono i cosiddetti punti di
forza e punti di debolezza del progetto, mentre quelli esogeni sono le opportunità e rischi connessi al
progetto stesso. Tra i primi si considerano tutti quegli elementi che fanno parte integrante del sistema
in esame, sui quali è possibile intervenire per perseguire gli obiettivi prefissati. Tra i secondi, invece, si
trovano le variabili esterne al sistema, che però possono condizionare sia positivamente che negativamente la realizzazione del progetto analizzato. Nel
caso dei fattori esogeni non è possibile intervenire
direttamente su di essi, ma è opportuno predisporre
strutture di controllo che individuino questi fattori e
ne analizzino l’evoluzione al fine di prevenire gli
eventi negativi e sfruttare quelli positivi.
Nel nostro caso abbiamo chiesto agli esperti di
indicarci i punti di forza e di debolezza, le opportunità e i rischi connessi alla effettiva realizzazione
dello scenario che avevano selezionato. In questo
modo abbiamo potuto rafforzare la fattibilità dello
scenario stesso, poiché nel momento in cui si definiscono le azioni politiche finalizzate a realizzare un
determinato scenario sarà necessario appoggiarsi sui
suoi punti di forza, smussarne i difetti, massimizzare le opportunità che vengono dall’esterno e ridurre i
rischi che derivano da cambiamenti del contesto sia
nazionale che internazionale.
Oltre alla indicazione di politiche e azioni specifiche per realizzare lo scenario prefigurato al 2030,
gli esperti intervistati dovevano, attraverso un processo grafico messo a punto dall’IRPPS, indicare le
loro preferenze in termini di principali tendenze di
14
Statistica & Società
popolazione. Infine, il panel di ciascun paese doveva
auspicabilmente raggiungere il consenso sulla soluzione delle principali controversie politiche fonte di
dibattito nazionale, non necessariamente limitate ai
tre temi oggetto di analisi e cioè invecchiamento,
famiglia e fecondità e ruoli di genere.
Il processo seguito
L’indagine Delfi era costituita da 4 round di interviste ad un panel di almeno 15 esperti in ciascun paese
partecipante. Gli esperti erano persone in grado di influenzare in qualche modo il futuro. Non si trattava
perciò di accademici ma di persone appartenenti a diverse organizzazioni industriali, sindacali, religiose,
culturali, policy maker, gruppi di pressione, giornalisti
ed esponenti delle amministrazioni locali.
In ciascun paese si è partiti con un primo questionario di circa 50 obiettivi politici con almeno
400 misure per realizzarli, circa 10 tendenze di popolazione e una media di 15 controversie dibattute a
livello paese. Il contenuto del questionario non era
lo stesso in tutti i paesi: la comparabilità dei risultati
era garantita solo dall’impiego della stessa metodologia. D’altra parte era impossibile pensare che in
paesi così diversi si potesse partire con lo stesso questionario in termini di obiettivi politici, tendenze
demografiche o controversie in atto.
In ogni paese il questionario era suddiviso in 3
sezioni dedicate rispettivamente alle tendenze di popolazione, agli obiettivi politici e i fattori critici di
successo e alle politiche “controverse”. In particolare il
questionario era organizzato nel modo seguente:
• Le tendenze di popolazione. L’obiettivo di questa
sezione del questionario era quello di rilevare i
desideri degli intervistati relativamente alla evoluzione della popolazione nei vari paesi, rappresentata da alcuni indicatori scelti ad hoc, che coglievano aspetti significativi dei tre temi oggetto
di studio. Gli esperti, ai quali è stata mostrata
una serie di curve, hanno dovuto disegnarne l’evoluzione al 2030, in base ai loro desideri.
• Gli obiettivi politici e i fattori critici di successo.
La seconda parte del questionario era finalizzata
alla individuazione degli elementi più strettamente
connessi alla definizione degli scenari politici.
Obiettivi politici e fattori critici di successo sono
elementi complementari dell’agire politico: i primi rappresentano l’oggetto dell’azione politica
mentre i secondi indicano il modus di quell’agire
ovvero il mezzo dell’azione. Nel nostro caso, i
primi erano grandi priorità politiche da realizzare per il 2030; i secondi azioni concrete da intraprendere per garantire il successo dell’obiettivo
politico prescelto.
• Le politiche controverse. L’ultima sezione del questionario mirava a raccogliere l’opinione degli
esperti in relazione ad una serie di argomenti che
caratterizzavano il dibattito socio-politico nazionale e rispetto ai quali si manifestava un’elevata
polarizzazione di opinioni. Questi argomenti sono
stati definiti “politiche controverse”. Il quesito
posto agli esperti mirava a rilevare se, dal loro
punto di vista, una determinata legge dovesse o
non dovesse essere mantenuta o, nel caso di proposte di legge, se fosse opportuno o meno porle
in essere.
Ciascuno dei round di indagine era concepito
in modo da aggiungere ulteriori elementi di valutazione che facessero riflettere gli esperti. Nel passaggio da un round al successivo, venivano eliminati tutti
quegli obiettivi e fattori di successo che non erano
stati selezionati dagli intervistati o avevano raccolto
un numero troppo limitato di consensi. La riduzione
del numero di obiettivi politici prioritari avveniva
anche in base al livello di desiderabilità, fattibilità,
importanza associato dagli esperti ad un determinato obiettivo o fattore di successo. In questo modo
passando da un round al successivo il numero di
obiettivi politici e fattori di successo si è andato riducendo.
Ad esempio nel caso dell’indagine Delfi italiana si è partiti al primo round di interviste con 40 obiettivi politici da realizzare nel 2030 e si è arrivati a
selezionarne 21 nel terzo round. Questi obiettivi politici corredati con le loro misure di successo sono
stati utilizzati per descrivere due scenari possibili per
l’Italia al 2030 al quarto round dell’indagine Delfi
(Palomba, 2005) (Grafico 1).
A conclusione dell’indagine in tutti i paesi si
sono ottenuti uno o più scenari con circa 20 obiettivi
politici, 25-30 misure di successo per la loro attuazione, si è individuato il livello di fattibilità e
desiderabilità di ciascuno scenario e si sono esplicitati
rischi e potenzialità associati agli scenari indicati. I
pannellisti hanno anche raggiunto il consenso sulle
tendenze di popolazione auspicabili al 2030 e sulla
soluzione alle principali controversie politiche in atto.
Chi fosse interessato può trovare un rapporto più esteso sul metodo e sui risultati sul sito dell’IRPPS
(www.irpps.cnr.it).
Statistica & Società
15
16
14
12
10
8
6
4
Round 1
2
Round 2
0
Round 3
Invecchiamento
Famiglia
Genere
Sintesi dei risultati europei
Come già accennato in precedenza, ciascuno dei
15 paesi partecipanti ha ottenuto almeno due scenari: uno era molto desiderabile e molto fattibile, l’altro pur desiderabile era considerato fattibile solo a
certe condizioni. Non è possibile entrare nel dettaglio di tutti i risultati ottenuti che sono estremamente ricchi di idee e di proposte per il futuro. In estrema sintesi sono emersi due fondamentali linee strategiche da perseguire: la prima riguarda gli anziani e
la seconda la popolazione lavorativa. Per quanto riguarda i primi, è emerso che la loro effettiva integrazione sociale consentirà un futuro migliore. Questo
può essere ottenuto attraverso un aumento della partecipazione attiva degli anziani al mercato del lavoro
e alla vita sociale (ad esempio con la diffusione del
job-sharing tra giovani e anziani, di part-time e di
impiego di anziani in attività socialmente utili) e un
prolungamento della loro indipendenza attraverso lo
sviluppo e l’impiego di nuove tecnologie. In ogni caso
secondo gli esperti è necessario un radicale cambiamento di atteggiamento verso il tema dell’invecchiamento della popolazione, oramai inevitabile, sia da
parte dei politici che della società in generale. Per
gli adulti, e le donne in particolare, è necessario introdurre politiche che realizzino effettivamente la
conciliabilità tra lavoro e famiglia e consentano di
trovare un giusto equilibrio tra vita privata e pubbli-
Grafico 1: Riduzione degli obiettivi
politici da realizzare al 2030 durante
i tre round dell’indagine Delfi italiana
secondo il numero di obiettivi e
l’argomento
ca. Per far questo è indispensabile agire sul mercato
del lavoro, sulla sua organizzazione e sui suoi tempi
e non più solo sul fronte dei servizi alle famiglie.
Come realizzare questi scenari è fonte di una estrema ricchezza di idee e suggerimenti. Molti di questi
sono legati al contesto nazionale in cui sono stati
espressi, ma molti potrebbero essere facilmente
esportati in altre realtà. Quello che emerge è che lo
stesso obiettivo può essere raggiunto attraverso misure diverse che ne assicurino il successo. Ad esempio, la conciliabilità tra lavoro e famiglia può essere
ottenuta secondo gli intervistati attraverso una maggiore flessibilità dell’organizzazione del lavoro, ma
questo obiettivo si traduce in misure politiche diverse (Tabella 1).
Dei due scenari al 2030, costruiti sulla base di
grandi priorità politiche da perseguire e misure per
la loro attuazione, gli intervistati dovevano indicare
quali secondo loro fossero i maggior rischi e debolezze, opportunità e punti di forza associati agli scenari prescelti. Nella tabella 2 sono indicati i risultati
complessivi della analisi SWOT. Da questa emerge
che gli scenari futuri possono generare circoli virtuosi in termini ad esempio di aumento della solidarietà sociale, maggiore equità tra i generi, migliore
qualità della vita, possono poggiarsi su aspetti esterni che facilitano l’attuazione degli scenari come un
diverso orientamento sociale verso gli anziani o i
16
Statistica & Società
Tab.1: Misure per realizzare la conciliabilità tra lavoro e famiglia per paese
Paese
Austria
Belgio
Cipro
Estonia
Finlandia
Germania
Italia
Olanda
Polonia
Rep. Ceca e Slovacca
Slovenia
Svizzera
Ungheria
Più tempo
per
i genitori
Più part-time
per i genitori
Estensione congedi
parentali e
di maternità
Più controllo dei
lavoratori sul proprio
tempo di lavoro
x
Altro1
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
x
bambini e trovare difficoltà soprattutto nel finanziamento delle iniziative. Va segnalato che i politici in
molti paesi sono considerati un rischio alla attuazione dello scenario: la loro mancanza di fiducia nella
possibilità di realizzare cambiamenti a largo raggio
e il loro avvicendarsi al governo costituisce uno dei
rischi più sentiti per l’attuazione degli scenari.
Tab.2: Risultati emersi dall’analisi SWOT condotta nei 15
paesi partecipanti.
Forza
Opportunità
Aumento solidarietà
Aumento coesione sociale
Aumento equità di genere
Crescita economica
Aumento fecondità
Nuovi atteggiamenti verso gli anziani
Migliore qualità della vita
Società più orientata verso I bambini
Cambio di valori
Maggiore ruolo delle ONG
Debolezza
Rischi
Troppo idealismo
Aumento materialismo e individualismo
Problemi economici
Troppa inerzia del sistema
Troppo ruolo dello Stato
Mancanza di fondi
Crisi economica
Instabilità politica
Mancanza di fiducia dei politici
L’Europa del 2030 desiderata e sognata dai nostri esperti sarà un’Europa che rifiuta molti dei valori e dei principi che hanno fatto parte del passato.
Sarà un continente dove ogni cittadino, indipenden-
1
Telelavoro
x
temente dall’età, godrà di una migliore qualità della
vita sostenuta da un nuovo welfare, una rinegoziazione delle regole dell’organizzazione del lavoro e
una società che promuova realmente la conciliabilità
tra lavoro e famiglia. Chi è attivo nel mondo del lavoro potrà scegliere liberamente come allocare il tempo tra lavoro e famiglia, chi è vicino alla pensione
potrà uscire gradualmente dal mercato del lavoro e
in forme differenziate, i più piccoli avranno servizi
di cura appropriati; gli anziani godranno di maggiore indipendenza sia fisica che economica. I nostri
esperti hanno svolto il loro ruolo di “sognatori” consegnandoci una visione positiva del futuro e indicando la strada per realizzarla. Ad altri, politici, decisori,
amministratori, è dato di prendere atto di questo sogno e trasformarlo in un futuro possibile e migliore.
Forse può non essere solo un sogno; può essere una
sfida da considerare e realizzare.
Bibliografia
COOPERRIDER D.L., S RIVASTVA S. (1987) Appreciative
Inquiry in Organizational Life, in W. Pastore, R.
Woodman (eds), Research in Organization Change and
Development, Greenwich CT, JAITRES, 129-169.
PALOMBA R. (a cura di), (2005), Il tempo è dalla nostra
parte, Quaderni di Demotrends, 1.
La colonna “Altro” nasconde una serie di suggerimenti che vanno dalla banca del tempo a livello azienda (Italia) all’inserimento
della situazione familiare tra i criteri per la promozione nella carriera.
Statistica & Società
17
I sondaggi politici. Come garantire la qualità dei dati e la correttezza
delle interpretazioni?
Piergiorgio Corbetta
Dipartimento di Scienze dell’Educazione, Università di Bologna. e-mail: [email protected]
Mi sono recentemente imbattuto in internet in
un banner pubblicitario per il New York Times che
chiedeva: “What’s the point of an information age
without the right information?”, e che potremmo liberamente tradurre: “A che serve trovarsi nell’era
dell’informazione se poi questa informazione non è
corretta?” Domanda retorica, che tuttavia sintetizza
il senso di questo mio intervento, con il quale intendo trattare brevemente il problema dell’attendibilità
dei sondaggi politici e porre – io sociologo – una
“domanda vera” ai colleghi statistici: la cosiddetta
“comunità scientifica” di una nazione, i suoi
sottogruppi disciplinari, non dovrebbero assumersi
un qualche onere di “controllo” sull’informazione
scientifica (o para/pseudo-scientifica) che circola
nella società denunciando i casi di “cattiva informazione”? E nell’ambito dell’informazione che in qualche modo attiene ai nostri settori disciplinari colloco
i sondaggi politici. So che gli statistici se ne occupano poco: eppure si tratta di un terreno che ha ricadute non trascurabili sulla formazione dell’opinione
pubblica e sui comportamenti e le “visioni del mondo” degli stessi “attori” politici. Ed in ultima analisi
si tratta di un campo disciplinare che può essere pienamente ascritto alla vasta ed importante area delle
applicazioni sociali della statistica.
Che cosa fa di un sondaggio un cattivo sondaggio? A quali tipi di errori e di distorsioni è esposto il
sondaggio politico in se stesso – e soprattutto – nella
sua utilizzazione da parte dei media? Il sondaggio
politico trasmesso al grande pubblico attraverso i
mezzi di informazione soffre innanzitutto di una distorsione giornalistica, dovuta alla mancanza di tempo e di spazio. La pressione del tempo produce “gattini ciechi”: sondaggi mal pensati, domande mal formulate, campioni abborracciati, controlli superficiali. La tirannia dello spazio giornalistico costringe a
semplificazioni fino al limite della banalità assoluta,
ad analisi grezze e aproblematiche, a formulazioni
unilaterali. Per non parlare poi della necessità gior-
nalistica della “notizia”, che induce a forzare i toni,
ad accentuare i colori ed a trovare a tutti i costi un
fatto eclatante.
C’è poi una seconda fonte di errore, la distorsione commerciale, dovuta al fatto che le esigenze
della ricerca entrano facilmente in conflitto con le
ragioni dell’economia e del profitto. Le ditte di sondaggi d’opinione sono delle normali aziende; la
concorrenza nel settore è feroce, e la tentazione di diminuire i costi abbassando gli standard qualitativi è
molto forte, anche perché questi sono difficilmente
definibili, difficilmente controllabili e ancora più difficilmente apprezzabili da parte dei committenti; questa
spirale, inevitabilmente, produce cattiva ricerca.
Abbiamo infine la distorsione politica. Il sondaggio politico molto spesso è commissionato da
agenzie politicamente non neutre. Non parliamo solo
di partiti o candidati; i giornali stessi sono spesso
animati da una visione partigiana della politica. Domande tendenziose, analisi pilotate, interpretazioni
che consapevolmente o meno privilegiano un risultato e ne mettono tra parentesi un altro, sono all’ordine del giorno.
Questi tipi di distorsioni che portano a cattiva
ricerca potrebbero essere contrastate da un efficace
sistema di controlli sui metodi utilizzati e sulla qualità del prodotto (per esempio, la domanda tendenziosa può essere smascherata e quindi la sua pratica
contrastata, se venisse resa pubblica). Ma chi può
effettuare questi controlli? L’autocontrollo da parte
delle organizzazioni degli stessi istituti di ricerca si
è dimostrato spesso illusorio (cinicamente potremmo dire che “cane non mangia cane”). In alcuni paesi, tra cui il nostro, la legge ha stabilito standard minimi e istituito un ente di vigilanza sul rispetto di
questi standard. In particolare la legge italiana del
28 febbraio 2000 ha stabilito l’obbligo di rendere
note, in tutte le comunicazioni sui mezzi di informazione (anche sull’articolo di giornale) le seguenti
caratteristiche del sondaggio: a) soggetto che ha re-
18
Statistica & Società
alizzato il sondaggio; b) committente e acquirente;
c) criteri seguiti per la formazione del campione; d)
metodo di raccolta delle informazioni e di elaborazione dei dati; e) numero delle persone interpellate
e universo di riferimento; f) domande rivolte; g) percentuale delle persone che hanno risposto a ciascuna domanda; h) periodo in cui è stato realizzato il
sondaggio.
Si tratta di criteri talvolta generici (per esempio
i punti c e d) e talvolta, all’opposto, troppo analitici
(punto g), che comunque vengono normalmente elusi
con affermazioni vaghe e criptiche (quali “metodo
CATI”, “elaborazioni SPSS”, “campione casuale e rappresentativo”, ecc.), e che non affrontano il problema più grave dei sondaggi, costituito dalla mancata
rappresentatività del campione. Perché questo è il
vero problema dei sondaggi d’opinione. I campioni
non restituiscono mai una micro-fotografia della popolazione di riferimento, ma ne danno una visione
distorta per un motivo semplicissimo: anche quando
selezionati con rigoroso criterio casuale (che comunque non è certo la norma), gli individui contattati,
non essendo oggetti ma persone dotate di libero arbitrio, possono rifiutare l’intervista (o risultare non
immediatamente reperibili, il che vuol dire “irreperibili”, in quanto nessun istituto di sondaggi si premura più di tanto di andarli a cercare di nuovo, essendo più semplice la sostituzione del nominativo
con uno nuovo). E rifiutano l’intervista in percentuali altissime, quasi mai inferiore alla metà delle
persone contattate. E poiché chi accetta di essere intervistato, o comunque (nel caso dell’intervista telefonica) è reperibile in casa al momento della telefonata, è diverso da chi non risponde o non è mai in
casa, ne risulta un campione “distorto” (né il difetto
è risolvibile con operazioni di “ponderazione” o di
sostituzione con “riserve”, in quanto, per fare un
esempio, l’anziano che risponde è diverso – più arzillo, più interessato alla politica, ecc. – dell’anziano
che si rifiuta di rispondere).
Apparentemente il punto g) fra quelli sopra
menzionati dovrebbe affrontare questo problema: di
fatto, così come è espresso dalla legge è un requisito
farraginoso (comunicare i tassi di risposta di ogni
domanda, basterebbe il tasso di risposta all’intero
questionario), per cui nella realtà non viene mai
applicato.L’insensibilità degli operatori della ricerca
nei confronti del problema dell’insufficiente tasso di
riposte è messo ben in luce, per esempio, da una lettura delle “informazioni metodologiche” che
l’Assirm (l’ Associazione Istituti di Ricerche di Mer-
cato, Sondaggi di Opinione, Ricerca Sociale) raccomanda ai propri soci di rendere pubbliche per ogni
sondaggio: si cita la descrizione del metodo di campionamento e di ponderazione, il testo dei questionari, i margini dell’errore statistico, perfino la “descrizione delle istruzioni date agli intervistatori”, ma
non si cita il tasso di risposta del sondaggio. Ed ancora questa insensibilità emerge dall’insistenza con
la quale gli stessi statistici parlano di margini di errore statistico (la famosa “forchetta”, ossia i due valori entro di quali si collocherebbe il “dato vero”),
dimenticando che la formuletta che applicano si riferisce a campioni “probabilistici”, cioè fatti di persone “casualmente estratte”, mentre i campioni dei
sondaggi, per l’autoselezione dei rispondenti, sono
quanto di più lontano si possa immaginare da un campione probabilistico.
Ma ancora (ed infine): e chi ci garantisce dalle
vere e proprie truffe? Il problema è assai più grave di
quanto non appaia. Poco più di un anno fa, a Bologna, a poche settimane dall’elezione del sindaco e
nel bel mezzo di una campagna elettorale tesa e di
valenza nazionale – in quanto era in gioco per la sinistra la riconquista della sua città-simbolo e vi aveva impegnato uno dei suoi maggiori leader nazionali
– a distanza di tre giorni uscivano su un giornale locale assai letto (di sinistra) e sul più importante quotidiano cittadino (di destra) le seguenti due notizie.
Primo giornale: “Elezioni, Cofferati sta spiccando il
volo. Nostro sondaggio, +8% su Guazzaloca”. Secondo giornale: “Bologna, è partita la volata.
Guazzaloca in vantaggio (+ 8,4%)”. Si trattava di
sondaggi effettuati negli stessi giorni: il primo fra il
21 ed il 27 gennaio 2004; il secondo fra il 26 ed il 28
dello stesso mese. Questa palese contraddizione creò
non poco sconcerto nel dibattito politico cittadino.
Nelle pagine cittadine dei quotidiani uscirono titoli
della serie “Il giallo dei sondaggi elettorali”, “I sondaggi elettorali impazziti”… e commenti piuttosto
irridenti nei confronti dei “sondaggisti” e delle discipline di contorno, statistica inclusa.
Cos’era successo? Difficile da stabilire, anzi
impossibile con gli strumenti di controllo attualmente
a disposizione, anche quando tutti i requisiti comunicativi richiesti dalla legge venissero rigorosamente osservati. Lo scrivente, tuttavia, grazie alle sue
personali conoscenze, riuscì a farsi consegnare dai
responsabili dei due istituti di sondaggio i files con
le matrici-dati. E cosa scoprì? Scoprì che un sondaggio era corretto (ovviamente quello che dava Cofferati
come vincente, come poi effettivamente risultò),
Statistica & Società
mentre l’altro istituto di ricerca aveva dichiarato pubblicamente di aver effettuato un numero doppio di
interviste rispetto a quelle effettivamente fatte, ed
inoltre aveva manipolato i dati (che in realtà davano
lo stesso risultato dell’altro sondaggio) per far apparire vincente il candidato della parte politica gradita
al giornale nel quale pubblicava.
Questo episodio mi ha insegnato una cosa. Che
una sola strada è percorribile, se si vuole mettere le
comunità scientifiche – o chiunque fosse interessato
per qualsiasi motivo – in condizione di controllare
effettivamente l’attendibilità delle informazioni messe in circolazione dai mass media: che la legge imponga la pubblicizzazione della matrice originaria
dei dati. Questi potrebbero essere depositati presso
un’autorità governativa, autorizzata a metterli a disposizione dietro richiesta. Certamente questo vincolo non escluderebbe in toto il rischio di manipolazioni truffaldine, ma inventare completamente dei dati
non è così semplice come inventare o manipolare una
tabella; sono necessari requisiti di coerenza interna
che richiedono tempo (ed è una risorsa che manca a
19
chi fa dei sondaggi), ed un puntiglioso ricercatore
potrebbe con un attento lavoro individuarne l’eventuale mancanza.
Questo vincolo avrebbe come immediata conseguenza un balzo verso l’alto della qualità dei sondaggi, perché la possibilità, anche se potenziale, di
un controllo esterno renderebbe le ditte di sondaggio assai più caute nel diffondere dati avventati o
compiacenti verso questa o quella parte politica. Si
tratta di una proposta che dovrebbe trovare le principali ditte di sondaggi, quelle che operano seriamente, favorevoli, in quanto sgombrerebbe il campo da
una miriade di piccoli istituti, a volte dalla vita effimera, che offrono sul mercato dati abborracciati a
prezzi stracciati. La reazione dell’Assirm, l’associazione italiana delle società che operano in questo
settore, quando la proposta fu avanzata nel convegno promosso dall’Istituto Cattaneo e diverse associazioni di categoria (statistici, politologi, sociologi,
elettoralisti: Sis, Sisp, Ais, Sise) e svoltosi presso il
Mulino lo scorso marzo, non è stata favorevole. Sinceramente non ne capiamo la ragione.
20
Statistica & Società
Un modello di regressione PLS per lo studio delle emissioni di sostanze
inquinanti
Enrico Ciavolino
Research Centre on Software Technology, Seconda Università di Napoli. e-mail: [email protected]
Giovanni Meccariello
Istituto Motori, CNR. e-mail: [email protected]
1. Introduzione
Le emissioni del traffico veicolare rappresentano un’importante fonte di inquinamento nelle città.
Queste emissioni sono costituite da miscele di varie
sostanze, alcune delle quali rappresentano un grosso
problema per gli effetti dannosi che possono avere
nei confronti della nostra salute e dell’ambiente in
cui viviamo. La necessità di ridurre questo fenomeno ha portato all’introduzione di una serie di direttive
che pongono delle limitazioni alla quantità di sostanze inquinanti emesse dagli autoveicoli.
Gli amministratori locali sono, quindi, obbligati dalle leggi vigenti a valutare in maniera
previsionale l’impatto ambientale del sistema traffico e ad intervenire con misure opportune –“blocco
totale o parziale del traffico”– per evitare il superamento delle soglie d’allarme di inquinamento dell’aria. In tale contesto emerge la domanda di strumenti quantitativi capaci di valutare in maniera
previsionale l’impatto, in termini di emissioni inquinanti, prodotte da specifiche famiglie (o categorie)
di mezzi di trasporto, in relazione a predeterminate
situazioni traffico/strada.
2. Obiettivo
Questo lavoro presenta un modello statistico
predittivo per lo studio delle emissioni inquinanti,
basato su un campione di misure determinate dal funzionamento reale di un mezzo di trasporto. Gli inquinanti misurati sono quelli regolamentati dalla
normativa 98/69/EEC, identificati dalle seguenti sostanze: CO, HC, NOX, CO2 e particolato (solo per le
auto diesel). I modelli attualmente usati per le stima
delle emissioni degli inquinanti, utilizzano la sola
velocità media come variabile esplicativa, ma i diagrammi di previsione basati sulla sola velocità me-
dia (ad eccezione della CO2) possono raggiungere
una variazione del 40% rispetto alla distribuzione
reale delle misure sperimentali. Tale variabilità, nello studio delle emissioni inquinanti, è causata dal fatto
che la sola velocità media non è sufficiente a descrivere l’andamento del veicolo nel traffico, in quanto,
a parità di velocità media, si possono generare profili di velocità completamente differenti, i quali generano emissioni inquinanti complessivamente diverse.
Nasce quindi l’esigenza di identificare nuove
variabili in grado di descrivere al meglio l’andamento del veicolo nel traffico. Tali variabili sono state
definite tenendo conto dell’equazione dinamica del
veicolo e sono di seguito riportate:
media della velocità, media del quadrato e del cubo
della velocità, tempo al minimo, tempo totale di guida, media del prodotto della velocità per l’accelerazione.
Il modello, basato sull’equazione dinamica del
veicolo, presenta delle variabili che sono fortemente
correlate ed inoltre, a causa del complesso sistema
di rilevazione delle misure sperimentali, il data set
potrebbe presentare una matrice con dati mancanti,
nonché un numero ridotto di osservazioni, dovuto al
numero di prove effettuate in laboratorio.
La metodologia statistica adottata per l’analisi
dei dati che presentano questo tipo di caratteristiche
(forte correlazione tra le variabili esplicative, numero di osservazioni ridotte, dati mancanti) è il modello di regressione Partial Least Squares (PLSr).
3. Metodologia
L’approccio PLS è stato sviluppato da Herman
Wold nel 1975, nell’ambito dei modelli ad equazioni strutturali, path models, utilizzando come metodo
di stima dei parametri l’algoritmo NIPALS (Non
Statistica & Società
Linear Iterative Partial Least Squares) (H. Wold, 1966).
Il modello PLS misura le relazioni esistenti tra
due matrici, X e Y, mediante un modello lineare
multivariato, che va oltre il tradizionale modello di
regressione. Tale modello mostra le sue potenzialità
in presenza di un elevato numero di variabili esplicative fortemente correlate (multicollinearità), quando le matrici da analizzare presentano dati mancanti
e quando il numero delle osservazioni è esiguo rispetto ai predittori.
Come per il modello di regressione, si distingue il caso in cui si è in presenza di più variabili di
risposta Y (PLS2), oppure in presenza di una variabile di risposta y (PLS1). Nel corso del lavoro faremo riferimento al caso PLS2.
Il metodo PLSr costruisce nuove variabili esplicative ortogonali tra loro, chiamate variabili latenti o
componenti, usate come predittori delle variabili di
risposta. Obiettivo del PLSr è, quindi, creare un numero m (con m < rango(X)) di componenti T, tali da
catturare la massima informazione dalle variabili
esplicative, in modo che siano le più utili a spiegare
le variabili dipendenti e quindi il fenomeno oggetto
di studio. Le componenti T sono chiamate “Xscores”, in quanto oltre ad essere predittori della Y,
modellano/ricostruiscono anche la matrice X. Tali
scores sono stimati come combinazione lineare tra
la matrice delle variabili originali X e la matrice dei
coefficienti chiamati “weights” W*.
T = XW*
(1)
Gli “X-scores” hanno le seguenti proprietà:
a) Capacità di ricostruire la matrice X, minimizzandone i residui, mediante il prodotto con la matrice P dei “loadings”di X:
X = TPT + E
(2)
b) Capacità di essere dei buoni predittori di Y:
Y = TCT + F
(3)
dove CT è la matrice dei coefficienti di regressione
di Y sulle componenti T.
I corrispettivi “Y-scores” sono identificati dalla
matrice U, il cui prodotto con la matrice dei coefficienti
C (loadings di Y), ricostruisce la matrice delle variabili
di risposta Y, minimizzandone i residui.
Tutti i parametri presentati sono determinati con
l’algoritmo di stima NIPALS. I parametri components scores t e u, contengono le informazioni rela-
21
tive alla similarità e alla dissimilarità tra le unità/
osservazioni e sono usati per costruire l’ellisse di
Hotelling al fine di identificare le associazioni o eventuali outliers nei dati.
I weigths w e i coefficienti c danno informazioni su come si combinano le variabili originali, per
spiegare le relazioni tra la X e la Y, e sono utilizzate
nell’interpretazione delle componenti t e u mediante la costruzione del loading plot dove vengono rappresentate contemporaneamente sia le variabili di risposta (Y) che le variabili esplicative (X).
4. Caso Studio
Il modello di analisi proposto si basa sulla rilevazione di dati provenienti da sperimentazioni condotte presso il Consiglio Nazionale delle Ricerche
(CNR) Istituto Motori di Napoli, in cui sono stati
registrati i valori di emissioni degli inquinanti
regolamentati (98/69/EEC), mediante la riproduzione di determinati cicli di guida su banco a rulli. Il
ciclo di guida rappresenta la parte di moto di un’autoveicolo su strada in un determinato intervallo di
tempo e in condizioni omogenee di funzionamento.
I valori di emissione sono stati misurati su un’autovettura Fiat Punto 1.9 JTD Euro III, con cicli di guida rappresentativi di diverse condizioni di traffico in
percorsi urbani, extra-urbani ed autostradali. In generale, i motori a combustione interna producono
monossido di carbonio (CO), anidride carbonica
(CO2), ossidi di azoto (monossido NO e biossido NO2,
globalmente indicati come NOX), idrocarburi derivati dalla parziale combustione del combustibile (genericamente indicati come HC), particelle solide
portate in sospensione dai gas (dette particolato, indicate con PM e prodotte quasi esclusivamente dai
motori Diesel) e prodotti derivanti dall’ossidazione
di impurità contenute nel combustibile (quali, ad
esempio, lo zolfo). La variabilità della quantità di
inquinante prodotta da ciclo a ciclo può essere spiegata dalla variazione della massa totale dei gas di
scarico M, funzione, a sua volta, dell’energia utilizzata dal veicolo, che è una caratteristica globale del
ciclo. Tale componente è considerata nel modello
mediante sei parametri cinematici, riportate in tabella 1, identificati dall’espressione che deriva M dall’integrale dell’equazione dinamica del veicolo:
M≈∫P(t)dt≈∫tmarcia (a0+a1*v(t)+a2*v2(t)+Mv*a(t))*v(t) dt
22
Statistica & Società
dove P(t), v(t), a(t) e Mv sono, rispettivamente, la
potenza erogata dal motore, la velocità, l’accelerazione e la massa del veicolo, per le fasi di marcia,
più il tempo con motore al minimo, per tener conto
delle fasi in cui v = 0 (Tabella 1).
Tab. 2: Indici R2 e Q2 del modello per ogni inquinante.
R2 VY [5](cum)
1,00
0,80
Tab. 1: Variabili utilizzate per l’analisi.
0,60
VARIABILI DI RISPOSTA (Y)
0,40
Variabile
Descrizione
0,20
CO
Monossido di carbonio
0,00
HC
Idrocarburi incombusti
NOx
Ossidi di azoto
CO2
Anidride carbonica
PM
Particolato, solo per auto diesel
VARIABILI ESPLICATIVE (X)
Variabile
Descrizione
mv
Velocità media (v>0)
mv2
Media del quadrato della velocità(v>0)
mv3
Media del cubo della velocità (v>0)
Tidle
tempo al minimo v=0
Trunning
Tempo totale effettivo di guida (v>0)
m_vapot_pos Media del prodotto della velocità per l’accelerazione (a(t)·v(t)) quando v(t)>0 e a(t)>0
Le variabili di risposta riportate nella matrice
Y, rappresentano la quantità totale di ciascun inquinante misurata nel ciclo espressa in grammi/prova.
Nel modello è stata utilizzata la trasformata logaritmica degli inquinanti, in quanto le variabili presentano dei coefficienti di variazione elevati, valori sempre positivi, nonché legami funzionali non lineari con
le variabili di X. Per quanto riguarda le osservazioni,
sono stati analizzati 9 cicli di guida, rappresentativi di
tre diverse situazioni traffico/strada, riproducendo percorsi di tipo urbano, extra-urbano ed autostradale.
ln CO
Var ID
ln HC
ln NOx
ln CO2
ln NO
ln PM
ln CO
ln HC
(g/prova)
(g/prova) (g/prova)
(g/prova)
(g/prova)
R2 (cum)
0,713844
0,587111
0,993719
0,992566
0,980074
Q2 (cum)
0,548882
0,277103
0,982728
0,92293
0,94943
ln CO2
ln PM
Da tali indici, calcolati per ognuna delle variabili di risposta e su 5 componenti estratte, si evidenzia
un’elevata capacità predittiva del modello per gli inquinanti NOX CO2 e PM con un R2>0,98 ed un Q2
>0,94. I cicli di guida utilizzati assicurano una copertura abbastanza ampia delle caratteristiche di guida su differenti strade e in differenti condizioni di
traffico, riuscendo a riprodurre percorsi di tipo urbano (Naples 7, Naples 5, Naples 6, Urban_Cold, ArtUrban), extra-urbano (Art-Road, Naples 4,
Road_Cold) ed autostradale (Art-Motorway). Nella
figura 1 sono rappresentate le prime due componenti dei predittori, dove si nota una dispersione abbastanza ampia del fenomeno ed un raggruppamento
dei cicli con caratteristiche cinematiche simili. Il ciclo autostradale (Art-Motorway) è stato eliminato
perché esterno all’ellisse di confidenza di Hotelling,
cioé outlier, infatti, le sue caratteristiche cinematiche
differiscono notevolmente dagli altri cicli.
5. Risultati
3
2
Art-Road
1
t[2]
Il modello di regressione PLS fornisce una serie di informazioni utili sia da un punto di vista esplorativo, per facilitare l’analisi e la comprensione del
fenomeno oggetto di studio, sia predittivo, estrapolando i coefficienti di previsione del modello così
costruito.
La tabella 2 riporta l’indice R2, che indica la
bontà di adattamento ai dati, e l’indice Q2, che indica la capacità di previsione del modello stesso, calcolato con tecnica di Cross-Validation leave one out.
Q2 VY [5](cum)
Naples 6
Naples 4
Naples 5
Naples 7
Art-Urban
0
-1
-2
Road_Cold_
Urban_Cold
-3
-5
-4
-3
-2
-1
0
t[1]
1
2
3
4
5
Fig. 1: Rappresentazione dei cicli nello spazio delle
componenti t[1] e t[2].
Statistica & Società
Mediante l’ausilio dell’indice statistico VIP
(Variable Importance in the Projection) (fig. 2) possiamo identificare l’importanza del contributo delle
variabili nella proiezione ed identificare eventuali
variabili non necessarie alla interpretazione del fenomeno eliminando le variabili con un indice < 0,8.
1,40
1,20
1,00
0,80
0,60
0,40
23
Le figure dalla 4 alla 8 rappresentano i valori
predetti dal modello (quadratino rosso) e i valori misurati (triangolino nero), espressi in grammi/km, per
ciascun inquinante rispetto alla velocità media. Per
quanto riguarda la previsione dell’inquinante del CO
(fig. 4) notiamo una forte dispersione dei valori misurati per i cicli alle basse velocità medie, questo
spiega anche il basso valore di fit del modello che è
di poco superiore allo 0,5, lo stesso possiamo dire
per gli HC (fig. 5). Il basso valore previsionale è confermato anche da un basso indice di R2 per entrambi
gli inquinanti.
0,20
0,00
m_vap_po
mv
Trunning
mv3
mv2
Trunning
CO(g/km)
Pred_CO
Var ID (Primary)
Fig. 2: Indice VIP (Variable Importance in the Projection)
3
Nella figura 3 sono rappresentati i diagrammi
(sovrapposti) dei weights w* di X e dei loadings c di
Y dei primi due components scores (t[1] e t[2]) del
modello, che rappresentano il 91% della variabilità
del fenomeno analizzato. Da tali diagrammi è possibile valutare il livello di correlazione esistente tra le
variabili di risposta (quadratino rosso), tra le variabili esplicative (triangolino nero) ed infine tra le variabili di risposta e quelle esplicative. Notiamo come
le emissioni CO2, NOX e PM risultano efficacemente
rappresentate e fortemente correlate tra loro. Per le
emissioni di CO e HC si evidenzia, invece, una inferiore bontà di rappresentazione, dovuta a un’elevata
dispersione dei valori osservati per ciascun ciclo. Le
emissioni CO2, NOX e PM sono spiegate essenzialmente dal primo asse (t[1]), per cui sono direttamente proporzionali ai valori medi delle potenze della
velocità (mv, mv2, mv3), alla media del prodotto velocità e accelerazione (m_vapot_pos) e al tempo di
marcia (Trunning).
X
Y
Punto 1.9 JTD - w*c[Comp.1]/w*c[Comp.2]
0,20
In CO
mv2
Trunning
10
20
30
40
50
60
mv
Fig. 4: Valori Predetti e Misurati di CO
HC(g/km)
Pred_HC
0,20
0,10
0,00
10
20
30
mv
40
50
60
Fig. 5: Valori Predetti e Misurati di HC
In HC (g/prova)
-0,20
w*c[2]
0
mv
-0,10
In PM (g/prova)
In NO
COX2 (g/prova)
(g/prova)
In
-0,30
-0,40
1
mv3
0,10
0,00
2
m_vapot_pos
-0,50
CO2, NOx, PM
-0,60
-0,70
-0,80
Tidle
-0,90
-0,50
-0,40
-0,30
-0,20
w*c[1]
-0,10
0,00
Fig. 3: Loadings Plot delle Variabili di Risposta ed
Esplicative
Per gli inquinanti CO2 (fig. 6) e NOX (fig. 7) il
modello è in grado di spiegare quasi perfettamente
l’andamento del fenomeno con un R2 prossimo a 1,
inoltre il valore dell’indice Q2 maggiore di 0,98 garantisce un’ottima capacità predittiva del modello per
i due inquinanti.
24
Statistica & Società
CO2 (g/km)
mo come la velocità media (mv) e il tempo di guida
(Trunning) abbiano una forte influenza soprattutto
per la produzione di CO e HC, mentre gli NOX sono
influenzati anche dal tempo al minimo (Tidle). Si
nota, infine, che la fase di accelerazione
(m_vapot_pos) ha una influenza positiva soprattutto
per la produzione del particolato (PM).
Pred_CO2
500
400
300
200
100
10
20
30
40
50
60
mv
Fig. 6: Valori Predetti e Misurati di CO2 .
NOx(g/km)
6. Conclusioni
L’impiego del modello di regressione PLS ha
consentito l’utilizzo di più predittori, in modo da riuscire a tener conto dell’equazione dinamica del vei-
Pred_NOx
Tidle
Trunning
mv
m2
mv3
m_vapot-pos
1,80
1,60
3,00
1,40
2,00
1,20
1,00
1,00
0,00
0,80
-1,00
0,60
0,40
-2,00
10
20
30
40
50
60
mv
ln
Per il particolato (fig. 8), nonostante un discreta variabilità dei dati misurati, il modello si adatta
bene al fenomeno studiato (R2>0.98) ed ha un’ottima capacità predittiva (Q2>0,94).
Pred_PM
120
110
100
90
80
70
60
50
40
30
10
20
30
mv
40
ln
HC
x
ln
NO
2
ln
CO
ln
PM
Fig. 9: Grafico dei coefficienti del modello.
Fig. 7: Valori Predetti e Misurati di NOX.
PM(g/km)
CO
50
60
Fig. 8: Valori Predetti e Misurati di PM.
In figura 9 sono rappresentati i coefficienti di
regressione del modello per ciascun inquinante analizzato. Questa figura mostra la struttura del modello d’emissione e i coefficienti delle equazioni lineari
e le relazioni esistenti fra le variabili di risposta (Y)
e le variabili esplicative (X). Dai coefficienti notia-
colo, senza risentire delle problematiche relative alla
forte correlazione tra le variabili ed al basso numero
di osservazioni.
Il risultati ottenuti dall’applicazione mostrano
che il metodo proposto è un valido strumento per
l’analisi delle emissioni inquinanti, rivelando un buon
livello di capacità predittiva e un buon livello di adattamento ai dati.
Le variabili cinematiche impiegate nel modello
sono in grado di spiegare più adeguatamente il comportamento delle emissioni inquinanti di un veicolo
in differenti situazioni traffico/strada, migliorando la
capacita di predizione del modello rispetto al solo
utilizzo della velocità media.
La metodologia proposta può, quindi, considerarsi un soddisfacente strumento di analisi delle emissioni inquinanti, tuttavia, ai fini di una corretta
validazione del modello e per considerare in maniera più approfondita la complessa realtà del traffico
urbano, il modello dovrebbe essere sperimentato su
Statistica & Società
25
di uno scenario più ampio di autoveicoli (con diverse categorie di motorizzazioni) e di situazioni traffico/strada (cicli di guida).
R APONE M., M ECCARIELLO G., D’ AMBRA L., (2004),
“Multiblock - PLS come supporto alle decisioni per
l’inquinamento urbano”, Atti del Convegno MTISD
2004, Benevento 24–26 Giugno.
Bibliografia
SCIPPACERCOLA S., AMENTA P., D’AMBRA L., (1995), “Il
Partial Least Squares e l’analisi in componenti principali rispetto ad un sottospazio di riferimento. Un’applicazione per la rilevazione di inquinamento di ambienti
fluviali”, Boll. Soc. Nat. Napoli, vol. 102, 101–116.
GARTHWAITE P. H., (1994), “An interpretation of Partial
Least Squares”, Journal of American Statistical
Association, March 1994, vol. 89, n. 425.
M ARTENS H. & M ARTENS M., (2001), “Multivariate
Analysis of Quality – An introduction”, John Wiley
& Sons Ltd.
PHATAK A., DE JONG S., (1997), “The geometry of Partial
Least Squares“, Journal of Chemometrics, vol. 11, 311338.
RAPONE M., DELLA RAGIONE L., PRATI M.V., MECCARIELLO
G. (2003) “Influence of the driving cycle on average
emissions: development of the regression model for a
case study”. Proceedings 12th International Symposium on Transport and Air Pollution, Avignon (France),
vol. 2, 197-202.
TENENHAUS M., (1998), La Règression PLS – Thèorie er
Pratique, Edition Technip, Paris.
TENENHAUS M., (1999), “L’Approche PLS”, Statistique
Appliquèe, XLVII (2), 5-40.
UMETRICS AB, (2002), SIMCA-P and SIMCA-P+ User
Guide, Umetrics AB, Box 7960, S907 19 Umea,
Sweden.
WOLD S., SJOSTROM M., E RIKSSON L., (2001), “PLSregression: a basic tool of chemometrics”, Chemometrics and Intelligent Laboratory Systems,
vol. 58, 109-130.
26
Statistica & Società
Metodi, Modelli e Tecnologie dell’informazione a supporto delle decisioni
Tavola rotonda
Valutazioni, incertezza, processi decisionali: modelli consolidati, problemi aperti e
prospettive future
Benevento 24-25 giugno 2004
Il Convegno “Metodi, Modelli e Tecnologie dell’informazione a supporto delle decisioni” è nato con una
pluralità di obiettivi: presentare alcuni risultati recenti, sia metodologici che applicativi, per ciascuna disciplina che potesse intersecare in maniera significativa l’ambito delle decisioni; mettere a confronto tali discipline,
cercando di evidenziare i punti di contatto più interessanti e, in prospettiva, produttivi dal punto di vista della
ricerca; l’articolazione del Convegno, in sessioni speciali e in Conferenze ad invito tenute da esperti riconosciuti, è stata pensata per favorire al massimo la rappresentatività delle diverse tematiche convergenti nel
dominio delle decisioni (i dettagli del programma sono ancora disponibili sul sito http://
www.mtisd2004.unisannio.it/menu.htm; le conferenze ad invito ed una selezione degli interventi saranno pubblicate nel volume: Pietro Amenta, Luigi D’Ambra, Massimo Squillante, Aldo Ventre, Metodi, Modelli e Tecnologie dell’informazione a supporto delle decisioni, ed. Franco Angeli).
La tavola rotonda “Valutazioni, incertezza, processi decisionali: modelli consolidati, problemi aperti e
prospettive future” è stata, in questo senso, uno dei momenti più significativi, avendo permesso il confronto
diretto tra matematici, probabilisti, statistici.
Abbiamo raccolto, e pubblichiamo volentieri per “Statistica e società”, gli interventi, nella tavola rotonda, di Vittorio Frosini, Gianni Ricci, Ernesto Volpe di Prignano, Romano Scozzafava, che hanno esposto le loro
tesi rispondendo alle domande: 1) quale è lo stato dell’arte attuale della tua disciplina rispetto alla tematica
delle decisioni? 2) nell’ambito delle decisioni potresti indicare alcune significative relazioni tra la tua disciplina e le altre interessate alla stessa tematica?
Ringraziamo i relatori per il dibattito, ricco di spunti dal punto di vista scientifico ed estremamente interessante per la vivacità che lo ha caratterizzato, cui hanno saputo dar vita.
Luigi D’Ambra
Massimo Squillante
Intervento di Gianni Ricci
Dipartimento di Economia Politica – Università di Modena e Reggio Emilia. e-mail: [email protected]
Introduzione
La Teoria dei giochi sta vivendo una situazione
di stallo nonostante gli importanti contributi di ricercatori in Italia e all’estero.
Gli economisti, che sono tra i maggiori utilizzatori della teoria dei giochi, si occupano prevalentemente dei Giochi competitivi statici a due giocatori e, in particolare, del dilemma del prigioniero come
paradigma delle situazioni decisionali ad informa-
zione imperfetta tra due soggetti. Parlare di giochi
dinamici in Italia è velleitario più che in altri Paesi; i
giochi dinamici vengono giudicati più una estensione della Teoria del controllo ottimo, “roba” da ingegneri, che una branca teorica autonoma della Teoria
dei Giochi. La separazione dei ricercatori nelle società scientifiche di giochi e di giochi dinamici è
un’ulteriore prova di una ricerca di autonomia più
che della volontà di lavorare per trovare una chiave
unica di lettura dei processi decisionali.
Statistica & Società
Nell’ambito dei processi decisionali sta assumendo un ruolo significativo la Fuzzy Logic; un approccio alle decisioni che supera la visione binaria
(vero-falso) sostituendola con una gamma di sfumature che non possono essere trattate con i tradizionali strumenti formali della matematica. L’ansia di trattare i problemi sfumati con la FL ha portato anche ad
errori terminologici, confondendo la incertezza con
la imprecisione, che hanno consentito agli studiosi
conservatori di liquidare senza incertezze la credibilità della Teoria Fuzzy. Fino ad oggi coloro che si
sono impegnati ad utilizzare questo nuovo approccio si sono preoccupati di trovare problemi decisionali concreti che possano essere modellizzati e trattati con la logica fuzzy; questo è tanto vero che i
lavori sulla fuzzy sembrano troppo spesso uno la fotocopia dell’altro pur nella diversità dei settori trattati. Lo schema si ripete, le fasi sono fisse, i risultati
operativi ottenuti sono significativi ma il prezzo che
viene pagato è alto in quanto si è rinunciato ad una
elaborazione teorica e a sviluppi della teoria introdotta da Zadeh (1965).
Personalmente ritengo che la varietà di scenari
che la FL può trattare può andare a beneficio di una
maggiore aderenza delle situazioni trattate con i giochi senza complicarne le formule. Anziché complicare il modello per renderlo più aderente alla realtà e
trattarlo con una strumentazione che si complica corrispondentemente, si modifica la formalizzazione del
problema “facendo i calcoli con le parole”. Può sembrare una “diminutio” della matematica ma non lo è;
chi pretende di prevedere con certezza, o con incertezza controllata, l’evoluzione di un processo, commette, in generale, un errore di fondo. Sono in numero limitato i processi che evolvono secondo leggi
dimostrabili e quindi i modelli e i relativi risultati
costituiscono autostrade di riferimento e non traiettorie certe di evoluzione. L’informazione accumulata rappresenta un patrimonio che la mente umana
utilizza nell’individuazione di una politica per il futuro, essa genera regole che vengono attivate per
insiemi e non per valori secchi. Decidiamo di accendere il riscaldamento se abbiamo freddo non necessariamente se la temperatura scende al di sotto (tanto per dire) di 19 gradi. La decisione di vendere
un’azione può avvenire se il prezzo supera un certo
valore, ma anche in base ad una tendenza. È molto
più semplice definire una tendenza piùttosto che un
valore soglia (se, fissato un prezzo soglia, vendo e il
27
prezzo sale ancora è inevitabile che faccia i conti di
quanto non ho guadagnato, è meno traumatico se
vendo dopo aver soddisfatto un criterio di tendenza
perché in quel caso le recriminazioni assumono una
connotazione meno rigida).
Gli economisti hanno spesso cercato misure
precise per fenomeni che si prestano ad essere descritti solo con predicati vaghi. In tali casi, se il carattere vago non è esplicitamente riconosciuto emergono difficoltà a livello metodologico. La logica
fuzzy permette di descrivere situazioni e contesti
vaghi e risolvere problemi decisionali tenendo in
considerazione la natura polivalente della realtà in
cui viviamo. Essa è cioè in grado di utilizzare in modo
rigoroso il linguaggio ordinario e i suoi predicati
vaghi. Il vantaggio di tale impostazione deriva dal
riuscire a descrivere e utilizzare tendenze piuttosto
che valori secchi, passaggi graduali piuttosto che salti
quantici. Ciò comporta il radicale mutamento del
processo decisionale dal punto di vista metodologico
e cognitivo.
Sulla base di quanto sopra, si può fare riferimento a quella ricca messe di contributi nei vari
ambiti scientifici che possa essere fruttuosamente
riletta per realizzare uno studio approfondito degli aspetti teorici e metodologici delle logiche vaghe e della loro
possibile integrazione con la teoria dei giochi.
Ad esempio il concetto di profitto economico
in finanza e il suo equipollente finanziario valore attuale netto sono passibili di molteplici traduzioni
formali e presentano quindi un carattere intrinsecamente vago (Magni 2003, 2004).
I processi decisionali nei quali c’è un’unica
autorità decisionale sono già stati contaminati da
queste considerazioni e alcune tecniche dell’Intelligenza Artificiale (AI), nate per lo sviluppo della
robotica, hanno trovato sbocco in nuovi campi di
applicazione come il mondo dell’economia, della finanza, del business. Questi paradigmi di AI, tolleranti nei confronti dell’imprecisione, della verità parziale, hanno consentito la costruzione di sistemi avanzati in grado di gestire situazioni complesse ed in
presenza di scarsa informazione. La loro principale
caratteristica è quella di trarre spunto dal ragionamento umano (o simil-umano). La mente umana ha
infatti la capacità di essere tollerante nei confronti
dell’imprecisione e di riassumere informazioni, di
codificare quelle rilevanti per poi etichettarle raggruppandole per similarità. Gli strumenti innovativi di AI
28
Statistica & Società
sono dunque in grado di gestire la conoscenza e di
estrarre conoscenza. Le metodologie basate sulla
conoscenza hanno lo scopo di riprodurre ciò che
l’esperto fa nell’affrontare i problemi, al fine di avere uno strumento informatico in grado di emulare il
comportamento umano. A tal fine è indispensabile
studiare e definire procedure matematiche di aggregazione che meglio rappresentino ciò che la mente
umana fa e che si adattino alla complessità del problema. Le metodologie che estraggono conoscenza
hanno lo scopo di estrarre dai dati le informazioni
utili a studiare fenomeni complessi al fine di produrre, anche in questo caso, una metodologia automatica in grado di riprodurre la realtà. Molti sforzi sono
stati fatti per introdurre l’uso dei due approcci in campi diversi dalla robotica. In psicologia, la Logica
Fuzzy è utilizzata in diversi campi: per modellare le
teorie della percezione e della memoria, per estendere le scale di misura convenzionale, e per risolvere
i problemi di misurazione dei concetti o caratteri non
facilmente quantificabili (Smithson e Oden, 1999),
per decifrare le emozioni facciali (Russel e Bullock,
1986). In campo sociale, i sistemi sfocati possono
essere applicati per trattare opinioni contrapposte al
fine di ricercare un consenso accettabile (Dimitrov,
1997), o per aiutare i decisori nella loro attività sociale (Yamashita, 1997).
Teoria dei giochi e logica Fuzzy
L’ambiziosa idea dell’applicazione alla teoria
dei giochi di concetti vaghi può condurre a risultati
significativi soprattutto nelle applicazioni. Ad esempio, si pensi al classico gioco dinamico che nasce
dalla competizione tra lavoratori e capitalisti nella
distribuzione della quota distributiva del reddito nazionale che va in salari e di quella che va come remunerazione del capitale investito dai capitalisti. Il
modello è quello di R.M. Goodwin e il gioco nasce
dall’obiettivo condiviso di eliminare la tensione sociale evidenziata dalle fluttuazioni dell’occupazione
e dei profitti per i capitalisti e dalla competizione sui
livelli rispetto ai quali stabilizzare il sistema. Senza
interventi da parte dei due giocatori il sistema presenta un andamento ciclico attorno ad un punto G
chiamato di Golden age, le curve integrali sono ellissi
determinate dalle condizioni iniziali del gioco. Il rettangolo nel quale le curve integrali si muovono può
essere diviso in 4 aree determinate dalle coordinate
del punto G. (Fig. 1)
B
A
G
C
D
Fig. 1
Nel rettangolo A c’è alta occupazione che determina un potere forte dei lavoratori che possono
giocare come leader del gioco, nel rettangolo B i lavoratori hanno bassa occupazione e i capitalisti hanno bassi profitti per cui non si può stabilire nessuna
leadership nel gioco. Nel rettangolo C i lavoratori
hanno bassa occupazione e i capitalisti hanno alti
profitti. I capitalisti giocano il ruolo di leader e la
soluzione ricercata è quella di Stackelberg. Nel rettangolo D i lavoratori hanno alta occupazione e i capitalisti hanno alti profitti. Nessuno dei due giocatori prevale sull’altro per cui si ricerca la soluzione di
Nash. Una migliore descrizione dovrebbe tenere conto che nella realtà non esiste in generale un salto
immediato da leader a follower e viceversa, ma un
passaggio graduale (si veda Ricci, 1989). Non solo e
non tanto in termini di tempo, ma soprattutto nel senso che il concetto di leadership è vago: si può essere
leader ma a che grado? Addirittura ogni giocatore
può essere visto come leader ad un certo grado (eventualmente zero). Forse un atteggiamento più sfumato può essere utile nel rappresentare questo tipo di
situazioni. La soluzione di un gioco (soprattutto dinamico) dipende in modo decisivo dalla simmetria
tra i giocatori, ovvero dalla σ-algebra dell’informazione a disposizione dei giocatori. Molto spesso la
leadership generata dal livello dell’informazione
posseduta viene dimenticata ricercando ugualmente
la soluzione Nash anziché la soluzione Stackelberg.
Sia nei giochi dinamici che in quelli ripetuti il passaggio da una situazione di leader-leader ad una situazione leader-follower spesso avviene in modo
“secco” anziché in modo graduale per cui il passaggio dalla soluzione di Nash a quella di Stackelberg
avviene in modo “catastrofico” (nel senso della teo-
Statistica & Società
ria delle catastrofi), cosa che stride rispetto a quello
che può avvenire nei fenomeni reali. Un contributo
ante literam in questa direzione è presentato in Magni
e Ricci (1989b, 1991) che mostrano il carattere fuzzy
di un gioco nel passaggio da un gioco Nash ad un
gioco Stackelberg. Il loro contributo offre l’idea che
nell’iterazione di un gioco di contrattazione tra due
giocatori in un ambiente economico o sociale sia fondamentale, nel determinare la soluzione della contrattazione, il concetto di reputazione che un giocatore si forma nel corso del tempo. Man mano che la
reputazione di un giocatore aumenta le contrattazioni si fanno a lui più favorevoli ed egli può, partendo
da una situazione di simmetria (gioco Nash) incrementare il suo grado di leadership in modo graduale
fino a raggiungere, eventualmente, una leadership
completa (grado massimo di leadership).
Un altro esempio
Il portafoglio ottimo secondo il metodo di
Markowitz dipende in modo univoco dal coefficiente
di avversione al rischio che viene determinato elaborando valori secchi (le risposte al questionario di
Markowitz!). Forse è ragionevole pensare che le risposte non siano tutte rappresentabili con numeri e
29
valori ma con valutazioni qualitative. Quindi forse i
risparmiatori possono essere clusterizzati e non essere atomizzati. Se siete d’accordo allora la FL può
essere utile!!!!
Un settore fertile di utilizzo è quello politico
Il peso di un partito in una coalizione può essere calcolato “esattamente” utilizzando formule e
paradigmi già affermati come il valore Shapley, ma
il peso reale va al di là della percentuale secca calcolata. La credibilità di un partito o di una coalizione
viene identificata con gli esiti delle votazioni e la
dinamica del consenso viene misurata con “arditi”
confronti statistici. I programmi elettorali sono il
concentrato di un libro di sogni, hanno perso quell’identità ideologica che nel passato consentiva agli
elettori di schierarsi. In ottemperanza al principio di
minima differenzazione di Hotelling ogni partito o
ogni coalizione si pone al “centro” dello scenario
politico. E gli elettori prendono atto delle promesse
non mantenute e si preparano al rito dei nuovi annunci e dei nuovi inganni. L’ assegnazione di un rating
ai partiti e ai loro programmi elettorali appare una
sfida non proibitiva se si riescono a mettere insieme
i concetti e gli strumenti delle due teorie.
Intervento di Benito Vittorio Frosini
Università Cattolica del Sacro Cuore Milano Istituto di Statistica. e-mail: [email protected]
Desidero innanzitutto complimentarmi con i
Professori D’Ambra e Squillante per avere organizzato questo convegno, di grande interesse per matematici e statistici, ma anche per ingegneri ed economisti, che rivolgono la loro attenzione allo studio dei
criteri decisionali basati su sistemi complessi e
rilevazioni multivariate, e alla loro applicazione in
numerosi campi, tradizionali e innovativi. Desidero
però anche osservare che il mio contributo a questa
Tavola Rotonda non potrà che essere alquanto limitato, non essendo io un cultore della Teoria delle decisioni – in ambito statistico – e pertanto non avendo
una visione chiara e abbastanza completa riguardo
allo sviluppo della ricerca in questo campo negli ultimi anni; il mio interesse è stato sostanzialmente
delimitato a un paio di sotto-argomenti, ai quali soprattutto dedicherò alcune osservazioni. Da un esame sia pure solo parziale della letteratura emerge che
l’interesse nelle ricerche teoriche e applicate di teoria delle decisioni copre tuttora un vasto spettro di
impostazioni, più o meno differenziate al loro interno, che elenco: (a) l’impostazione di Wald (teoria
delle decisioni classica), (b) l’impostazione di
Neyman-Pearson (Inductive Behaviour), (c) l’impostazione bayesiana (von Neumann-MorgensternSavage), con vari sottotipi (d) l’impostazione classica e bayesiana delle probabilità imprecise (Walley),
(e) l’impostazione basata sulla verosimiglianza
(Likelihood Theory di Barnard-Edwards-Royall).
Come è noto, la configurazione teorica di alcune
30
Statistica & Società
impostazioni viene spesso presentata in insanabile
contrasto con altre impostazioni; fortunatamente,
però, negli ultimi vent’anni i contrasti (teorici) si sono
attenuati, e sono stati messi in evidenza reciproci sostegni e concordanze fra impostazioni apparentemente assai distanti, a partire dal generale riconoscimento della validità del suggerimento di Ronald Fisher
di basare ogni inferenza – e ogni decisione – sulla
corretta reference population, e quindi di impostare
ogni problema inferenziale come problema di “inferenza condizionale”. Anche l’insistenza su apparenti incompatibilità e su risultati inconciliabili (che
naturalmente esistono) si è notevolmente attenuata,
e sembra generalmente accettato il criterio - di logica generale – che non ha alcuna validità un giudizio
di “coerenza” o anche di ottimalità dell’impostazione A basato sui principi ispiratori dell’impostazione
B. D’altra parte, i presunti “controesempi” si riferiscono quasi sempre a situazioni difficili, caratterizzate da scarsa informazione: sulle distribuzioni a
priori, e/o sulle verosimiglianze, e/o sulle popolazioni (piccoli campioni), e/o sui risultati delle decisioni condizionali agli stati di natura, e/o sulla nonindipendenza fra azioni e stati di naturae/o sulle funzioni di perdita o utilità. In questi casi la probabilità
di sbagliare è comunque grande, qualunque criterio
venga seguito. E sapere che la procedura decisionale adottata manifesta una perfetta coerenza formale
riguardo ai “primi principi” non può essere di grande consolazione se la decisione presa si rivela radicalmente errata. Non si dovrebbe mai dimenticare
che l’obbiettivo di una procedura decisionale è quello
di conseguire un risultato abbastanza buono – fra
quelli possibili - e che in questo campo non esistono
procedure ottimali, in presenza di tutte le incertezze
accennate più sopra. A questo proposito, vorrei riprendere brevemente un argomento trattato nella mia
relazione, e cioè la questione della ammissibilità di
una decisione. Come è noto dalla teoria di Wald, per
due regole o funzioni di decisione f e g si dice che f
è dominata da g se la media delle perdite con la decisione f è maggiore o uguale alla media delle perdite con g per ogni stato di natura, e in qualche caso è
maggiore. Viene quindi introdotta la terminologia
(infelice) secondo la quale una decisione è ammissibile se non esiste alcuna altra decisione da cui è
dominata. Sotto condizioni abbastanza generali Wald
ha dimostrato che se una decisione è ammissibile,
può essere ricavata come soluzione bayesiana rispet-
to a qualche distribuzione a priori (eventualmente
impropria). Dovremmo allora concludere che una
“decisione bayesiana” – in quanto ammissibile – è
da preferirsi comunque a una decisione non ammissibile? La risposta è chiaramente NO, e vale anche
se fossimo concordi sulla funzione di perdita da utilizzare; infatti una decisione non ammissibile può
essere molto ragionevole, e di regola produrre risultati soddisfacenti, mentre una decisione ammissibile può essere basata su una distribuzione a priori del
tutto assurda per il concreto problema decisionale, e
tale da produrre quasi certamente un risultato negativo. Se c’è un capitolo della Statistica che può notevolmente beneficiare di un interscambio con i contributi provenienti da altre discipline scientifiche esso
è proprio quello concernente le procedure decisionali, data la ricchezza e varietà dei problemi che si
incontrano nei vari settori. La mia esperienza è piuttosto limitata, ma l’interesse ad alcuni tipi di applicazioni si è mantenuto vivo negli ultimi anni.
A partire dalla ben nota contrapposizione tra comportamento normativo e comportamento osservato o reale degli individui, ho seguito la letteratura
economica e quella psicologica su questi temi (con
amplissima sovrapposizione, tanto che il Nobel per
l’Economia è stato assegnato a D. Kahneman, celebre psicologo), e ho collaborato alla valutazione di probabilità soggettive e utilità. Credo che in
questo campo ci sia ancora molto lavoro per tutti,
soprattutto statistici e psicologi; io stesso mi
riprometto di riprendere lo studio di questi temi,
insieme ad alcuni psicologi della mia università. Altri temi di ricerca, comuni ad altre discipline, di cui
ho qualche esperienza, riguardano da un lato le applicazioni finanziarie, e in particolare la Teoria del
portafoglio, e dall’altro le applicazioni ai processi
(non stocastici, mi riferisco ai processi civili e penali). Come è ben noto, la compravendita di attività
finanziarie, in particolare di azioni e obbligazioni, e
più recentemente di prodotti derivati, è un settore in
cui sono fioriti numerosi studi teorici di tipo matematico-statistico-econometrico, ai quali la Commissione del Premio Nobel ha riservato molta attenzione. Naturalmente, molti risultati teorici si sono riversati – spesso in modo acritico - nei modelli utilizzati dagli operatori, in particolare nella gestione
dei Fondi Azionari e dei c.d. “derivati”. Questo è il
classico esempio di un settore in cui le notevoli incertezze di fondo, le assunzioni inevitabilmente sem-
Statistica & Società
plificatrici, e la mancanza di informazioni realmente rilevanti (nonostante l’apparente dovizia di dati,
migliaia di dati per ogni giornata di contrattazioni di
ogni singola Borsa Valori), non raramente producono il fallimento – talvolta anche in senso giuridico –
delle iniziative meglio fondate dal punto di vista delle
competenze dei gestori e del sostegno degli enti partecipanti. È notissimo il caso del fallimento – impressionante per le cifre colossali coinvolte – del
fondo americano LTCM, fondato e gestito dai migliori specialisti di Wall Street insieme ai premi Nobel
per l’Economia Robert Merton e Myrton Scholes,
inventori con Fischer Black della finanza moderna.
Oltre a ciò, è altrettanto noto che quasi tutti i migliori fondi – dal punto di vista del rendimento – nel
corso di un triennio, non si ritrovano ai vertici della
classifica nei tre anni successivi. Le applicazioni delle
regole decisionali ai processi civili e penali sono na-
31
turalmente le più difficili e delicate, poiché sono in
gioco la reputazione, il patrimonio, e talvolta la libertà personale (e in alcuni stati la stessa vita) degli
individui. Negli ultimi vent’anni sono stati numerosissimi i processi - soprattutto in sede civile per azioni
di risarcimento, ma in qualche caso anche in sede
penale – le cui sentenze hanno dovuto fare esplicito
riferimento a probabilità di eventi e a rilevazioni campionarie. Giudici e avvocati hanno dovuto affrontare
problemi statistici talvolta complessi, e prendere confidenza con un tipo di cultura scientifica molto lontana dalla loro preparazione e dalle loro competenze. La collaborazione fra statistici, epidemiologi e
giuristi si rivelerà sempre più indispensabile per una
corretta analisi delle conseguenze di decisioni, che
coinvolgono aspetti importanti della nostra salute,
della salvaguardia dell’ambiente in cui viviamo, e
del futuro stesso dell’umanità.
Intervento di Romano Scozzafava
Dipartimento di Metodi e Modelli Matematici per le ScienzeApplicate, Facoltà di Ingegneria Università di Roma “La Sapienza”
e-mail: [email protected]
Nei problemi decisionali, al di là delle differenti metodologie ed approcci adottati, è di fondamentale importanza una rigorosa analisi preliminare del “contesto”, in modo da stabilire quali
siano le “regole del gioco”. Infatti troppo spesso
si incontrano nella letteratura metodi “ad-hoc”,
spesso senza che venga prefisssato rigorosamente
il quadro di riferimento. Di conseguenza può accadere di ritrovarsi in una “torre di Babele” da cui
è difficile districarsi per comprendere le eventuali diversità delle conclusioni.
In particolare, gli strumenti matematici devono essere quelli più “deboli” possibile, senza
ipotesi di comodo, utili per poter applicare teorie
già consolidate ma spesso poco adatte a rappresentare in modo realistico il modello di riferimento, oggetto di studio.
Per esempio, l’utilizzo della teoria delle probabilità deve far riferimento a famiglie arbitrarie
di eventi, senza strutture algebriche
preconfezionate e poco realistiche, e deve basarsi
sugli assiomi più generali (che discendono dalla
sola condizione di coerenza), abbandonando quindi (salvo casi particolari) il classico modello
kolmogoroviano. “A fortiori” ciò è necessario nell’utilizzo delle probabilità condizionate, che sono
lo strumento essenziale ai fini dell’inferenza: questa consiste in sostanza in un problema di prolungamento di una data assegnazione di probabilità a
nuovi eventi (condizionati). Ed è ben nota la maggiore flessibilità delle probabilità finitamente
additive con riferimento al prolungamento, senza
i vincoli imposti dalla teoria classica sigmaadditiva (p.es., teorema di Caratheodory). Invece
una probabilità coerente (condizionata o no) ammette sempre un prolungamento (non necessariamente univoco) ad una famiglia più ampia di eventi
(condizionati o no) rispetto alla famiglia iniziale.
In conclusione, è opportuno inoltre ricordare che la teoria delle probabilità condizionate coerenti consente anche una rilettura unificante di
altri strumenti utilizzati in condizione di conoscenza parziale, come la teoria fuzzy, le misure di possibilità e di informazione, la logica default.
32
Statistica & Società
Intervento di Ernesto Volpe di Prignano
Dipartimento di Matematica per le Decisioni Economiche, Finanziarie e Assicurative l’Università “La Sapienza” di Roma.
e.mail: [email protected]
Premessa
Gli organizzatori di questa Tavola Rotonda
mi hanno chiesto di articolare il mio intervento in
relazione ai due quesiti, il cui testo considero noto,
ossia:
1) quale é lo stato dell’arte attuale della tua disciplina rispetto alla tematica delle decisioni?
2) nell’ambito delle decisioni potresti indicare alcune significative relazioni tra la tua disciplina e le altre interessate alla stessa tematica?
Dato che la mia disciplina di insegnamento e
di ricerca è da moltissimo tempo la Matematica
Finanziaria ed Attuariale, ad essa farò riferimento
per i collegamenti con la Teoria delle Decisioni.
A tale proposito non mi è facile tenere distinti i
due quesiti, giacché – come chiarirò – la mia disciplina è strettamente legata alla Teoria delle
Decisioni in una relazione di parte al tutto mentre non vedo a quale ambito dovrei estendermi per
considerare e confrontare le altre discipline menzionate nel secondo quesito. Formulerò pertanto
il mio intervento chiarendo in quale modo la Matematica Finanziaria ed Attuariale in certo modo
rientri come caso particolare nella Teoria delle
Decisioni in condizioni di certezza ed incertezza,
con riguardo agli aspetti definitori e logici nonché a particolari argomenti che meglio consentono di verificare quanto qui asserito.
Decisioni in condizioni di certezza
Distinguendo i vari capitoli della disciplina
che mi interessa, la Matematica Finanziaria classica si occupa tradizionalmente della formulazione delle leggi finanziarie, a partire da basilari principi economici e, mediante esse, della valutazione delle operazioni finanziarie, in generale e con
riferimento a problemi particolari di notevole interesse finanziario, in condizioni di certezza. Dato
che le valutazioni vengono fatte precipuamente per
orientare il soggetto economico alle decisioni più
convenienti in base ad opportuni criteri, prescindendo di norma da elementi di rischio, ecco che
tale branca può farsi rientrare nella Teoria delle
Decisioni in condizioni di certezza.
La Matematica attuariale si occupa tradizionalmente degli aspetti matematici e tecnici delle
operazioni assicurative nei vari rami, privati e sociali. In esse non si può prescindere dall’elemento di rischio, che è un aspetto essenziale dei problemi e va trattato con l’ausilio del Calcolo delle
probabilità. Quindi tale branca può farsi rientrare
nella Teoria delle Decisioni in condizioni di incertezza.
La Matematica finanziaria moderna estende
la Matematica Finanziaria classica considerando
strutture più generali di tassi di interesse e occupandosi di operazioni finanziarie che tengono conto delle recenti innovazioni nei mercati finanziari
e nelle quali un elemento di incertezza è sempre
considerato e fronteggiato come elemento negativo, assumendosi l’ipotesi di certezza come un caso
particolare ideale.
Mostriamo ora come alcuni fondamentali
schemi di Matematica Finanziaria classica sono
riconducibili a problemi di Teoria delle Decisioni
in condizioni di certezza.
Facciamo riferimento alla valutazione di progetti finanziari e delle decisioni o scelte riguardo
ad essi. Tale problema è basilare nella matematica finanziaria classica nonché nell’economia
aziendale.
Consideriamo un progetto di investimento,
ossia tale che il primo movimento sia un esborso.
Assumiamo un ideale c/c esclusivamente di appoggio al progetto, regolato ad un tasso x* reciproco (ossia vigente sia con saldi negativi o a debito, sia con saldi positivi o a credito) dato dal
mercato (quindi dagli impieghi alternativi al progetto). Tenuto conto dei movimenti e dei tempi
delle prestazioni finanziarie cui dà luogo il progetto, se il valore attuale W di tutti i movimenti
(esborsi ed incassi) calcolato al tasso x* risulta
positivo, allora il progetto è conveniente: si è indotti a trasferire mezzi finanziari dal mercato al
Statistica & Società
progetto. Se invece W(x*)<0, il progetto non è
conveniente: si è indotti a trasferire mezzi finanziari dal progetto al mercato. La stessa conclusione nel caso di un progetto di finanziamento ossia
tale che il primo movimento sia un incasso. In ciò
consiste il criterio del valore attuale.
Indichiamo ora con i* il tasso tale che
W(i*)=0, ammesso che esista unico. Esso dicesi
tasso interno di rendimento (abbr. TIR). Per un
progetto di investimento, sotto opportune ipotesi
(ad es., decrescenza di W(i)) la condizione di convenienza W(x*)>0 equivale a x*<i*, che costituisce il criterio del TIR e lumeggia ancor meglio la
convenienza a trasferire mezzi dal mercato (con i
progetti alternativi) al progetto in esame. Per un
progetto di finanziamento, sotto opportune ipotesi (ad es., crescenza di W(i)) la condizione di convenienza del criterio del TIR diventa: x*>i*.
Una naturale estensione di tali criteri conduce a quelli di scelta in alternativa fra progetti. Ma
su ciò sorvoliamo.
È peraltro rilevabile nell’approccio precedente una impostazione che costituisce una forte
limitazione pratica degli schemi: l’ipotesi che,
quando il saldo dell’ideale c/c non si mantiene con
segno costante, onde si alternano fasi di investimento e di finanziamento ossia di debito e di credito verso il c/c, i tassi passivi ed attivi conseguenti
debbano coincidere, il che è poco realistico. Conviene allora accennare ad uno schema più generale, noto come criterio TRM (dalle iniziali dei cognomi degli Autori proponenti1).
Occorre a tale riguardo distinguere preliminarmente fra progetti puri e progetti misti.
Un progetto si dice puro (ad un dato tasso)
quando, contabilizzando tutti e soli i movimenti
finanziari di un progetto in un c/c fruttifero a tale
tasso, il saldo S(t) rimane di segno costante nell’arco temporale anteriormente al tempo T dell’ultimo movimento (mentre il saldo finale S(T) può
essere >=<0, costituendo allora il risultato finanziario finale del progetto). Per ovvi motivi si parla di progetto di puro investimento (al tasso di
impiego r) se il primo movimento è un esborso ed
inoltre anteriormente all’ultimo movimento il sal-
1
33
do S(t) in base al tasso r si mantiene =<0; un esempio è dato, se S(T)=0, dalla gestione di un mutuo
al tasso r dal punto di vista del mutuante. Si parla
invece di progetto di puro finanziamento (al tasso
di finanziamento k) se il primo movimento è un
incasso ed inoltre anteriormente all’ultimo movimento il saldo S(t) al tasso k si mantiene >=0; un
esempio è dato, se S(T)=0, dalla gestione di un
mutuo al tasso k dal punto di vista del mutuatario.
Un progetto si dice misto se non è puro di
investimento al tasso r né puro di finanziamento
al tasso k, alternandosi fasi di investimento e di
finanziamento, nel senso che a tali tassi i saldi S(t)
anteriormente a T non si mantengono di segno
costante.
La convenienza di un progetto puro si ha se e
solo se al tasso assegnato risulta S(T)>0 (criterio
del saldo finale) ed è evidente la stretta affinità di
tale criterio con quello del valore attuale (che ovviamente può essere usato, essendo di validità
generale) se si pensa che, per la scindibilità della
legge composta qui usata, il valore attuale si ottiene attualizzando S(T), onde le due grandezze
sono concordi di segno. Ma è evidente altresì che
i progetti puri, accettando un’eventuale inversione di segno solo sull’ultimo movimento sono rari;
la regola sono i progetti misti. Per essi, pensando
a finanziamenti dal sistema bancario, è impensabile la clausola di tasso reciproco ed occorre riferirsi all’ipotesi: r ≠ k.
Assumendo quest’ultima, nonché valori distinti r* e k* anche per i tassi esterni, di costo e di
rendimento, tratti dal mercato degli investimenti
e dei finanziamenti (con una generalizzazione dell’originario modello TRM), dobbiamo allora esaminare e confrontare quattro tassi: r, k, r*, k*. I
criteri decisionali si generalizzano allora al modo
seguente. Il saldo finale nei progetti misti è funzione di due variabili, k e r, e lo indichiamo con
S(k,r) sottintendendo T.
Il criterio del saldo finale, ricordando che i
tassi k*, r* sono quelli esterni, conduce alla formula: S(k*,r*)>0, che generalizza W(x*)>0, per i
progetti convenienti; S(k*,r*)<0 per i progetti non
convenienti.
Cfr. D. TEICHROEW, A. ROBICHEK, M. MONTALBANO, Mathematical Analysis of Rates of Return under Certainty e An Analysis of
Criteria for Investment and Financing Decisions under Certainty , in Management Science, 1965.
34
Statistica & Società
La generalizzazione del criterio del TIR presuppone quella del TIR, il quale nello schema a
due variabili di tasso è sostituito dalla curva di
equità di equazione: S(k,r)=0 nel piano Okr. In
forma esplicita la curva ha equazione r=r0(k) ovvero k=k0(r). Gli infiniti punti della curva, di coordinate (k, r0(k)) al variare dell’ascissa k (ovvero
(k0(r),r) al variare dell’ordinata r) assicurano tutti
l’equità del progetto e la curva ovviamente è crescente (per conservare l’equità aumentando k, deve
aumentare anche r). Ciò posto, ricordando che il
criterio del TIR si generalizza al modo seguente:
un progetto misto è conveniente se e solo se il
punto P* =(k*,r*) si trova sotto la curva crescente di equità, il che implica: r 0 (k*)>r* o
equivalentemente k0(r*)<k*. Se invece P* si trova
sopra la curva di equità onde fra i tassi valgono le
disuguaglianze opposte, il progetto misto non è
conveniente.
Questa disamina dei criteri decisionali per
progetti finanziari, non ulteriormente sintetizzabile senza perdere in completezza, mostra chiaramente in qual modo un problema fondamentale
della Matematica Finanziaria classica si
riconduca in pieno alla Teoria delle decisioni in
condizioni di certezza.
Decisioni in condizioni di incertezza
Nei problemi di scelta fra progetti finanziari, omogenei per durata ed input di capitale, in condizioni di incertezza, la soluzione può ottenersi
ragionando sulla tabella dei payoff al modo seguente2. Per ogni possibile scelta di progetto, corrispondente alla decisione Dk , siano determinati i
valori (ad es. i risultati finali ottenuti capitalizzando i cash-flows ricavabili col progetto) xhk dipendenti anche dallo stato di natura Eh che si verificherà. Pertanto ex-ante Eh sono eventi, costituenti una partizione, di cui siano valutate le probabilità ph. È possibile quindi calcolare i valori
medi mk = ∑ h ph x hk dei valori aleatori relativi a
ciascuna possibile decisione Dk .
Un ovvio criterio decisionale è allora quello
di scegliere la decisione k* corrispondente al massimo valore medio. In formula: mk * = max k ∑ h ph x hk .
2
Inoltre si può esaminare l’opportunità di approfondimenti, ossia di informazioni onerose che valgano a modificare il vettore delle ph in modo più
plausibile. Supponiamo che la nuova informazione possa dar luogo a più risultati, che ex-ante sono
eventi Hr costituenti una partizione, con probabilità hr . In base a ciascun possibile risultato dell’informazione le probabilità ph si modificano in
ph(r ) . Per ogni r si determini la decisione ottima
(r )
k*(r) risolvendo mk * = max k ∑ h p xhk . Decidendo
di acquisire l’informazione, il risultato atteso, scegliendo i maxk per ogni possibile risultato dell’informazione, è dato da ∑ r hr mk *( r ) . Pertanto il valore dell’informazione, ossia la variazione di risultato se si decide di assumere l’informazione (ma
ex-ante, prima che sia noto l’evento Hr che si è
verificato riguardo all’informazione) è dato dalla
differenza mk * − ∑ hr m ( r ) . E converrà decidere
k*
r
di acquisire l’informazione soltanto se il costo di
essa è inferiore alla predetta differenza.
Ecco che anche in questo caso un importante
problema di Matematica finanziaria, collegato con
l’Economia Aziendale, si riconduce a schemi classici di Teoria delle Decisioni in condizioni di incertezza.
Il precedente approccio è oggettivo giacché
fa riferimento ai valori monetari. Ma si può anche
passare all’approccio soggettivo, in cui ai valori
monetari si sostituiscono le stime di utilità (secondo Von Neumann-Morgenstern) effettuate dal
soggetto decisore, massimizzando i valori medi
delle utilità dei valori possibili.
Un altro interessante approccio soggettivo ha
luogo nel campo della Matematica attuariale e vi
accennerò con riferimento alle assicurazioni dei
rami danni. Un assicurato sia dotato della ricchezza g ma esposto ad un rischio che può arrecare
una perdita aleatoria X. Inoltre il suo atteggiamento verso il rischio sia caratterizzato da una funzione di utilità u(x), crescente e concava, definita
a meno di una trasformazione lineare crescente.
Egli valuta la sua situazione in E(u(g-X)) e desidera stipulare una assicurazione danni per rimuovere la situazione di rischio e passare ad una certa. Il premio puro di tale assicurazione vale E(X)
ma egli è disposto a pagare un premio di tariffa π,
(r )
Cfr.: B. de Finetti, F. Minisola, Matematica per le applicazioni economiche, Ed.Cremonese, pag. 342.
h
Statistica & Società
maggiore del premio puro, come avviene nella
pratica per noti motivi, ma non troppo. Vogliamo
determinare la soglia massima π̂ per π, tale da
conservare la vantaggiosità dell’assicurazione.
Evidentemente π̂ è soluzione dell’equazione
(
)
E u ( g − X ) = u ( g − π̂ ) .
In base al principio dell’utilità attesa, per conservare la vantaggiosità l’assicurato deve pagare un
premio di tariffa π < πˆ . Il valore π̂ , collegato al concetto di certo equivalente, è stato denominato premio di indifferenza ed ha un significato intrinseco in
quanto, come è facile provare, è invariante rispetto
alle trasformazioni cui è soggetta u(x).
Ammesso che πc> E(X) sia il premio di tariffa
minimo perché la Compagnia assicuratrice stipuli un
contratto per essa vantaggioso, la condizione
π c < π < πˆ
garantisce la vantaggiosità del contratto per entrambe le parti contraenti.
35
Conclusioni
Le precedenti considerazioni lumeggiano, in
termini succinti ma adeguati allo scopo, la circostanza
che, a prescindere dai formalismi necessari per impostare una disciplina matematica col dovuto rigore,
molti fra i problemi fondamentali e più interessanti
della Matematica Finanziaria ed Attuariale hanno
un contenuto decisionale e pertanto possono farsi
rientrare come particolari capitoli applicativi della
Teoria delle Decisioni in condizioni di certezza e di
incertezza.
Questa impostazione fa riferimento agli aspetti
sostanziali e concreti di quest’ultima disciplina, che
peraltro negli ultimi decenni è stata dotata di una struttura alquanto formalizzata ed assiomatizzata, specie
con riguardo all’approccio soggettivo.
Spero di aver risposto con ciò ai quesiti postimi
in questa Tavola Rotonda e ringrazio gli Organizzatori per la fiducia accordatami.
36
Statistica & Società
Standard da rispettare per proporre un contributo per
“Statistica & Società”
I soci SIS che intendono pubblicare un contributo, devono inviarne una copia in formato elettronico
(.doc) alla Segreteria di Redazione:
Michele Gallo
Dipartimento di Matematica e Statistica – Via Cinthia Complesso Monte S. Angelo
80126 – Napoli, e-mail: [email protected]
Indicando chiaramente l’indirizzo, il recapito telefonico e l’e-mail. I contributi che non rispetteranno
le seguenti norme tecniche saranno rifiutati
CARATTERISTICHE RIVISTA
(le misure sono espresse in millimetri)
mm
Formato A4
Margine destro
Margine sinistro
Margine superiore (compreso il numero di pagina)
Margine inferiore
Testo
Times, corpo 11, interlinea 14, su due colonne
Lunghezza rigo
Spazio fra le colonne
Titolo del lavoro
Times, corpo 11, interlinea 14, grassetto, maiuscolo, allineamento giustificato su unico rigo
Autore/i
Times, corsivo, corpo 11, interlinea 14
Autore – Istituto di appartenenzaUnico rigo, Times, corpo 10, interlinea 14
Paragrafo
Times, corpo 11, interlinea 14, grassetto, minuscolo, allineamento giustificato come colonna
Sottoparagrafo
Times, corpo 11, interlinea 14, corsivo, maiuscolo, allineamento giustificato come colonna
Sommario
Times, corpo 10, interlinea 14, giustificato su unico rigo
Formule
Times, corpo 11, interlinea 14
Tabelle
possono essere su una o su due colonne (rigo mm 90 o 190)
Titolo: Times, corpo 10, interlinea 14, grassetto
Testo: Times, corpo 10
Grafici e figure
possono essere su una o su due colonne (rigo mm90 o 190),
Didascalia: Times, corpo 10, interlinea 14, grassetto
Testo: Times, corpo 10
Bibliografia
Times, corpo 10, interlinea 14, grassetto.
210 x 297
10
10
30
25
90
10
Programmi: Word, figure e grafici in formato tif
L’accettazione/non accettazione del contributo per la pubblicazione sarà in ogni caso comunicata
agli autori.
Responsabilità e Proprietà
I contributi, pur ritenuti validi dagli editori per il loro contenuto, sono pubblicati sotto la responsabilità
degli autori. Gli autori rinunciano alla proprietà letteraria dei contributi. La riproduzione integrale o
parziale della Rivista è consentita a condizione che sia citata la fonte.
Scarica

Come garantire la qualità dei dati e la