&
rivista quadrimestrale per la diffu
Statistica & Società anno I n. 2, 2002
Reg. Trib. di Roma nº 504/2002 2/9/02
Rassegna quadrimestrale
SOMMARIO
gratuita per i soci SIS
pag.
Struttura Organizzativa:
Direttore Responsabile
B. Vittorio Frosini
Direttore Scientifico
Luigi D’Ambra
Condirettori
Giovanni Maria Giorgi (Didattica, Intervista, Informatica, Risposte ai Soci, Dottorati di Ricerca)
Giuliana Coccia (Mercato del lavoro, Territorio,
Osservatorio Internazionale, Bestiario Statistico)
Comitato Editoriale
B. Vittorio Frosini
Luigi D’Ambra
Giovanni Maria Giorgi
Giuliana Coccia
Responsabili di Sezione
Luigi Fabbris
Mercato del lavoro
Intervista
M. Gabriella Ottaviani Didattica
Enrico Del Colle
Territorio
Gianfranco Galmacci Informatica
Daniela Cocchi
Dottorati di Ricerca
Achille Lemmi
Management
Alberto Lombardo
Bestiario Statistico
Gustavo De Santis
Risposte ai Soci
Osservatorio Internazionale
Segreteria di Redazione
Michele Gallo
Dipartimento di Matematica e Statistica
Via Cinthia Complesso Monte S. Angelo
80126 – Napoli
Tel. 081 675111 fax 081 675187
e-mail: [email protected]
Finito di stampare nel mese di dicembre
rce edizioni Piazza Bagnoli, 19 – Napoli
Tel 081 2303416 – fax 081 2428946
Discussione
2
Qualche considerazione sull’impiego dei metodi statistici
nell’industria e sulle iniziative che potrebbero favorirne
la diffusione
5
Egidio Cascini
Indici dei prezzi al consumo
11
Laura Leoni
Informatica e statistica
Gianfranco Galmacci
15
Sull’uso di metodi soggettivi nella “Pianificazione Sociale
Partecipata”: verso la “Democrazia Continua”
23
Antonio Pacinelli
“Censimento a scuola”: statistica,… ma non solo
Maria Gabriella Ottaviani
29
2
Statistica & Società
INFERENZA STATISTICA: SCIMMIETTE E CATTIVI MAESTRI –
UN TITOLO PER SORRIDERE di A. Rizzi
B.Vittorio Frosini
Istituto di Statistica, Università Cattolica del Sacro Cuore – Milano
e-mail: [email protected]
Mi trovo sostanzialmente d’accordo con la presentazione, fatta da Rizzi, delle diverse impostazioni inferenziali; in particolare, mi sembra abbastanza
acquisita la convinzione che esse abbiano una pari
dignità teorica, mentre dal punto di vista applicativo
è essenziale considerare il problema concreto (scientifico oppure operativo), nonché l’insieme degli individui cui si chiede di concordare con le conclusioni raggiunte (il solo proponente, una ristretta cerchia
di persone – in ambito operativo o in ambito scientifico – o l’intera comunità scientifica internazionale). Per fare maggiore chiarezza, vi sarebbe anche da
considerare la fondamentale distinzione fra ricerca
statistica e ricerca scientifica nelle scienze naturali
e nelle altre scienze empiriche; la ricerca statistica è
ricerca sul metodo, anche se il campo elettivo della
sua applicazione può essere abbastanza delimitato
(ad esempio economia, psicologia, biologia ecc.); le
applicazioni della statistica – all’economia, alla psicologia, alla biologia ecc. – sono fatte dai cultori delle
particolari discipline, non dagli statistici, anche se il
contributo degli statistici a gruppi di ricerca è generalmente bene accetto. A questo proposito penso che
l’atteggiamento degli statistici verso i problemi delle scienze empiriche dovrebbe essere di grande umiltà, anche per il semplice fatto che molti di essi si
occupano di ricerca esclusivamente deduttiva, di tipo
matematico. Chi ha fatto ricerche solo di tipo matematico non ha più titolo dell’uomo della strada di
fare osservazioni sul metodo scientifico in generale.
Data l’amplissima copertura della metodologia
inferenziale, l’articolo di Rizzi è necessariamente
molto sintetico su singoli temi, che hanno trovato
ampio sviluppo nella letteratura, con centinaia di articoli e decine di volumi (anche limitatamente al “discorso sul metodo”). Ognuno ha le sue preferenze.
Personalmente avrei detto qualcosa di più a proposito della contrapposizione tra Fisher e NeymanPearson (§ 2.2), portatori di due proposte altrettanto
valide, ma con significato induttivo assai diverso; in
particolare, mi sembra importante ricordare che l’impostazione di Fisher cerca di adattare all’inferenza
induttiva l’argomento deduttivo del modus tollens,
con l’individuazione di un insieme di possibili campioni conformi all’ipotesi nulla, con una data probabilità; tale chiarimento facilita anche la corretta comprensione della terminologia infelice “accettare o
respingere un’ipotesi”, che significa semplicemente
che le osservazioni campionarie sono conformi – o
non conformi – alla data ipotesi (Frosini, Metodi statistici, Carocci, Roma, 2001, § 11.9).
Un’ultima osservazione. Una data impostazione inferenziale può offrire un sostegno a un’altra
impostazione, in modo inatteso e contro le intenzioni dei proponenti. Ad esempio, una semplice estensione della ”teoria del supporto”, che è basata sulla
sola verosimiglianza, offre un sostegno notevole alla
teoria fisheriana dei test di significatività (Frosini,
op. cit., § 11.9.2). Addirittura, la usuale elicitazione
delle probabilità soggettive proposta dalla Scuola
bayesiana, rende plausibile l’interpretazione soggettiva degli intervalli di confidenza! (Frosini, op. cit.,
§ 11.14.5).
Domenico Piccolo
Dipartimento di Scienze Statistiche, Università degli Studi di Napoli Federico II
e-mail: [email protected]
Mi sembra significativo che la nuova Rivista
della SIS ospiti il contributo accattivante e provocatorio di Alfredo Rizzi sui princìpi generali della nostra disciplina, verso la quale è noto l’impegno scien-
tifico e culturale dell’Autore. Lasciando a chi possiede maggiori competenze il dibattito sulle molte
questioni epistemologiche e filosofiche affrontate, mi
limiterò a commentare un paio di aspetti che tale la-
Statistica & Società
voro ha stimolato in me, con riguardo all’insegnamento e alla ricerca della Statistica.
A me sembra che l’elemento unificante della
riflessione di Rizzi sia l’invito ad una presentazione
corretta ed onesta della Statistica, nella quale non si
privilegi una sola prospettiva, né si esalti la propria
concezione, denigrando quella degli altri.
Condivido da sempre tale impostazione, ed infatti così scrivevo nella premessa al mio nuovo testo
(1998): “Poiché la Statistica nasce per offrire risposte a domande il cui esito non è univoco, sono legittimi i dibattiti, le opinioni e persino i contraddittori
più accesi. Ma, se vogliamo essere utili come scienziati metodologici, dobbiamo sempre rispondere con
efficacia e fornire convincimenti forti ed evidenze
pregnanti a chi chiede strategie decisionali.
Credo, perciò, che educare i giovani alla Statistica significhi formare generazioni che siano aperte ad impostazioni alternative, che criticamente utilizzino strumenti compositi ma unificati dagli obiettivi, che coraggiosamente abbandonino modelli inefficienti a favore di nuove analogie, che cerchino di
imparare dai dati senza preconcetti. Quest’ultima
affermazione, però, non implica una ‘neutralità’ rispetto alle osservazioni, che è spesso un’illusione che
nasconde impliciti dogmatismi. Infatti, è solo nella
dialettica tra dati, modelli e teoria che si costruisce
il rapporto corretto tra informazione empirica, struttura formale e conoscenza razionale” (da: Statistica, il Mulino, Bologna, 1998, pag. 10).
Mi sembra anche che occorre estendere questo
atteggiamento alla ricerca scientifica, ascoltando,
leggendo ed imparando dagli approcci alternativi all’analisi statistica. Assieme ai tanti che negli anni
hanno lavorato con me (subendo anche omologazioni
che oggi mi sembrano un po’ stantie), sono lieto di
aver utilizzato senza preconcetti una molteplicità di
strumenti statistici via via che questi si prospettavano nel dibattito internazionale: dalle analisi numeriche alle tecniche computazionali, dagli approcci
bayesiani ai metodi di simulazione, dal ricampionamento agli sviluppi asintotici, dalle analisi multivariate agli studi sul filtraggio, dai modelli non-lineari
a quelli lineari generalizzati, etc.
Ciò è in linea con la professione dello statistico
che è attraente perché consiste nel lavorare su problemi reali e nel rispondere a questioni importanti,
cercando di stabilire -con fantasia e creatività- collegamenti nuovi ed utili fra settori differenti. Ogni ap-
3
proccio, difatti, va giudicato comparativamente e, alla
fine, va provvisoriamente selezionato, secondo l’ottica popperiana del rifiuto progressivo delle ipotesi
piuttosto che quella dell’accettazione definitiva.
Ma vi è un secondo aspetto (già esplicito nel mio
testo: Ibidem, pp. 288-289) sul quale intendo riflettere
e che mi sembra si riconnetta immediatamente al discorso centrale di Rizzi: quale concezione della probabilità raccontiamo agli studenti e quale di esse è
sottesa all’approccio inferenziale che proponiamo?
Nelle mie lezioni racconto (avendolo appreso
da Pompilj nelle sue ultime magistrali lezioni del
1967) che la probabilità è un concetto primitivo, che
è ridicolo pensare di “definirla”, ma che ha invece
senso interrogarsi su come tale concetto si formi nel
cervello umano, sin dalla prima infanzia. Le discussioni sulle concezioni della probabilità – spesso riassunte e semplificate attorno ai nomi di Laplace (classica), von Mises (frequentista), de Finetti (soggettivista) – sono fin troppo note per ripeterle qui.
In sostanza, credo fermamente che l’opzione
soggettivista includa anche le altre (e non casualmente, essendo successiva sul piano storico). Peraltro,
mi ritrovo spesso ad esplicitare con gli studenti le
tante situazioni in cui solo una concezione soggettivista riesce a rispondere coerentemente a questioni
reali ed importanti per quella “Scienza delle decisioni in condizioni di incertezza” che ritengo sia la Statistica.
Tuttavia, credo che fra le prime due concezioni
della probabilità (classica e frequentista) e la terza
(soggettivista) vi sia una qualche differenza ontologica. Infatti, a ben vedere, classici e frequentisti rispondono in modo primario alla domanda: “da dove
trae origine il concetto di ‘probabilità’ nell’Uomo?”.
I classici dicono che ciò avviene su base logica mediante un ragionamento derivato dalla simmetria degli esiti, mentre i frequentisti dicono che ciò avviene
su base sperimentale osservando gli esiti di prove
ripetute.
Per contro, a me sembra che i soggettivisti rispondano in modo secondario alla medesima domanda, perché in effetti essi sono più interessati ad una
questione differente: “come comportarsi coerentemente di fronte ad una scommessa?”.
Credo sia capitato a molti colleghi di imbattersi nella difficoltà che hanno gli studenti nel comprendere con immediatezza la frase: “probabilità è la
somma p che un individuo coerente scommette su un
evento E il cui verificarsi gli fa vincere 1 Euro”.
4
Statistica & Società
A me sorge il dubbio che l’impostazione soggettivista implichi di fatto molto più di quella classica e di quella frequentista, perché essa pone l’accento sulla strategia da assumere di fronte ad una
prova ad esito incerto, ma non mi pare che essa affronti (o risolva) la questione primaria di come gli
esseri umani pervengano ad una valutazione numerica della probabilità.
Potrei anche sbagliare, ma a me sembra che tutte
le determinazioni umane siano sempre e solo il risultato di due fonti: il ragionamento e/o l’esperienza, ovvero una saggia ponderazione tra questi due
elementi. Questa è anche un’opinione ben consolidata quando si tratta della concettualizzazione matematica: “Il mondo matematico è prodotto dall’incontro della mente umana con il mondo fisico. Pertanto la matematica è determinata dal mondo che ci
circonda e dalla struttura del nostro cervello” (K.
Devlin, Il gene della matematica, Longanesi, Milano, 2002, pag. 173).
Così, per similitudine, contrasto, analogia, etc.
ogni ragionamento sulla prova specifica deriva (modificandolo in tutti i modi possibili, ovviamente) dallo
schema classico della partizione equiprobabile degli
eventi elementari di una prova. D’altra parte, ogni
ragionamento sulla prova specifica si può derivare
(anche qui per similitudine, analogia, contrasto, etc.)
dagli esperimenti pregressi, cioè secondo un’ottica
frequentista. A mio avviso, questo mixing di ragionamento ed esperienza è anche il punto di forza (e la
ragione intrinseca della sua importanza epistemologica) del teorema di Bayes, grazie al quale la strategia decisionale di fronte alle ipotesi deriva da una
combinazione (storica, progressiva, dialettica) di
pensiero formale ed evidenza empirica, in un legittimo contesto probabilistico.
La mia posizione attuale (sulla quale con piacere vorrei ricevere critiche e/o correzioni) ritiene
che non solo sia utile insegnare una concezione soggettivista ma che occorre illustrare anche come
essa – in molti casi – sia opportuna e necessaria, sul
piano pedagogico e su quello della onestà intellettuale. Ma credo, inoltre, che bisogna ricordare che
tale impostazione è a sua volta derivata dalle concezioni primarie della probabilità, che si fondono sulla
capacità propriamente umana di osservare il mondo
(concezione frequentista) e di comprenderne per sintesi ed astrazione gli aspetti essenziali (concezione
classica).
Se rispettiamo l’evoluzione storica (e persino
biologica) dei concetti primitivi – così come si sono
determinati negli esseri umani – forse dovremmo
ammettere che la concezione soggettivista nasce solo
molto tempo dopo la percezione degli avvenimenti e
lo studio razionale della probabilità. Per questo, essa
rappresenta un tentativo, lodevole e spesso vincente, di unificare ed includere concetti differenti.
Tuttavia, al di là delle razionalizzazioni fornite
successivamente dagli studiosi, è certo che la prima
utilizzazione storica della probabilità è derivata dall’evidenza sperimentale che ha orientato le strategie
ottimali per la sopravvivenza degli umani (e dei preumani): e questo è un atteggiamento sicuramente
frequentista. Poi, molto più tardi, la riflessione sulle
domande poste dai giochi di azzardo (domande ‘frequentiste’ ad essere onesti…) ha generato la concezione classica della probabilità, secondo un susseguirsi di approfondimenti che derivano da Laplace e
culminano con Kolmogorov (il quale ‘confessa’ la
genesi frequentista dei suoi postulati).
Al pari di quanto è avvenuto con altre scienze
formali, questa evoluzione temporale delle varie concezioni della probabilità mi sembra confermare il
carattere derivato della concezione soggettivista, intesa più come una saggia regola decisionale che come
una interpretazione originaria di un concetto primitivo.
Statistica & Società
5
QUALCHE CONSIDERAZIONE SULL’IMPIEGO DEI METODI
STATISTICI NELL’INDUSTRIA E SULLE INIZIATIVE CHE
POTREBBERO FAVORIRNE LA DIFFUSIONE
Egidio Cascini
Qualità & Metodologie Six-Sigma – 3M Italia S.p.A.
e-mail: [email protected]
Sommario
I metodi statistici sono suscettibili di applicazioni sempre utili e molto spesso indispensabili, per lo sviluppo e il miglioramento dei processi industriali, oltre che per la soluzione dei problemi che si presentano nel
corso della loro gestione ordinaria. Nel lavoro, con l’ausilio di casi reali, studiati e risolti in modo soddisfacente, viene giustificata l’affermazione e vengono forniti alcuni spunti di riflessione sulle iniziative che potrebbero favorirne una maggiore diffusione, allo stato attuale, piuttosto modesta.
1. Introduzione
Nel lavoro è affrontato il tema dei metodi statistici nell’industria, valutando lo stato attuale d’impiego di quelli maggiormente consolidati, e mostrando che la modesta situazione rilevata non dipende da
scarsa convenienza, quanto piuttosto da alcuni ostacoli oggettivi, che potrebbero essere rimossi con azioni correttive opportune. Alcune di queste sono analizzate e sottoposte all’attenzione della comunità
scientifica e industriale.
2. Considerazioni sull’impiego dei metodi
statistici nell’industria
I risultati presentati in questo paragrafo sono
tratti da una relazione, Cascini (2000), nella quale
era stata anche fornita qualche precisazione sulla
natura dei processi studiati. Sono state esaminate 15
realtà diverse, il 27% delle quali è rappresentato da
processi continui, il 40% misti, il 33% da laboratori
di ricerca e sviluppo. Per chiarezza, un processo continuo è caratterizzato da un prodotto costituito da
unità non distinguibili, come, per esempio, il processo per la produzione del film poliestere; mentre
quello misto è costituito da un processo continuo
seguito da operazioni di trasformazione, come, per
esempio, è il processo per la produzione di video
cassette. Anche se, per l’esiguità e la possibile polarizzazione dei dati, è conveniente considerare il campione come popolazione a sé stante, piuttosto che
rappresentativo della realtà industriale complessiva,
dall’analisi dei risultati potrà, nondimeno, essere tratta qualche indicazione di carattere più generale.
L’analisi è consistita nel rilievo, per ciascuna
delle 15 realtà, del numero dei metodi statistici realmente utilizzati e nella contemporanea valutazione
di quelli che avrebbero potuto essere utilizzati con
profitto; il rapporto tra le due grandezze è stato assunto come indicatore del livello d’impiego in ciascuna delle realtà esaminate. I metodi considerati
appartengono alla lista che segue, perché, anche se
congiuntamente a qualche idea originale, sono risultati sufficienti per una corretta gestione delle numerose situazioni incontrate e proposte dallo scrivente,
in più di 35 anni di attività industriale:
a. Sintesi statistica dei dati
b Carte di controllo per variabili
c. Carte di controllo per attributi
d. Piani di campionamento per variabili
e. Piani di campionamento per attributi
f. Test statistici- analisi della varianza
g. Regressione, correlazione
h. Carte di controllo multivariate
i. Esperimenti programmati
l. Superfici di risposta
m. Serie storiche
n. Calcolo delle probabilità e affidabilità
o. Manutenzione preventiva
p. Indici complessivi di qualità
q. Indici di Customer Satisfaction
I valori numerici ottenuti sono stati:
0,13; 0,20; 0,20; 0,13; 0.13; 0,20; 0,13; 0,07
0,07; 0,07; 0,13; 0,28; 0,28; 0,14; 0,07
6
Statistica & Società
Il valore medio, m = 0,155, è un chiaro indicatore di una situazione piuttosto modesta.
Se si vuole avere un’idea del livello d’impiego
dei metodi specifici, si può far riferimento alle frequenze relative della figura 1, che sono indicate da
un tratto continuo. La linea tratteggiata congiunge i
valori forniti dalla relazione:
f ( x) = 0, 24 e
−
x2
27
f (x) =
−
( x − 0 )2
2σ2
e
2 πσ
(0 ≤ x < ∞)
con:
2σ 2 = 27;
2
2 πσ
= 0, 22;
σ = 3, 674235.
Le frequenze sono state determinate con la procedura illustrata, per semplicità, dall’esempio che
segue: se due realtà utilizzano rispettivamente, i
metodi {a,b,g,h} e {a,g,h}, la popolazione dei metodi utilizzati, risulta dall’insieme: {a,a,b,g,g,h,h}; le
frequenze relative dei singoli metodi, sono, allora:
a:2/7
b:1/7
g:2/7
0 1
i
2
a
3
b
4
g
5
c
6
d
7
f
8
f
9
p
10
h
11
m
x
(1)
che costituisce un tentativo di modellazione dei dati
sperimentali, e che, curiosamente, risultano quasi
coincidenti con le ordinate della densità continua:
2
f(x).26
.24
.22
.14
.18
.16
.20
.12
.10
.08
.06
.04
.02
h:2/7
Nel caso in esame, il numero dei metodi utilizzati è risultato di 45, di cui 11 sono esperimenti programmati, 10 sintesi statistica dei dati, 7 carte di controllo per variabili, 5 regressione, 3 piani di campionamento per attributi, 3 piani di campionamento per
variabili, 2 test statistici, 1 ciascuno analisi della
varianza, indici complessivi di qualità, carte di controllo multivariate e serie storiche.
Le frequenze, relativamente alte, degli esperimenti programmati, della sintesi statistica dei dati
(che consiste più che altro nel calcolo di parametri
statistici semplici, come media e deviazione standard,
più raramente nella determinazione della distribuzione di frequenza delle caratteristiche controllate), e
delle carte di controllo, per lo più di Shewart, sembrano determinate essenzialmente da due fattori principali, vale a dire dalla semplicità d’utilizzazione e
dalla ricchezza di contenuto informativo. I piani di
campionamento sono utilizzati soltanto quando specifici requisiti contrattuali impongano, i test statistici come supporto all’intuizione, l’analisi della
Fig. 1: Frequenze relative dei metodi statistici della
popolazione esaminata – linea continua – e del modello
interpretativo – linea tratteggiata.
varianza essenzialmente nell’ambito dei metodi di
misura, per stabilire i valori numerici della ripetibilità
e riproducibilità. L’impiego d’indici complessivi della
qualità e di customer satisfaction si trova in una fase
iniziale ed è ancora essenzialmente motivato dalla
necessità di soddisfare i requisiti della nuova edizione della normativa ISO-9000. Alcuni lavori collegati alla teoria delle serie storiche, sia per analizzare
i processi di produzione, sia per modellare la domanda e quindi gestire più correttamente gli inventari,
sono, al momento, ancora in una fase di studio.
Concludendo con queste brevi considerazioni
il discorso sul livello attuale d’impiego, si mostrerà
ora come l’applicazione appropriata dei metodi statistici può risultare, in verità, molto conveniente per
affrontare con successo le situazioni che si presentano in pratica.
3. Utilità dei metodi statistici nell’industria
Per questo scopo, si presentano tre esempi, relativi, rispettivamente, alle fasi di sviluppo, di miglioramento e di soluzione di un problema, nell’ambito della gestione di un processo industriale. Sono
tre esempi rappresentativi una popolazione assai vasta, che ha contribuito in maniera rilevante allo sviluppo dell’azienda.
3.1 Sviluppo di un processo
1983; stabilimento italiano di prodotti magnetici per la registrazione digitale ed analogica.
Il prodotto era costituito dai comuni dischetti
magnetici per la registrazione digitale, del diametro
di 5.25 pollici. Oggi, com’è noto, si usano quelli da
3.00 pollici. Il prodotto, come alcuni ricorderanno,
era costituito da un dischetto magnetico, mobile al-
Statistica & Società
l’interno di un contenitore di materiale plastico flessibile, il cosiddetto packaging primario, il tutto inserito in una busta di carta speciale. Dieci dischetti rappresentavano il contenuto di un astuccio di cartone,
confezione comune per il cliente finale. I distributori, invece, ricevevano una confezione contenente un
numero elevato d’astucci, in un pacco avvolto da un
film di plastica. Le operazioni necessarie per la confezione del prodotto erano eseguite, in modo automatico, mediante una linea d’imballaggio integrata.
Per il rapido sviluppo del mercato dei personal
computer di quegli anni, fu stimato che la richiesta
di prodotto sarebbe raddoppiata nel giro di pochi
mesi; la soluzione più semplice e, in un certo senso,
obbligata, per far fronte alle nuove richieste, era quella di installare una seconda linea, ed infatti furono
avviati i contatti con il fornitore, per definirne l’acquisto.
Contemporaneamente, però, fu avviato uno studio di affidabilità, per valutare soluzioni alternative.
Con i metodi del calcolo delle probabilità si scoprì
che l’efficienza della linea di produzione poteva essere raddoppiata, modificando non di molto lo schema dell’impianto. In particolare, sarebbe stato sufficiente installare, in parallelo con quello esistente, un
nuovo blocco per imbustare i singoli dischetti, lasciando inalterato il resto, con un risparmio del 90%,
rispetto alla soluzione dell’acquisto di una nuova linea.
L’efficienza dell’unica linea esistente, modificata secondo lo schema suggerito dai calcoli, confermò i risultati attesi, per l’intero periodo di funzionamento.
Il caso è trattato in Cascini (1991).
3.2 Miglioramento di un processo
1995; stabilimento italiano di lastre in alluminio per stampa offset.
Il mercato lamentava una variabilità eccessiva
di una delle caratteristiche qualitative fondamentali
delle lastre, vale a dire del grado di finitura superficiale, collegato in modo diretto alla qualità di stampa.
La causa del reclamo fu individuata nel comportamento anomalo del personale di produzione. Per
cercare di ridurre la variabilità, che la direzione attribuiva a scarsa attenzione, gli operatori avevano la
tendenza ad intervenire con maggior frequenza del
necessario, secondo criteri che ciascun capoturno
stabiliva sulla base alla ”propria esperienza di lavoro”, finendo per peggiorare la situazione. Anche se
leggermente diversi, si scoprì, infatti, che tutti gli
interventi avevano una caratteristica in comune; si
7
interveniva per modificare la media del processo,
anche se i valori della caratteristica controllata risultavano all’interno dei limiti di variabilità naturale.
Per risolvere il problema in maniera definitiva, si ritenne utile determinare, in termini quantitativi, l’aumento di variabilità derivante da questa procedura.
Fu, quindi, avviato lo studio del quale si riporta di
seguito il risultato fondamentale. In breve: indicando con r il rapporto tra l’ampiezza delle specifiche e
quella dei limiti di controllo al 99.73%, con -δp la
variazione di media del processo, effettuata in corrispondenza di un valore osservato, esterno di p al limite di specifica, (fig. 2), con σ0 la deviazione standard naturale del processo, con σp la deviazione standard risultante dall’impiego di questa strategia, è stato
possibile determinare la relazione esistente tra σp e
σ0.
r= a
b
∆µ = δ p
Limite di
controllo
Limite di specifica
p
a
b
µ
Limite di specifica
Limite di
controllo
Campioni
Fig. 2: Strategia di controllo del processo che prevede la
variazione del target m di una quantità ∆µ = -δπ, con δ
valore prestabilito e p distanza tra il valore di un rilievo
esterno ai limiti di specifica e il limite di specifica più
prossimo.
Mediante un software appropriato, infatti, le
realizzazioni di ciascuna di 10 serie temporali casuali, con deviazione standard nota, σ0, sono state
modificate, applicando la regola precedente, per i
valori di r e δ riportati nella terza e quarta colonna
della tabella I, ottenendo nuovi valori di deviazione
standard, σp. I rapporti σp/σo sono indicati nella seconda colonna della tabella. Posto:
y = b1r + b 2 δ + b12 rδ
(2)
dai dati della tabella sono stati ricavati i valori numerici dei coefficienti b1, b2, b12, e la relazione (3),
in grado di riprodurre fedelmente i valori numerici
sperimentali, come si può verificare dal confronto
delle colonne corrispondenti della tabella I. I valori
dei coefficienti b1, b2, b12 sono:
b1= -1,91491; b2= +2,08459; b12= -0,95198
La relazione ottenuta è:
8
Statistica & Società
σp
σo
3.3 Soluzione di un problema
= 1 + 0, 1221 e y
(3)
Le relazioni (2) e (3) sono illustrate graficamente nelle figure 3 e 4 seguenti.
Il punto P(r = 0,11; d = 1,5; y = 2,76), indicato
sui grafici delle figure 3 e 4, non utilizzato per la
determinazione della relazione (3), è relativo al caso
reale trattato. Tenendo conto della dimensione del
campione utilizzato, (80 rilevazioni), l’accordo con
il valore stabilito dalla relazione teorica, appare più
che soddisfacente. Maggiori dettagli in Cascini (2002).
Nello stesso lavoro è mostrato inoltre, come
anche la struttura del processo risulti alla fine profondamente modificata da questa procedura. Una
sequenza casuale, infatti, diviene autocorrelata, con
struttura e grado, dipendente dal valore assunto dalle grandezze r e δ.
1985; stabilimento italiano di prodotti magnetici per la registrazione digitale ed analogica.
Il prodotto finale era costituito da una bobina
di nastro magnetico per la registrazione digitale di
dati. Da un rotolo di dimensioni appropriate, si ottenevano contemporaneamente 52 bobine, con una
macchina a ciclo continuo, dotata di un sistema di
controllo in grado di rilevare i difetti presenti su ciascuna bobina.
Tab. 1: Valori sperimentali dai quali è stata ricavata la formula (3) e confronto tra i valori sperimentali di σp/σo,
seconda colonna, e quelli ottenuti dalla (3), ultima
colonna.
sperimentale
1
2
3
4
5
6
7
8
9
10
Fig. 3: Rappresentazione grafica della funzione:
y = b1r + b2δ + b12 rδ
con i punti (r,δ) della tabella I. Le curve sono il luogo dei
punti y = cost., con il valore cost. indicato a margine. Le
coordinate del punto P sono relative al caso reale.
σp
σ0
-5
-4
-3
-2
3,0
2,8
2,6
2,4
2,2
2,0
1,8
1,6
1,4
1,2
1,0
0,8
0,6
0,4
0,2
0,0
-1 Y 0
P
1
2
3
4
5
Fig. 4: Rappresentazione grafica dell’equazione (3). I
punti indicati sulla curva rappresentano i valori
sperimentali dai quali è stata ricavata la relazione. Il punto
P non utilizzato per la determinazione della (3),
rappresenta il caso reale trattato.
1,16
1,14
1,11
1,07
1,03
1,40
1,36
1,26
1,17
1,06
σp
σo
r
0,00
0,03
0,17
0,35
0,70
0,00
0,03
0,17
0,35
0,70
δ
0,50
0,50
0,50
0,50
0,50
1,00
1,00
1,00
1,00
1,00
y
1,04
0,96
0,63
0,20
–0,63
2,08
1,98
1,59
1,08
0,07
σp
σo
calcolato
1,16
1,15
1,11
1,07
1,03
1,41
1,37
1,26
1,17
1,06
Le bobine con un numero di difetti maggiore di
quello stabilito dai limiti di specifica, erano scartate
automaticamente. L’unità elettronica di controllo, che
consentiva questa operazione, era stata installata 2
anni prima, con notevole vantaggio economico, per
il ridotto carico di lavoro del collaudo finale. Durante le operazioni di fabbricazione, ad intervalli regolari, veniva prelevato un campione di 5 bobine. Il
numero di difetti veniva determinato nuovamente con
uno strumento fuori linea. Se si rilevava una differenza significativa tra i valori medi determinati con i
dati relativi ai due strumenti, la produzione era interrotta, per tarare lo strumento in linea. Nello stesso
periodo, si cominciò a notare una progressiva diminuzione della produttività, per l’aumento del numero di fermate macchina, causate da necessità di taratura. Fu organizzato, quindi, un gruppo di lavoro, con
il compito di individuare i motivi tecnici di queste
fermate. Il lavoro di qualche mese produsse un notevole miglioramento di stabilità degli amplificatori
Statistica & Società
elettronici ed una nuova procedura di taratura. La
produttività, però, non migliorò, così il problema fu
affrontato da una nuova prospettiva. I risultati del
lavoro possono essere riassunti dal seguente teorema:
“assegnati due strumenti di misura, collegati
da una matrice di trasferimento, condizione sufficiente perché si possa osservare una variazione di sensibilità relativa è che vari la distribuzione di frequenza del numero di difetti sul prodotto sottoposto al
controllo”
che, con riferimento al caso in esame, evidenziava
come le variazioni di sensibilità osservate potevano
essere indipendenti dallo strumento e condurre, quindi, a fermi macchina non necessari e ad aumenti indebiti degli scarti. In conformità a queste indicazioni fu definita una nuova strategia di controllo. I risultati sperimentali confermarono le previsioni.
La discussione del caso, con la dimostrazione
del teorema, è contenuta in Cascini (1988).
4. Qualche idea per favorire lo sviluppo dei
metodi statistici nell’industria
I risultati del paragrafo 2 mostrano un impiego
modesto dei metodi statistici. I casi trattati nel paragrafo 3, d’altra parte, sono un esempio della loro utilità, in linea con motivazioni di carattere teorico. Si
veda, al riguardo, Zanella (2002).
Il problema di come promuoverne la diffusione, quindi, assume, nell’ambito industriale, un particolare rilievo.
Un primo provvedimento dovrebbe consistere
nella rimozione della causa fondamentale del livello attuale, che, senza dubbio, è proprio l’atteggiamento culturale di certe direzioni aziendali.
Una idea, per rimuovere questo ostacolo, potrebbe essere quella di utilizzare, in aggiunta ad attività formative, il processo di certificazione della qualità aziendale, secondo la normativa ISO-9000. Affiancando, infatti, agli ispettori ufficiali, durante le
visite ispettive, uno statistico esperto, si avrebbe la
possibilità di accertare, in modo affidabile, il livello
e la correttezza di utilizzazione di quei metodi statistici, che la norma ISO-9000, anche se soltanto implicitamente, richiede in molti punti del sistema di
qualità. Si veda anche Zanella (2002). Si otterrebbe,
per ciascun’azienda una diagnosi precisa ed una serie di raccomandazioni cogenti, in grado sicuramente di migliorare la situazione.
9
A questo punto sorge spontanea una seconda
idea, che, se realizzata, potrebbe, d’altra parte, favorire il miglioramento del livello tecnico delle applicazioni. Si tratterebbe di creare la figura dello statistico industriale, progettando una laurea specifica in
Statistica industriale. Si dovrebbe cercare il modo
per poter affiancare ai corsi di Probabilità e Statistica, un certo numero di discipline tecniche, come, per
esempio:
Fisica Generale, Chimica Generale, Meccanica
Applicata, Elettronica, Controlli Automatici.
Una conoscenza approfondita di questi contenuti è, infatti, necessaria per affrontare e risolvere in
modo soddisfacente le questioni relative alla maggioranza dei processi industriali di natura tecnica. Le
fasi di impostazione degli esperimenti e di interpretazione dei risultati richiedono spesso una precisa
indagine ed una interpretazione fisica precisa, per
risultare veramente utili in termini pratici. Il collegamento tra analisi statistica e modellazione fisica,
dovrebbe essere il contenuto di un corso specifico,
del tipo: Modelli matematici industriali, con un’ampia raccolta di casi reali e che potrebbe essere affidato anche ad esperti aziendali del settore.
Un terzo punto di riflessione è il linguaggio.
Lo sviluppo della Statistica sembra procedere di pari
passo con quello di un linguaggio sempre più ermetico. Non vi è dubbio che un linguaggio tecnico sintetico può favorire la circolazione dei risultati tra
esperti di settori specifici, ma certamente costituisce
un ostacolo insormontabile per le applicazioni.
Questo problema, d’altra parte non è nuovo
nelle Scienze, ed ha da sempre costituito uno dei limiti alla sua diffusione. In Poincarè, (1880, a), per
esempio, si può leggere:
“Voglio occuparmi solo della forma: e precisamente mi domando se la forma adottata gli permette
di conseguire un maggior rigore e se ciò ripaghi gli
sforzi che essa impone tanto a chi scrive quanto a
chi legge. Osserviamo, tanto per cominciare, che
Burali-Forti definisce il numero 1 nel modo seguente:
1 = iT ′{k 0 ∩ ( u, h ) ∈ ( u ∈ Um )}
una definizione particolarmente acconcia a dare
un’idea del numero 1 a chi non ne avesse mai sentito parlare… sia come sia, Burali-Forti parte da questa definizione per arrivare, dopo un breve calcolo,
all’equazione:
1 ∈N 0
la quale ci dice che UNO è un numero…”
10
Statistica & Società
Ancora, in Poincarè, (1880, b):
“Nel suo articolo “Le classi finite” (Atti della
reale accademia delle scienze di Torino, XXXII)
Burali-Forti fornisce un’altra dimostrazione del principio di induzione. Ma è costretto ad assumere due
postulati. Il primo asserisce che esiste sempre almeno una classe infinita. Il secondo si enuncia nel modo
seguente:
u ∈ K(K − i ∧) ⋅ u < U ′u
Il primo postulato non è più evidente del principio da dimostrare. Il secondo non solo non è evidente, ma è falso, come ha dimostrato Whitehead, e
come si sarebbe accorta immediatamente l’ultima
delle matricole se l’assioma fosse stato enunciato in
un linguaggio intelligibile. Esso infatti significa: il
numero delle combinazioni che si possono formare
con più oggetti è minore del numero di tali oggetti”.
La semplicità e la chiarezza d’esposizione sono
condizioni necessarie per rendere applicabili, ove
possibile, i risultati della ricerca scientifica.
Negli anni ’70 era possibile applicare direttamente i risultati degli articoli pubblicati, per esempio, a cura dell’Associazione Italiana Cultura Qualità. Oggi è impossibile trovare articoli utilizzabili direttamente. A questo proposito potrebbe essere utile
realizzare una terza idea: la pubblicazione di casi
aziendali risolti con metodi statistici, trattati in modo
accessibile, non per i metodi, che potrebbero essere
anche molto avanzati, ma per il linguaggio, che dovrebbe mettere in luce il significato pratico della trattazione.
È, per fortuna, già avviata un’altra iniziativa, la
quarta di questa lista, a cura dell’Associazione Italiana Cultura Qualità-Centronord. Si tratta di due
“Masters in discipline statistiche, finalizzate alla
gestione tecnica della qualità nell’industria”, che,
in poco più di 100 ore, forniscono teoria e pratica
dei metodi fondamentali per il controllo e il miglioramento dei processi.
Ricapitolando, le iniziative per fornire un impulso rilevante alle applicazioni statistiche, potrebbero essere:
• Affiancare uno statistico all’ispettore, nel corso
delle visite ispettive per la certificazione del sistema di qualità delle aziende.
• Introdurre un corso di laurea in Statistica Industriale, utilizzando esperti aziendali.
• Avviare uno scambio d’informazioni tecniche su
“casi aziendali risolti con metodi statistici”.
• Pubblicizzare i “Masters in discipline statistiche
per la gestione della qualità”, promossi dall’Associazione Italiana Cultura Qualità Centronord.
Il ragionamento alla base delle idee precedenti
è quella di utilizzare l’unica chiave oggi disponibile,
vale a dire la normativa di qualità, ISO-9000 , per
“accedere” nella realtà industriale e promuovere
appropriate applicazioni statistiche; e di non trascurare, nello stesso tempo l’aggiornamento delle professionalità tecniche, da cui devono scaturire, in seguito, i risultati concreti.
Prima di concludere è utile soffermarsi ancora
un attimo sulla prima delle proposte, per ribadirne la
validità, soprattutto per le aziende, in cui il livello di
penetrazione della statistica è basso o medio-basso.
Per quelle già ad un buon livello, potrebbe essere
utile considerare la possibilità di introdurre, per la
gestione complessiva, la filosofia e i metodi del SixSigma, che, però, per vastità e specificità, non possono essere presi in considerazione in questa nota.
5. Conclusioni
L’obiettivo finale del lavoro era di indicare alcune soluzioni, per risolvere il problema della scarsa
diffusione della statistica nell’industria. Prima di farlo
è stata effettuata una piccola verifica dell’effettiva
esistenza del problema e, con l’ausilio d’alcuni casi
reali, della convenienza di risolverlo.
Per rendere concrete le idee proposte, occorrerebbe condividerne i contenuti ed avviare un certo
numero di processi; l’auspicio è che quest’articolo
possa contribuire ad avviare un utile dibattito al riguardo.
Riferimenti Bibliografici
CASCINI E., (2000), I metodi statistici nel controllo di qualità, Facoltà di Scienze Statistiche-Padova, Simposio:
gli incontri della facoltà di Scienze Statistiche, Relazione orale invitata.
CASCINI E., (1991), Un criterio per ottimizzare il livello di
automazione di una linea produttiva, Automazione e
Strumentazione, 9, pp. 137-146.
CASCINI E., (2002), Transforming a Random Time Serie in
an ARMA Process, Società Italiana di Matematica
Applicata e Industriale, Atti del VI Convegno Nazionale, Chia Laguna (CA), CD-ROM.
CASCINI E., (1988), Un falso problema di deriva nel controllo di qualità in linea, Qualità, 63, pp. 13-22.
POINCARE H.J., (1880 a), Scienza e Metodo, Boringhieri,
(Torino, 1995), p. 136.
POINCARE H.J., (1880 b), Scienza e Metodo, Boringhieri,
(Torino, 1995), p. 168.
UNI EN – ISO 9001: 2000, (2000).
ZANELLA A., (2002), La statistica nell’impresa, in particolare nell’area di tecnologia e produzione, Statistica
& Società, n. 1, pp. 24-30.
Statistica & Società
11
INDICI DEI PREZZI AL CONSUMO
Laura Leoni
Dirigente del Servizio Statistiche sui Prezzi – Istituto Nazionale di Statistica
Aspetti generali
Il sistema degli indici dei prezzi è attualmente
costituito da tre indicatori: un indice principale, l’indice nazionale dei prezzi al consumo per l’intera collettività (NIC), e due indici satelliti, l’indice dei prezzi
al consumo per famiglie di operai ed impiegati (FOI)
e l’indice armonizzato dei prezzi al consumo per i
paesi membri dell’Unione europea (IPCA).
L’indice principale (NIC) misura la variazione
nel tempo dei prezzi dei beni e servizi acquistabili
sul mercato e destinati al consumo finale di tutte le
famiglie presenti sul territorio nazionale. Il FOI misura le variazioni nel tempo dei prezzi dei medesimi
beni e servizi, destinati ai consumi delle famiglie
aventi come persona di riferimento un lavoratore dipendente non agricolo. L’indice armonizzato è prodotto in ciascuno stato membro dell’Unione europea secondo una metodologia sviluppata dagli statistici europei sotto la guida di Eurostat: esso misura
la variazione dei prezzi dei beni e servizi che hanno
regimi di prezzo comparabili nei diversi paesi dell’Unione. Rispetto agli indici nazionali, questo indicatore presenta notevoli differenze concettuali che
verranno successivamente discusse.
I tre indicatori assolvono a funzioni differenti,
ma scaturiscono da una medesima rilevazione dei
prezzi, che viene effettuata in gran parte dagli Uffici
comunali di statistica dei capoluoghi di provincia, e
nella restante parte dall’Istat. Essi hanno la medesima base territoriale (i comuni capoluoghi di provincia), utilizzano le stesse procedure di calcolo (indice
concatenato di tipo Laspeyres) e si basano sullo stesso
insieme ragionato di prodotti (paniere). Differiscono, invece, il NIC dal FOI per la popolazione di riferimento (nel NIC totalità delle famiglie; nel FOI famiglie con persona di riferimento costituita da lavoratore dipendente extra agricolo) e i primi due dall’indice armonizzato per l’aggregato economico considerato.
L’indice NIC, poiché ha la copertura più ampia, costituisce lo strumento per la misura dell’inflazione in Italia; il FOI è utilizzato per la rivalutazione
delle somme monetarie, costituendo l’indice di riferimento di numerose norme; l’IPCA, infine, è adoperato per misurare la dinamica dei prezzi nei Paesi
dell’Unione Monetaria.
L’aggregato macroeconomico a cui si riferisce
il NIC è rappresentato dai consumi finali individuali
delle famiglie residenti (comprese le comunità ed i
turisti stranieri) originati da transazioni monetarie
effettuate sul territorio economico italiano.
I consumi finali individuali includono anche le
spese sostenute dalla Pubblica Amministrazione (PA)
o dalle istituzioni non aventi fini di lucro (ISP) per
consumi finali riferibili alle famiglie (medicinali, servizi medici, prestazioni sociali). Sono, invece, escluse
tutte le spese per le quali non viene pagato un corrispettivo monetario e per le quali nei Conti Nazionali
viene stimato un valore figurativo. Poiché l’indice è
riferito ai beni e servizi acquistabili sul mercato, sono
escluse anche tasse, imposte e contributi.
Per il FOI, tali consumi sono resi proporzionali
alle quote attribuibili alle famiglie di operai e impiegati, sulla base dei dati dell’indagine sui consumi
delle famiglie.
L’aggregato economico di riferimento dell’IPCA è l’insieme dei beni e servizi rientranti
nelle spese monetarie per consumo finale individuale (Household final monetary consumption
expenditure).
Tale peculiarità lo fa divergere dagli altri due
indici; in particolare, per il capitolo “Servizi sanitari
e spese per la salute”, nell’IPCA sono considerate
nel sistema di ponderazione solo le spese effettivamente pagate dalle famiglie (prestazioni di natura
privatistica più contributi al Sistema Sanitario Nazionale). Nel NIC e nel FOI, invece, il peso del capitolo è proporzionale all’ammontare delle spese sostenute direttamente dalle famiglie più le spese della
Pubblica amministrazione per le prestazioni sociosanitarie. Analoga differenza si riscontra anche nella
rilevazione dei prezzi, in quanto per l’IPCA viene
rilevato il ticket, ovvero la quota del prezzo di medicine a carico delle famiglie, per il NIC e il FOI il
prezzo pieno della confezione di medicine.
12
Statistica & Società
Sono inoltre escluse dall’IPCA le spese sostenute per lotterie, concorsi pronostici, lotto e i servizi
relativi alle assicurazioni vita.
A partire dal gennaio 2002, in applicazione del
regolamento comunitario n.2602/2000 del 17 novembre 2000, i prezzi di acquisto considerati ai fini del
calcolo dell’indice IPCA devono tener conto delle
riduzioni temporanee di prezzo praticate dagli esercenti (sconti, promozioni, ecc.).
Il paniere e il sistema di ponderazione
La determinazione del paniere e la metodologia di costruzione dei prezzi ad essa associati sono
due aspetti strettamente connessi della medesima
procedura di definizione delle strutture degli indici.
L’insieme ragionato dei prodotti selezionati per
rappresentare l’aggregato economico di riferimento
viene definito annualmente dall’Istat sulla base di
una pluralità di fonti e secondo criteri prefissati.
Le fonti principali sono i dati sui consumi delle
famiglie elaborati nell’ambito delle stime dei conti
economici nazionali, opportunamente adattati al dominio di riferimento degli indici, nonché i dati derivanti dall’indagine mensile sui consumi delle famiglie eseguita dall’Istat.
Da gennaio 1999, in accordo con le norme comunitarie, il complesso dei consumi considerati è
classificato secondo la nomenclatura COICOP rev.1
(Classification of individual Consumption by Purpose) in 12 capitoli di spesa, 38 categorie di prodotto, 106 gruppi di prodotto. Tale classificazione, adottata sia per gli schemi di contabilità nazionale sia
per l’indagine sui consumi delle famiglie, permette
l’integrazione di più fonti per la costruzione del sistema di ponderazione e conseguentemente per la
definizione del paniere.
Negli indici italiani, le 106 voci della classificazione COICOP sono ulteriormente suddivise in 209 voci
di prodotto che rappresentano il massimo dettaglio di
classi di consumo omogeneo. Ai pesi delle 209 voci di
prodotto, che descrivono in maniera esaustiva l’insieme dei consumi considerati e sono la base per le definizioni del paniere, si giunge attraverso una elaborazione dei dati di contabilità nazionale.
L’operazione successiva consiste nell’individuare, all’interno di ciascuna delle 209 voci di prodotti, le “posizioni rappresentative”. Il criterio utilizzato per la definizione di tale elenco è quello della
prevalenza: sulla base dei dati ricavati dall’indagine
sui consumi delle famiglie e dalle altre fonti si in-
dividuano per ciascuna voce i singoli prodotti rappresentativi cui corrispondono le maggiori quote di
consumo.
La scelta tiene conto anche del criterio del peso
medio, secondo il quale maggiore è il peso di una
voce di prodotto sul totale dei consumi delle famiglie, maggiore deve essere il numero di posizioni
rappresentative che contribuiscono a misurare l’evoluzione dei prezzi. Il criterio permette di individuare
i casi nei quali il rapporto tra spesa per i consumi e
numero di posizioni rappresentative risulta relativamente elevato o relativamente basso. In questi casi
si interviene aumentando il numero di posizioni rappresentative o, alternativamente, riducendolo.
Si tratta di un principio che non può essere utilizzato in modo automatico ma che va contemperato
con considerazioni specifiche riguardanti le caratteristiche dei prodotti inclusi in ciascuna voce: ad esempio, nel caso di energia elettrica, acqua, gas, carburanti di autotrazione, il criterio del peso medio perde
di significato.
Tutte le informazioni raccolte sono integrate in
un quadro unitario, all’interno del quale si effettua la
scelta dei prodotti da inserire nel paniere e di quelli
da eliminare. La selezione si basa, come si è visto,
su valutazioni quantitative e qualitative. In particolare, i criteri della prevalenza e del peso medio sono
utilizzati per una valutazione quantitativa del grado
di rappresentatività dei singoli prodotti e del grado
di copertura delle corrispondenti voci di prodotto.
I risultati delle analisi quantitative permettono
di verificare la fondatezza delle valutazioni di carattere qualitativo suggerite dagli Uffici Comunali di
Statistica.
La fonte principale per la definizione del sistema di ponderazione per gli indici dei prezzi al consumo è costituita dalle stime dei consumi finali delle
famiglie prodotte dalla contabilità nazionale. Una
volta determinati con riferimento alle 209 voci di
prodotto, i pesi derivati dalle stime di contabilità
nazionale non vengono più modificati. Tutte le altre
fonti utilizzate nella determinazione dei pesi (compresa l’indagine sui consumi delle famiglie) servono unicamente per disaggregare i dati sui consumi
forniti dalla contabilità nazionale, al livello di dettaglio necessario per il calcolo degli indici. In particolare, le fonti secondarie vengono utilizzate per calcolare le quote percentuali di spesa da attribuire a
ciascuna voce disaggregata. Si deve, però, tener conto
che il peso attribuito a ciascuna posizione rappresentativa non corrisponde all’effettivo consumo che
Statistica & Società
le famiglie effettuano di quel prodotto, ma all’insieme dei prodotti che vengono rappresentati
Oltre alle fonti già citate, vengono prese in considerazione, ai fini della definizione del paniere e
dello schema di ponderazione, numerose altre indagini dell’Istat (le altre indagini sui prezzi, l’indagine
sul commercio estero, l’indagine sulla produzione
industriale, indagine sulle strutture e sulle presenze
turistiche ecc.).
Tra le fonti non Istat, è da segnalare l’utilizzo
dei dati ACNielsen riguardanti il fatturato effettivo
delle vendite relative al settore grocery (alimentari e
igiene casa) e al settore abbigliamento.
Alla fine di tale processo, piuttosto complesso,
si giunge all’individuazione delle posizioni rappresentative, il cui numero è variabile nel tempo (ad
esempio, esso passa da 568 nel 2002 a 577 nel 2003).
Le posizioni rappresentative costituiscono il livello minimo al quale è attribuibile un peso. In altri
termini, l’indice complessivo si ottiene come media
aritmetica ponderata degli indici delle posizioni rappresentative.
Poiché alcune di queste posizioni sono a loro
volta formate da più componenti (ad es. la posizione
“ortaggi”), nella realtà viene osservato il prezzo di
più di 900 prodotti, con una numerosità che varia nel
corso degli anni.
Unità di rilevazione
Attualmente la base territoriale degli indici è
formata da venti capoluoghi di regione e da sessantuno capoluoghi di provincia. Nella maggior parte
dei comuni che non partecipano all’indagine, sono
in svolgimento le attività preparatorie, in vista di un
prossimo ingresso nella rilevazione.
La definizione delle unità di rilevazione (negozi, studi professionali, …) presso cui effettuare la
raccolta dei prezzi spetta agli Uffici comunali di statistica. Essi utilizzano informazioni desunte dai censimenti, dai piani commerciali, dalle anagrafi delle
ditte per selezionare l’elenco completo dei punti presso cui effettuare la rilevazione, sulla base di criteri
prefissati dall’Istat.
Questi riguardano principalmente:
– dimensione del Comune;
– distribuzione territoriale della popolazione;
– tipologia e articolazione degli esercizi commerciali sul territorio:
– abitudini di consumo delle famiglie.
13
La rilevazione non grava totalmente sugli Uffici comunali, in quanto per i prodotti che hanno prezzi uguali su tutto il territorio nazionale (tabacchi,
periodici ecc.…), per i beni soggetti a continui
aggiustamenti di qualità (computer, telefoni, cellulari, ecc.…) e per i servizi il cui godimento non riguarda solo la popolazione del comune interessato
(camping, stabilimenti balneari ecc….) la raccolta
dei prezzi viene effettuata dall’Istat, anche mediante rilevazioni estese sul territorio.
Si deve sottolineare che agli Uffici Comunali
viene inviato, ai fini della rilevazione, un elenco di
prodotti, in cui ciascun bene o servizio è corredato
da una serie di informazioni (“descrizione del prodotto”) che lo specificano (ad esempio: peso, confezione, tipo…); ciò permette l’individuazione, nel
territorio nazionale, di beni che non siano dissimili
tra loro, ma allo stesso tempo che siano rappresentativi delle varietà più diffuse a livello locale.
Per ciascun prodotto, in ogni capoluogo, viene rilevata una pluralità di quotazioni di prezzo
riferite alle differenti varietà presenti sul mercato. Il numero varia in funzione della disponibilità
dei punti vendita, dell’ampiezza demografica del
comune, delle caratteristiche della rete di commercializzazione locale.
La rilevazione dei prezzi dei beni e servizi presenti nel paniere avviene con periodicità differenziate tenendo conto sia della natura dei prodotti considerati, sia della stagionalità di alcuni di essi, nonché della variabilità più o meno accentuata dei loro
prezzi.
Le periodicità sono le seguenti:
• bimensile: per i prodotti alimentari freschi (pesci, ortaggi e frutta) e per i carburanti;
• mensile: per i rimanenti generi alimentari, gli articoli di abbigliamento e di uso domestico, alcuni
servizi personali, articoli vari e combustibili;
• trimestrale: in corrispondenza dei mesi di febbraio, maggio, agosto, e novembre per i mobili e gli
altri beni durevoli per la casa, e in corrispondenza dei mesi di gennaio, aprile, luglio e ottobre per
gli affitti.
I prezzi attualmente utilizzati nel calcolo sono
raccolti presso circa 29000 unità di rilevazione, alle
quali si aggiungono circa 10000 abitazioni per la rilevazione degli affitti; presso queste unità i comuni
raccolgono mensilmente una media di 300000 osservazioni elementari
14
Statistica & Società
Cenni sulla metodologia di calcolo
A partire dal 1999, gli indici si calcolano, secondo le raccomandazioni di Eurostat, utilizzando
un indice a catena di tipo Laspeyres, in cui sia il paniere sia il sistema dei pesi vengono aggiornati annualmente.
La produzione dell’indice a catena prevede una
doppia fase: nella prima gli indici sono calcolati rispetto al dicembre dell’anno precedente (base di calcolo), nella seconda sono riportati in base di riferimento, attraverso opportuni coefficienti.
Gli indici vengono diffusi in base di riferimento: attualmente l’anno 1995 per gli indici NIC e FOI,
l’anno 1996 per l’indice armonizzato.
Partendo dalle singole osservazioni, per giungere al calcolo dell’indice generale, si segue un procedimento sequenziale:
• per ciascun prodotto si calcola un microindice,
come rapporto tra la singola osservazione e il
prezzo del medesimo prodotto nel dicembre dell’anno precedente;
• con media geometrica semplice dei microindici
di ciascun prodotto, si perviene agli indici elementari di prodotto per ogni capoluogo;
• mediante media aritmetica ponderata, con pesi
proporzionali alla popolazione residente nelle
province della regione, degli indici elementari di
prodotto, si perviene all’indice regionale di prodotto;
• mediante media aritmetica ponderata, con pesi
proporzionali ai consumi di quel prodotto nelle
varie regioni, degli indici regionali di prodotto, si
ottengono gli indici nazionali di prodotto.
Gli indici nazionali per categoria, gruppo, capitolo e quello generale sono ottenuti mediante media aritmetica ponderata con pesi proporzionali ai consumi
nazionali per il livello di aggregazione considerato.
Agli indici per capoluogo di provincia si perviene, invece, attraverso una sintesi verticale degli
indici di prodotto, passando attraverso i vari livelli
di aggregazione (voce di prodotto, categorie, gruppo, capitolo).
Per ogni capoluogo di provincia partecipante
alla rilevazione vengono, infatti, calcolati e diffusi
gli indici per capitolo e l’indice generale.
Tutti i capoluoghi di provincia appartenenti alla
medesima regione hanno la stessa struttura dei pesi,
poiché le fonti statistiche utilizzate non consentono
il calcolo di coefficienti di ponderazione specifici a
livello provinciale.
Bibliografia
Eurostat [2001], Compendium of HICP reference
documents (2/2001/B/5) Lussemburgo
A. PREDETTI [2002], I Numeri Indici – Teoria e Pratica,
Giuffrè editore
Documenti Istat su “dossier Prezzi”, pagina Web,
www.istat.it/Economia/Prezzi/index.htm.
Statistica & Società
15
INFORMATICA E STATISTICA
Gianfranco Galmacci
Dipartimento di Scienze Statistiche – Università di Perugia
Premessa
1. L’evoluzione dell’hardware
Si narra che Thomas J. Watson Sr., fondatore
dell’IBM, abbia affermato nel 1943: I think there is
a world market for about five computers. Più recentemente nel 1977 Ken Olsen, al tempo Chief
Executive Officer della Digital Equipment
Corporation, avrebbe dichiarato: There is no reason
for any individuals to have a computer in their home.
Questi esempi sono molto indicativi sulle modalità con cui l’informatica si è sviluppata nell’arco
di circa mezzo secolo e, al tempo stesso, dovrebbero
indurre chi scrive sull’argomento a riflettere attentamente nel fare previsioni impegnative. Tuttavia è
molto difficile rinunciare alla tentazione di proiettarsi in avanti quando si affrontano temi di tecnologia sia per il fascino che l’argomento esercita su tutti, specialmente quando si pensa al futuro, sia perché
spesso ciò è necessario per pianificare attività, strategie e investimenti.
La statistica è una delle discipline che hanno tratto
enorme beneficio dall’evoluzione dell’informatica; è
difficile pensare oggi a metodologie di analisi dei dati
che prescindano dall’uso di calcolatori. Il termine
“statistica computazionale”, coniato per indicare quei
settori della statistica più strettamente connessi con
procedure di calcolo automatico, sembra oggi aver perso
il suo significato originale perché ormai, in pratica, tutta
la statistica è “computazionale”. Ciò nonostante, tra i
filoni di ricerca in campo statistico, esistono dei settori
di frontiera che cercano di seguire l’innovazione
tecnologica per trasferire in campo statistico nuove
possibilità e potenzialità offerte dall’informatica o per
individuare nuovi approcci metodologici resi possibili
grazie alla tecnologia.
Nel seguito verranno prima delineate le tappe
fondamentali che hanno segnato gli sviluppi
hardware e software, successivamente si esaminerà
lo stato dell’arte ed alcune linee di tendenza delle
tecnologie informatiche per la statistica. L’ultimo
paragrafo, infine, è dedicato ad alcune tecnologie che,
seppure ancora allo stato di ricerca (ma a diversi livelli), potrebbero rappresentare il futuro sia per le
architetture degli elaboratori sia per le tecniche di
trasmissione dei dati.
I fattori determinanti per la diffusione capillare
dei computer ad ogni livello sono stati fondamentalmente due: l’avvento dei microcomputer e, successivamente, la nascita di World Wide Web (Berners
Lee, 1989). In realtà sarebbe corretto considerare
come pietra miliare la nascita del protocollo TCP/IP
(Cern e Khan, 1974) che dette vita ad Arpanet e quindi
a Internet, tuttavia la rete rimase per molti anni quasi
completamente confinata in ambito accademico e
l’esplosione si è avuta solo a partire dal 1993 quando venne rilasciato Mosaic (NCSA, 1993), il primo
browser grafico per WWW.
L’avvento del microprocessore e la sua evoluzione hanno rappresentato uno degli eventi più
spettacolari, soprattutto per la velocità con cui esso
è cresciuto e si è diffuso (fatti peraltro strettamente
connessi tra loro, grazie alla spinta del mercato). La
rilevanza di questo fenomeno giustifica un richiamo
delle tappe fondamentali che ne hanno caratterizzato la vita.
• 1971: Intel produce quello che viene generalmente
riconosciuto come il primo microprocessore, noto
come 4004 (o anche MCS-4), costituito da 2300
transistor, con una architettura a 4 bit. Fu disegnato da Federico Faggin (vicentino, laureatosi
in fisica a Padova) e usato a bordo del Pioneer 10
• 1974: Intel annuncia il modello 8080, una architettura a 8 bit disegnata ancora da Faggin; fu usato per l’Altair 8800, il primo a prendere il nome
di Personal Computer
• 1974: RCA introduce il microprocessore 1802, 8
bit con clock a 6,4 MHz, considerato il primo con
architettura RISC
• 1976: Zilog presenta i modelli Z80 e Z80-H, simili agli 8080, con clock a 2,5 e 10MHz (la società Zilog fu fondata nel 1974 da Faggin, insieme a Ralph Ungerman)
• 1976: Motorola presenta i processori 6501 e 6502,
simili agli 8080 e molto economici; il secondo fu
utilizzato per Apple, Commodore e Atari
• 1976: Texas Instruments produce il primo processore con una “reale” architettura a 16 bit, il
TMS 9900
16
Statistica & Società
• 1978: Intel rilascia il modello 8086 a 16 bit che
ottiene un grande successo commerciale (fu utilizzato per l’IBM PC)
• 1979: Advanced Micro Devices produce il primo
co-processore matematico a virgola mobile, AMD
9511, con una architettura a 32 bit
• 1979: Motorola lancia il modello 68000 con la
nuova architettura a 32 bit e un clock a 8MHz
• 1982: Intel annuncia il modello 80286 a 20MHz
con 134.000 transistor: poteva gestire RAM fino
a 16Mb
• 1985: Intel rilascia il microprocessore 80386 a
33MHz, in grado di indirizzare memorie fino a
4Gb; è il primo processore con modalità multitask
reale
• 1986: si diffondono le architetture RISC
• 1989: Intel mette sul mercato il modello 80486
con 1,2 milioni di transistor
• 1992: DEC lancia il microprocessore alpha con
architettura a 64 bit
• 1993: nasce la serie Intel Pentium che parte da
60MHz con 3,1 milioni di transistor
• 1999: AMD rilascia il modello K6-III a 400MHz
con 23 milioni di transistor, un processore molto
competitivo con Intel
• 2000: Intel e Hewlett-Packard annunciano Intel
Itanium, un processore con una architettura a 64
bit chiamata EPIC (Explicit Parallel Instruction
Computing).
• 2002: viene immesso sul mercato un Pentium 4 a
2,8 GHz che contiene circa 55 milioni di transistor.
In pratica fino ad oggi la cosiddetta “legge di
Moore” è stata puntualmente rispettata. La popolarità di questa “legge” è tale che sembra doveroso ricordarne i termini. Nel 1965 apparve un articolo in
cui Gordon E. Moore (fondatore della Intel) prevedeva che per tutti gli anni ’70 la capacità di elaborazione sarebbe raddoppiata ogni anno. Questo ritmo
di crescita fu rivisto ed aggiustato più volte fino alla
fine degli anni ’80 quando, sulla base di una più consolidata esperienza, si suppose per il decennio successivo un raddoppio ogni 18 mesi. Attualmente tali
stime vengono riviste continuamente alla luce delle
nuove tecnologie ed i tentativi di proiezione portano
a risultati molto suggestivi, di cui però non ci occuperemo.
È importante invece sottolineare un elemento
caratteristico di questa evoluzione, nell’arco dei trenta
anni presi in considerazione i prezzi di mercato dei
personal computer sono rimasti costanti. Per valutare meglio questo fatto è necessario considerare i costi in relazione alla capacità di elaborazione delle
macchine. Assumendo come unità di misura delle
prestazioni il MIPS (Million of Instructions Per
Second), il costo per MIPS dai primissimi anni ‘70
ad oggi è passato da circa 100.000 a meno di 1
Euro.
Per quanto concerne le prospettive a breve termine, i principali produttori di microprocessori prevedono di raggiungere in un triennio la soglia di
10GHz, mentre per le architetture RISC le previsioni sono ancora più ottimistiche.
2. Il software di base
La rapida evoluzione dell’hardware verificatasi durante l’ultimo ventennio è stata ovviamente affiancata da un altrettanto rapido sviluppo del
software. Lo sforzo economico prodotto in questo
periodo è stato notevole, ma l’interesse che le innovazioni suscitavano e i bassi costi dei prodotti sono
stati fattori determinanti per una risposta entusiasta
da parte del mercato.
Da un punto di vista software, gli eventi più
rilevanti e determinanti di questo processo sono stati
l’avvento delle interfacce grafiche, lo sviluppo di linguaggi di programmazione orientati agli oggetti e,
naturalmente, le applicazioni di rete (in primo luogo
World Wide Web). Per esigenze di spazio non è possibile soffermarci su tutti questi aspetti, pertanto ci
limiteremo a richiamare i momenti fondamentali che
hanno caratterizzato uno dei fatti che, nella storia dei
computer, sono risultati più rilevanti dal punto di vista dell’utente: il passaggio da modalità di lavoro “per
linea di comandi” alle interfacce grafiche.
Nei primi anni ’70 vennero immessi sul mercato i primi terminali grafici destinati a risolvere problemi tecnici e scientifici (progetti di ingegneria,
cartografia, rappresentazione di funzioni matematiche, ecc.). La disponibilità di questi nuovi supporti
indusse i responsabili della Xerox Palo Alto Research
Center (Xerox PARC) a sviluppare un progetto che
portò alla realizzazione della prima interfaccia grafica (GUI, Graphical User Interface) in grado di
gestire applicazioni tramite un mouse.
L’idea in realtà non era completamente nuova,
le prime ricerche in questa direzione si devono infatti a Doug Engelbart, che già nel 1968 aveva realizzato un primo prototipo; l’agenzia ARPA (Advanced
Research Projects Agency, ente del Dipartimento
Statistica & Società
di costruttori diversi, e quindi tra loro incompatibili.
Nacque così il sistema grafico X-Windows che ben
presto fu adottato per tutti i sistemi Unix.
Nel novembre 1983 Microsoft annunciò la prima versione di Windows come modulo aggiuntivo
del sistema DOS, che fu resa disponibile nel 1985.
Un passo significativo fu fatto da Microsoft nel 1995
con il rilascio di Windows 95, e la conseguente scomparsa di DOS come sistema operativo di base autonomo (esso continuerà ad essere presente anche nelle versioni successive ma in modo trasparente per
l’utente).
Oggi non sono più immaginabili sistemi che non
siano basati su una GUI. Tali interfacce, inoltre, hanno stimolato lo sviluppo dei linguaggi orientati agli
oggetti rendendo possibile la realizzazione di tutte
le applicazioni che oggi conosciamo (anche WWW
deve il suo successo alla presenza di interfacce grafiche). In pratica esse hanno cambiato completamente
il “volto dell’informatica”, tanto che recentemente è
nata anche una nuova disciplina, la Human Computer Interaction, con l’obiettivo di studiare e migliorare “i rapporti” tra l’utente e la macchina.
3. Reti di calcolatori
Nei paesi più sviluppati le reti di calcolatori rappresentano ormai una componente fondamentale per
le attività quotidiane (spesso irrinunciabile) e quando si parla di reti ci si riferisce implicitamente ad
Internet. Il grafico 1 mostra l’evoluzione dei computer connessi alla rete (stime di Network Wizard, 2002):
in particolare, nel periodo 1981-2002 si è passati da
213 calcolatori a 162.128.493 (luglio 2002). Nel valutare le informazioni fornite dal grafico è necessario tenere conto del fatto che nel 1993 è stato prodotto da NCSA il primo browser grafico ed è così
iniziata l’era di World Wide Web.
200.000.000
150.000.000
100.000.000
50.000.000
Grafico 1: Computer connessi alla rete Internet.
(fonte: Network Wizard).
2001
2000
1999
1998
1997
1996
1995
1994
1993
1991
1992
0
1990
della Difesa degli Stati Uniti) si interessò al progetto
e per sette anni finanziò un gruppo di ricerca sotto la
direzione di Engelbart (la stessa agenzia finanziò
parallelamente anche il progetto che portò alla definizione del protocollo TCP/IP, e quindi alla nascita
di Internet). Quando, a metà degli anni ’70, terminarono i finanziamenti il gruppo si sciolse e alcuni
membri passarono alla Xerox PARC, che poté così
disporre del know-how necessario per la realizzazione della prima GUI ufficiale.
Inizialmente fu progettato un computer (denominato Alto) in grado di gestire un Word Processor
(Gypsy) che costituisce il primo esempio del cosiddetto WYSIWYG (What You See Is What You Get) e
che non mancò di suscitare enorme interesse. Successivamente, nel 1981, fu rilasciato un nuovo sistema denominato The Star Office System, molto potente considerati i tempi, ma anche troppo costoso e
quindi non competitivo con macchine tipo Apple e
IBM PC.
In quegli anni Steve Jobs (CEO della Apple)
visitò Xerox PARC e rimase impressionato dalla
nuova interfaccia grafica (gestione dello schermo
mediante icone, finestre, menu a tendina, copia-incolla, ecc.); ben presto Jobs, grazie anche al contributo di alcuni ricercatori passati dal PARC alla Apple,
decise di adottare per il sistema Apple Lisa (già in
fase di costruzione) un sistema operativo completamente basato su una GUI; questo sistema impressionò il pubblico per le sue caratteristiche, tuttavia esso
era basato su un processore Motorola 68000 a 5Mhz
e la potenza non era ancora sufficiente per gestire
una grafica avanzata; il costo, inoltre, era molto elevato. Parallelamente a Lisa venne iniziato lo sviluppo di un nuovo progetto che doveva portare ad una
macchina dello stesso tipo ma di basso costo:
Macintosh. Il successo di Macintosh fu quasi immediato, grazie anche ai prodotti software che stavano
nascendo (in particolare i prodotti della società
Adobe, fondata da alcuni fuorusciti della Xerox).
Come è ben noto, l’utilizzo della GUI da parte
di Apple e, successivamente, di Microsoft portò ad
una lunga contesa con la Xerox, che divenne difficile anche perché non esisteva ancora una legislazione
di riferimento (si veda ad esempio Myers, 1995), tuttavia ciò non fermò l’evoluzione di un processo ormai avviato.
Nel 1984 il MIT, insieme ad alcuni produttori
di computer, lanciò il progetto Athena con l’obiettivo di sviluppare una rete di stazioni grafiche ad uso
didattico che mettesse in comunicazione workstation
17
18
Statistica & Società
Tuttavia Internet è solo la grande realtà attuale:
le reti di calcolatori nascono, infatti, all’inizio degli
anni ’60, seppure può essere improprio parlare di reti
per quegli anni. L’interesse all’inizio era prevalentemente militare: a seguito del lancio del primo Sputnik
da parte dell’Unione Sovietica (4 ottobre 1957), il
Department of Defense Americano fonda l’agenzia
ARPA con l’intento di recuperare lo svantaggio e di
raggiungere un livello di supremazia tecnologica e
scientifica applicabile in campo militare. ARPA finanzierà nel seguito molti progetti volti all’interconnessione di calcolatori, ed in particolare quello che
porterà allo sviluppo del protocollo TCP/IP.
Sia la rete Internet (fino alla fine degli anni ’80
denominata ARPAnet) che altre tipologie di rete cominciano a diffondersi a partire dalla fine degli anni
’70, ma quasi esclusivamente in campo accademico
(citiamo ad esempio UUCP, DECnet, BITNET). Gli
enti accademici europei si avvalgono di una “donazione” dell’IBM, che mette a disposizione gratuitamente per un biennio tutte le infrastrutture per una
rete autonoma, EARN (European Academic
Research Network), collegata a BITNET. L’Italia
partecipa attivamente fin dall’inizio, collaborando
allo sviluppo e alla diffusione delle nuove tecnologie, e nel 1988 lancia il progetto GARR (Gruppo per
l’Armonizzazione delle Reti della Ricerca, promosso dalle Università e dai principali enti di ricerca
nazionali, CNR, ENEA, INFN e INAF) volto a realizzare una dorsale nazionale e a sperimentare la
coesistenza di protocolli diversi. Attualmente il
GARR mette a disposizione una infrastruttura con
velocità variabili tra 155Mbps e 2,5Gbps (si veda
http://www.garr.it/servgarrb/garr-b-servgarrb.shtml)
che ormai viene utilizzata solo per Internet.
Le tipologie di connessione usate fino ad oggi
per le reti sono basate su cavi (linee telefoniche tradizionali e, più recentemente, fibre ottiche) e comportano costi molto elevati, in particolare nei paesi
europei. Anche in questo settore comunque i costi
sono destinati a scendere grazie alla tecnologia
wireless che utilizza ricetrasmettitori a micro-onde
(ponti radio). Le velocità di trasmissione consentite
da questa tecnologia non sono ancora paragonabili
con quelle ottenibili con fibre ottiche, tuttavia diverse università stanno già sperimentando collegamenti
wireless su scala regionale per connettere le proprie
sedi distaccate a costi accettabili.
4. Informatica e Statistica
Probabilmente solo pochi tra i lettori ricordano
i tempi pionieristici in cui ci si avvicinava con riverenza ad un calcolatore di dimensioni “notevoli”, con
in mano un voluminoso pacco di schede contenente
programmi in Fortran e dati, per poi ripartire con tabulati ingombranti e poco gestibili. L’unico supporto software allora disponibile era costituito da qualche subroutine dell’ormai storica SSP (Scientific
Subroutine Package) o da qualche raro programma
orientato a problemi molto specifici.
I primi package statistici sono apparsi negli anni
’60 (BMD nel 1962, SPSS nel 1968) ma, considerato che all’epoca esistevano solo mainframe e
minicomputer, il loro utilizzo rimase condizionato
alla presenza di “centri di calcolo”, ovvero di strutture grandi e solitamente molto costose. Solo a partire dalla seconda metà degli anni ’80 è cominciato
il processo di proliferazione e diffusione di tali prodotti, grazie alla penetrazione capillare dei personal
computer ed alla possibilità di realizzare “interfacce
grafiche” in grado di facilitare al massimo l’utilizzo
di questi prodotti anche per i meno esperti di informatica.
Ciò che caratterizza oggi il software statistico,
oltre alla potenza e alla larga disponibilità di procedure, è la possibilità di interazione e integrazione con
altri prodotti, di produrre grafici di elevata qualità e
il fatto che, nella maggior parte dei casi, essi mettono a disposizione semplici linguaggi di programmazione che consentono di sviluppare nuovi algoritmi.
In questo modo, e grazie ad Internet, anche le procedure per le metodologie più recenti sono ormai facilmente accessibili. Infatti, sta diventando prassi comune a molti autori rendere disponibili nei siti Web
personali, o nei grandi archivi software (ad esempio,
Statlib http://lib.stat.cmu.edu), le procedure software
relative alle nuove metodologie di analisi parallelamente alla loro pubblicazione su riviste scientifiche.
L’informatica ha aperto anche prospettive del
tutto nuove per la statistica: metodi come Cluster
Analysis, bootstrap e MCMC, per citare solo alcuni
dei più noti, potevano essere pensati solo in presenza di adeguati ambienti hardware e software. Da questo punto di vista, comunque, sono ormai moltissimi
i settori che si sono sviluppati grazie alla consapevolezza delle risorse di calcolo disponibili, a volte con
interessi solo applicativi che, però, talvolta hanno
anche aperto la strada a linee di ricerca teorica molto
interessanti.
Statistica & Società
4.1 Dynamic graphics
Fin dagli anni ’70 John Tukey inseguì l’idea di
realizzare un ambiente grafico che consentisse una
elevata interattività con i dati; in questo modo egli
pose le basi della cosiddetta dynamic graphics. Tukey
creò anche dei prototipi con macchine appositamente assemblate, peraltro costosissime, che non avevano al tempo alcuna possibilità di impiego al di fuori
di laboratori sperimentali. Solo a distanza di circa
quindici anni, quando la tecnologia lo ha permesso,
sono apparse le prime procedure informatiche che
hanno realmente mostrato utilità e vantaggi di questa tecnica. Citiamo a questo proposito JMP (SAS
Institute,http://www.jmp.com/product/jmp_intro.shtml),
Xgobi (D.F. Swayne, D. Cook, A. Buja, prodotto gratuito, http://www. research.att.com/areas/stat/xgobi/),
Ggobi (D.T. Lang, prodotto gratuito, http://www.ggobi
.org/), Splus e, soprattutto, XlispStat (L. Tierney,
1990, prodotto gratuito, http://www.stat.umn.edu/
~luke/xls/xlsinfo/xlsinfo.html). XlispStat in realtà è
un ambiente di programmazione ad oggetti per la statistica ma, pur essendo il contesto più avanzato per
la dynamic graphics, non ha mai avuto una grande
diffusione perché è basato sul linguaggio Lisp, che
non può essere certo annoverato tra i più semplici
per un “utente generico”. Le potenzialità di questo
software possono essere meglio comprese se si pensa agli ambienti di calcolo per la statistica che con
esso sono stati realizzati, in particolare Vista (Forrest
Young, http://forrest.psych.unc.edu/research/
vistaframes/xls.html) e ARC (Dennis Cook e Sanford
Weisberg, http://www.stat.umn.edu/arc), esempio
classico, quest’ultimo, di come la dynamic graphics
abbia contribuito sia a migliorare le tecniche di analisi dei dati sia ad indicare nuove linee di ricerca
(Cook & Weisberg, 1999).
4.2 Calcolo parallelo
Un altro settore dell’informatica che sta assumendo importanza per la statistica è quello delle tecnologie per il calcolo parallelo. Alcune metodologie
(ad esempio MCMC) o applicazioni specifiche (ad
esempio Data Mining) richiedono oggi risorse di
calcolo notevoli e tali da giustificare, talvolta, anche
l’impiego di calcolatori vettoriali o paralleli. Sebbene in certi casi anche i software commerciali offrano
queste possibilità, considerati i costi, in questa sede
si farà riferimento solo a soluzioni free software, che
peraltro sono altrettanto interessanti e forse ancora
più versatili, senza richiedere investimenti di rilievo. Nella nostra comunità scientifica è diventato or-
19
mai piuttosto famoso un software gratuito denominato R (http://www.r-project.com), in pratica un
clone di S-plus (http://www.insightful.cm/), alla
cui realizzazione collaborano statistici di tutti i
paesi. Recentemente sono apparse due interfacce,
rpvm (Michael Na Li e Anthony J. Rossini htt://
software.biostat.washington.edu/statsoft/snake/) e
Rmpi (Hao Yu http://www.stats.uwo.ca/faculty/yu/
Rmpi), che consentono di distribuire l’esecuzione di
una procedura tra più calcolatori (purché opportunamente predisposta per l’elaborazione parallela). In
pratica, è possibile utilizzare insiemi di computer
Unix o Linux (rpvm include anche sistemi Windows)
collegati in rete e ripartire l’esecuzione di una procedura tra tutte le macchine. Solitamente vengono
utilizzati a tal fine cluster di processori Intel opportunamente assemblati (architetture Beowulf con sistemi operativi Linux, http://www.beowulf.org/) oppure, più semplicemente, un gruppo di macchine già
presenti nel dipartimento ed usate per scopi tradizionali (L. Tierney, http://www.stat.uiowa.edu/~luke/R/
cluster/cluster.html).
4.3 XML
Nello scenario informatico internazionale, sempre ricco di nuove proposte, da alcuni anni si discute
approfonditamente di approcci unitari per la gestione dei diversi tipi di documenti che popolano il mondo Web. La vertiginosa crescita di questo “mondo”
(secondo l’indagine di Netcraft Web Server Survey, i
siti attivi nell’Agosto 2002 erano 35.991.815) e la
mancanza di adeguati standard hanno infatti determinato una situazione caotica che richiede urgentemente una adeguata razionalizzazione per evitare la
presenza di una ingestibile miriade di formati e protocolli diversi e spesso obsoleti.
Il problema era comunque prevedibile, tanto che
già nel 1996 il World Wide Web Consortium (W3C,
http://www.w3.org/) aveva annunciato XML (Extensible Markup Language), poi introdotto ufficialmente
nel 1998, con lo scopo di creare uno standard per
WWW.
Questo linguaggio spesso viene visto come un
successore di HTML, in realtà esso è molto di più
perché apre la via ad una “gestione globale” dei documenti. Il W3C definisce XLM come un “formato
universale per documenti strutturati e dati destinati
all’ambiente Web”. In pratica esso consente di strutturare un qualsiasi documento individuando e “descrivendo” tutte le sue parti (ad esempio, nel caso di
un articolo, si dovranno individuare titolo, autore,
20
Statistica & Società
dipartimento, sommario, paragrafi, formule, grafici,
tabelle, ecc., oppure, nel caso di un file di dati, autore o fonte, riferimenti temporali, descrizione, nomi
delle variabili, commenti, dati, ecc.). Gli utenti di
TeX o di LaTeX troveranno molti di questi concetti
piuttosto familiari, anche se per XML i descrittori
dei vari “elementi” non sono precodificati, come in
TeX, ma assolutamente liberi.
Il vantaggio di XML sta nel fatto che, una volta
generato il documento, esso può essere memorizzato in un supporto qualsiasi (database, una semplice
cartella, ecc.) per essere poi utilizzato nel modo e
negli ambienti più diversi (per la pubblicazione su
Web, per la stampa, per essere gestito da un Word
Processor, ecc.). Il documento è sempre “unico” e
indipendente dal tipo di utilizzo; appositi file (DTD,
XSL, ecc.), associati al documento XML, dovranno
contenere le specifiche necessarie per identificarne
la struttura e per indicare i modi in cui le diverse
parti del documento dovranno essere visualizzate o
trattate, in relazione alle varie esigenze e alla destinazione finale.
In che modo però tutto ciò può avere una ricaduta sulla statistica? Anzitutto, con un certo senso di
sollievo, il pensiero non può che rivolgersi all’annoso
problema di “dati e metadati”, ma non solo. XML
sta diventando anche lo standard per unificare i diversi modi con cui i software statistici “leggono” i
dati e tutte le informazioni relative (il documento
XML può anche contenere le “istruzioni” su come
devono essere letti i dati) e al tempo stesso si stanno
predisponendo aggiornamenti affinché esso diventi
l’unico sistema di scambio di informazioni tra ambienti software diversi.
Inoltre, un sistema basato su XML offre vantaggi anche nel trattamento degli output: i risultati
possono essere direttamente e facilmente inseriti in
altri documenti, qualunque sia la loro natura, oppure
tradotti o modificati per garantire la loro compatibilità con prodotti non ancora allineati con questo
standard.
Al momento i principali prodotti software per
la statistica hanno già rilasciato versioni con
interfacce XML, per molti altri gli aggiornamenti
sono in corso.
A conclusione di queste considerazioni va comunque chiarito che XML non può essere ancora
considerato completamente operativo. I prodotti
software per la gestione di questi documenti, tranne
poche eccezioni, sono da considerarsi ancora a livel-
lo semi-sperimentale e non è ancora possibile fare
completo affidamento su tutti quegli automatismi che
sono stati descritti. Gli investimenti e la quantità di
ricercatori impegnati in questo campo sono però tali
da consentire previsioni molto ottimistiche.
5. Scenari futuri
Il futuro dell’informatica è ancora molto incerto: da un lato le tecnologie attuali basate sul silicio
sembrano essere non lontane dai limiti massimi consentiti, dall’altro però non sembra che le alternative
siano così immediate e affidabili.
Parallelamente in quest’ultimo periodo, e a differenza di quanto accaduto nel passato, le tecnologie
per la trasmissione dati hanno fatto progressi molto
rapidi, forse più rapidi di quanto non sia avvenuto
per i processori o per i supporti di memoria di massa.
Al momento sembra rilevante citare un recente
annuncio da parte IBM concernente la realizzazione
di un transistor basato sulla tecnologia SiGe (silicon
germanium) in grado di raggiungere una velocità di
210 Gigahertz, migliorando dell’80% le prestazioni
e riducendo del 50% i consumi rispetto ai modelli
precedenti. L’importanza dell’annuncio tuttavia sta
in un altro fatto: fino ad oggi si pensava che fosse
impossibile superare la barriera dei 200 GHz!
Le linee di ricerca in atto sono comunque molte, alcune incerte e con eventuali prospettive a lungo
termine (quantum computer), altre più realistiche,
altre ancora ormai in fase conclusiva e sul punto di
rilasciare prodotti da immettere sul mercato. Purtroppo non è facile conoscere i dettagli dei vari progetti
perché quasi sempre queste ricerche vengono condotte presso aziende private.
Nei paragrafi successivi si presenteranno due
tipi di progetti (il secondo ormai giunto alla fase di
approvazione finale da parte degli organi di controllo americani prima di passare alla commercializzazione dei prodotti) che, per la loro particolare natura, possono suscitare la curiosità scientifica del lettore.
5.1 Quantum Computer
A partire dalla prima metà degli anni ’80 alcuni
fisici (in particolare Richard Feynman e David
Deutsch) hanno posto le basi teoriche per creare un
computer basato su alcuni principi della meccanica
quantistica; l’idea in realtà non era completamente
nuova, tuttavia è da quel momento che si è intravista
concretamente la possibilità di ottenere risultati.
Statistica & Società
I processori attuali sfruttano un sistema “elettrico” che, in base a differenze di potenziale diverse,
consente di riconoscere due stati distinti ai quali si
associano i valori 0 e 1; l’unità elementare di informazione utilizzata in questo sistema è chiamata bit.
La stessa informazione, comunque, potrebbe essere
codificata con altre tecniche: due diverse
polarizzazioni della luce oppure due diversi stati elettronici di un atomo. In particolare, una particella
subatomica può assumere stati di energia discreti o
discretizzabili (livelli) e quindi potrebbe essere utilizzata come bit.
Per descrivere brevemente l’idea che sta alla
base di un quantum computer sarà necessario ricorrere a molte semplificazioni, tuttavia si ritiene che
possa essere interessante conoscere, seppure sommariamente, qualcuno dei principi fondamentali di
questa tecnologia.
Pensando ad un bit costituito da una particella
subatomica, dalla meccanica quantistica sappiamo
che si possono verificare situazioni “molto strane”:
una particella “opportunamente isolata”, oltre allo
stato “0” e allo stato “1”, può assumere al tempo stesso “entrambe gli stati” (coherent superposition) e solo
quando essa interagisce con “il resto del mondo” (ad
esempio entrando in contatto con un’altra particella)
il suo stato diventa “fisso”. Quindi un bit di questo
tipo, chiamato qubit, può presentarsi al tempo stesso
sia nello stato 0 sia nello stato 1 (superposizione).
Si consideri ora un registro costituito da 3 bit:
utilizzando la logica binaria di un computer tradizionale con tale registro sarà possibile rappresentare
uno degli 8 numeri compresi tra 0 e 7, ovvero una
sola delle terne (0,0,0), (0,0,1), ..., (1,1,1). Utilizzando invece un registro costituito da qubit, in condizione di superposizione esso assume nello stesso tempo tutti gli 8 valori diversi. Da questo esempio si
può estendere la regola generale: un registro con N
qubit in condizione di superposizione potrà memorizzare nello stesso tempo 2N numeri diversi. Mediante una “interazione” (ad esempio un raggio laser
pulsante) è possibile passare dallo stato di
superposizione iniziale a stati fissi diversi, realizzando in tal modo una “elaborazione parallela” delle
informazioni contenute nel registro.
David Deutsch, che possiamo annoverare tra
coloro che più hanno contribuito alle ricerche in questo campo, afferma che in questo modo è possibile
effettuare milioni di operazioni per ogni ciclo di calcolo (invece di una sola, come avviene per i computer attuali).
La ricerca al momento è particolarmente attiva
in due diverse direzioni: da un lato si stanno svilup-
21
pando le basi teoriche (da un punto di vita fisico e
matematico) per la Quantum Computation e la
Quantum Information (si veda ad esempio Nielsen e
Chuang, 2002), dall’altro si conducono esperimenti
per la realizzazione di un quantum computer. I centri che lavorano in questo settore sono ormai molti
(tra i più rilevanti figurano Los Alamos Labs, IBM
Almaden Research Center, CalTech, Stanford
University, University of California at Berkeley, MIT,
Oxford University): i risultati teorici sembrano essere molto promettenti ma i prototipi sperimentali realizzati mostrano che la strada da percorrere è ancora
lunga. A titolo di esempio citiamo l’esperimento più
recente condotto presso l’Almaden Research Center
della IBM (dicembre 2001): in quel caso è stato realizzato un quantum computer con 7 qubit, costituiti
da 5 atomi di fluoro e due di carbonio, utilizzando
impulsi di radio frequenza per “programmare” i calcoli (ovvero per cambiare il livello di energia) e tecniche basate sulla risonanza magnetica nucleare per
“osservare i risultati” (in pratica la tecnologia utilizzata per esami clinici negli ospedali).
I problemi da affrontare sono ancora molti, primo fra tutti il controllo degli errori. Gli esperimenti
hanno mostrato infatti che le tecniche usate sono
molto sensibili e, in presenza di disturbi, generano
molti errori.
Sebbene la realizzazione di un quantum computer sia ancora in una fase assolutamente embrionale
(e, allo stato attuale, non è detto che questa tecnologia porti realmente a risultati pratici) questo esempio è significativo per comprendere gli sforzi in atto
per individuare alternative alla tecnologia attuale.
5.2 Ultra Wide Band (UWB)
Il 22 Aprile 2002 la Federal Communications
Commission americana ha pubblicato il testo del First
Report and Order sulla Ultra Wide Band (UWB) che
prevede una sperimentazione ufficiale di 6-12 mesi
per la gamma di frequenze comprese tra 3,1 e 10,6
GHz. Questo annuncio, nonostante alcune controversie concernenti possibili interferenze con i sistemi
GPS e di telefonia cellulare, apre la strada ad una
nuova tecnologia per le comunicazioni wireless che
interessa particolarmente l’informatica perché consente la trasmissione di dati via etere a velocità molto elevate (fino a 10Gbps contro le velocità massime
attuali che sono dell’ordine di 100Mbps). La UWB
utilizza modalità di trasmissione basate su segnali
pulsanti anziché su una portante modulata in ampiezza o in frequenza. Le sue origini risalgono agli anni
‘60 (Gerald F. Ross, 1963, 1966) e si basano su una
semplice intuizione: in base al ben noto integrale di
22
Statistica & Società
convoluzione, le caratteristiche di un segnale in uscita
y(t), dato un segnale di ingresso x(t), possono essere
univocamente determinate mediante la funzione di
impulso h(t)
∞
∫
y(t ) = h(u)x (t − u)du.
∞
Le prime ricerche sull’impiego di segnali pulsanti furono condotte presso le società Hewlett
Packard e Tektronix per la costruzione di oscilloscopi.
Negli anni successivi la Sperry Rand Corporation
utilizzò questa tecnologia per sviluppare applicazioni radar e per le comunicazioni. Il primo sensitive
short pulse receiver fu sviluppato da Robbins (1972)
e questa tecnologia divenne nota come baseband,
carrier-free o anche impulse; solo nel 1989 lo U.S.
Department of Defense utilizzò il nome Ultra Wide
Band. Intorno alla metà degli anni ’80 Robert Fontana e Gerald Ross iniziarono una stretta collaborazione, che proseguì per circa undici anni grazie a finanziamenti del Governo Americano, per sviluppare una tecnologia affidabile per le comunicazioni.
Attualmente con questa tecnologia è possibile
trasmettere e ricevere segnali caratterizzati da impulsi di brevissima durata (nell’ordine di qualche
decina di picosecondi) e di potenza così bassa da
essere assimilati ad un rumore di fondo.
Riferimenti bibliografici
BAYKO J. (2002), “Great Microprocessors of the Past and
Present (V 12.3.0)”. http://www3.sk.sympatico,ca/
jbayko/cpu.html.
BENNETT C.H., BRASSARD G., CREPEAU C., JOZSA R., PERES
A., WOOTTERS W. (1993). “Teleporting an Unknown
Quantum State via Dual Classical and EPR Channels”.
Phys. Rev. Lett. vol. 70, pp 1895-1899.
BERNERS LEE T. (1989), “Original proposal for a global
hypertext project at CERN”. http://www.w3.org/
History/ 1989/proposal.html.
BONE B., CASTRO M. (2002), “A Brief History of Quantum
Computing”. http://www.doc.ic.ac.uk/~nd/surprise_97/
journal/vol4/spb3/.
C ENTRE FOR Q UANTUM C OMPUTATION (2002), http://
www.qubit.org/.
CERF V.G., KAHN R.E. (1974), “A protocol for packet
network interconnection”. IEEE Trans. Comm. Tech.,
vol. COM-22, V 5, pp. 627-641.
COOK R.D., WEISBERG S. (1999), Applied Regression
Including Computing and Graphics. John Wiley &
Sons, New York, http://www.stat.umn.edu/arc/.
GALMACCI G. (1996), “Analisi statistica dei dati e nuove
tecnologie”. Atti della XXXVIII Riunione Scientifica
della SIS. vol. 1, pp. 391-402.
G ERSHENFELD N., C HUANG I.L. (1998). “Quantum
Computing with Molecules”. Scientific American, 6.
http://www. sciam.com/1998/0698issue/0698gers
henfeld.html.
IBM (2001), “IBM Test-Tube Quantum Computer Makes
History: First demonstration of Shor’s historic
factoring algorithm”. http://www.research.ibm.com/
resources/news/2001 1219_quantum.shtml.
INTEL (2002), “A History of the Microprocessor”. http :/
/www.intel.com/intel/intelis/museum/exhibit/
hist_micro/.
MOORE G.E. (1965), “Cramming more components onto
integrated circuits”. Electronics, April 19, pp. 114-117.
MYERS B.A. (1998), “A Brief History of Human Computer Interaction Technology”. ACM interactions. Vol.
5, no. 2, March, pp. 44-54. http://www-2.cs.cmu.edu/
~amulet /papers/uihistory .tr.html.
N ETCRAFT (2002), “Web Server Survey”. http://
www.netcraft .com/Survey/
NETWORK WIZARD (2002), “Internet Domain Survey”. http:/
/www.isc.org/ds/.
NIELSEN M.A., CHUANG I.L. (2002), Quantum Computation
and Quantum Information. Cambridge University
Press, Cambridge, UK.
ROBBINS K. (1972), Short Base-band Pulse Receiver. U.S.
Patent No. 3,662,316.
ROSS G.F. (1963), The transient analysis of multiple beam
feed networks for array systems. Ph.D. dissertation,
Polytechnic Institute of Brooklyn, Brooklyn, NY.
ROSS G.F. (1966), “The transient analysis of certain TEM
mode four-port networks”. IEEE Trans. Microwave
Theory and Tech., Vol. MTT-14, No. 11, pp. 528-547.
STEANE A.M. (1997), “Quantum computing: Introduction”.
http://eve.physics.ox.ac.uk/Personal/steane/
qcintro.html.
T IERNEY L. (1990), LISP-STAT: An Object-Oriented
Environment for Statistical Computing and Dynamic
Graphics. John Wiley & Sons, New York, http://
www.stat.uiowa .edu/~luke/R/cluster/cluster.html.
WHITE S. (2001). “A Brief History of Computing”. http://
ox.compsoc.net/~swhite/history/timeline-INDEX.html.
ZAKON R.H. (2002), “Hobbes’ Internet Timeline v5.6”.
http://www.zakon.org/robert/internet/timeline/.
Statistica & Società
23
SULL’USO DI METODI SOGGETTIVI NELLA
“PIANIFICAZIONE SOCIALE PARTECIPATA”: VERSO LA
“DEMOCRAZIA CONTINUA”
Antonio Pacinelli
Università G. d’Annunzio
Sommario
Nel lavoro è proposto un approccio alla rilevazione del fabbisogno sociale ed alla pianificazione del
soddisfacimento dello stesso, utilizzando metodi da esperto, metodi da rappresentanza e metodi della partecipazione (anche elettronica.)
Introduzione
Nelle democrazie rappresentative il problema
della manifestazione delle volontà individuali si risolve per mezzo del voto, saranno poi i rappresentanti ad interpretare in senso politico le preferenze
individuali dei cittadini1. Le preferenze individuali,
però, contano poco, almeno fino a che non riescono
a costituirsi in gruppi di pressione. Prendere in considerazione il percorso che, partendo dalla Democrazia rappresentativa e per mezzo della Democrazia
elettronica, conduce alla Democrazia diretta prima
ed alla Democrazia continua dopo, vuole dire ridare
voce alle preferenze individuali, in un’ottica di “campagna elettorale permanente”2.
Questo è il senso del presente lavoro che, nella
prima parte presenta gli approcci principali alla
rilevazione di beni e servizi pubblici e nella seconda
una rassegna di metodi utili per la pianificazione sociale “partecipata”. Infine nella terza parte viene
proposto un processo decisionale pubblico che utilizza i “metodi da esperto” per definire lo scenario
esplorativo, i “metodi delle rappresentanze” per definire quello “normativo” ed i “metodi della partecipazione” per “calibrare” il “desiderata”.
1. Dal macrodato al microdato: la “partecipazione” e gli errori che ne discendono
In letteratura troviamo due approcci alla rilevazione dei beni e servizi pubblici: quello basato sul
1
2
Purtroppo spesso si sono affermati sistemi di rappresentanza volti più ad interessi particolari che generali.
Per il concetto di “Campagna elettorale permanente”, si veda
Roncarolo, 1994.
“macrodato” e quello fondato sul “microdato”. Nell’area dei macrodati rientrano metodi come quello
dell’elettore mediano e quello dei determinanti della spesa pubblica, (input di questi metodi sono
macrodati provenienti, ad esempio, dai bilanci), mentre nell’area dei microdati troviamo il metodo della
domanda ideale ed il budget game (basati sul
microdato, perché si rivolgono direttamente ai cittadini) (Pacinelli, 1995a).
Purtroppo, come accade per il macrodato, caratterizzato dalla distorsione di Teibout, anche il
microdato è fonte di errori. Non parliamo dei consueti errori derivanti dalla costruzione dell’immagine semplificata (pertinenza, esaustività, etc.) o dal
disegno di campionamento (errore di campionamento, etc.), ma di un tipo di errore connesso alla figura
del rispondente e di esso ci occupiamo brevemente
nel seguito. In particolare Wicksell (1896) riconosce
che in presenza di un servizio indivisibile in unità di
vendita e di consumo, un attore razionale avrebbe
nascosto le proprie preferenze perché, ritenendo ed
essendo nei fatti il proprio contributo irrilevante,
avrebbe cercato di trarne beneficio senza pagarne i
costi. Questo fenomeno venne in seguito chiamato il
“problema del free rider”, ossia di colui, che non
manifesta sinceramente le proprie preferenze per i
beni collettivi, per non pagarne il costo, o comunque
pagarlo solo in parte (Schneider, Pommerhene, 1981).
Mentre il free rider è un errore proprio dei metodi
della partecipazione, altri errori derivano dai metodi
da esperto/rappresentanza. In particolare il “face to
face” comporta gli errori di “leadership” e di “gruppo pensiero”, adeguatamente contrastati rispettivamente dall’isolamento dei partecipanti (come acca-
24
Statistica & Società
Prima di parlare di pianificazione sociale, si ritiene opportuno precisare che essa coinvolge necessariamente la questione del futuro (Kaplan, Skogstad,
Girshick, 1950). A tale proposito appare necessaria
un’ulteriore precisazione, che evidenzi un futuro
unico e certo, a fronte di un futuro prevedibile multiplo ed incerto (Marbach, Mazziotta, Rizzi, 1991). La
scienza per spiegare e prevedere usa il procedimento logico denominato nomologico-inferenziale, sintetizzato dall’approccio hempeliano, in cui la spiegazione di un evento o di una classe di eventi
(explanandum) viene ricondotta (o inferita da) a una
classe di condizioni fattuali rilevanti e di leggi
(explanans). La norma di carattere generale che deve
valere per tutti i metodi nomologici inferenziali, è
l’identità logico strutturale tra l’attività di spiegazione
e quella di previsione (Isernia, 1987). Si pensi, ad
esempio, ai modelli Arima, in cui i risultati dell’attività di spiegazione (ottenuti mediante le funzioni di
autocorrelazione parziale e globale), sono utilizzati
per identificare l’ordine del modello che si userà per
la previsione. Gli approcci alla previsione possono
essere ricondotti ad almeno due macro aree, una prima che può essere considerata previsione oggettivaclassica o scientifica in senso forte, mentre un secondo tipo di previsione è quella soggettiva-anticipativa o scientifica in senso debole. Nella prima concezione si postula una identità logico-strutturale tra
attività di previsione e attività di spiegazione, nella
seconda no (Isernia 1987). Alcuni autori prendono
in considerazione anche una terza area di metodi
definiti “sistemici” (Gordon, 1994), oppure “ibridi”
(De Nardis, 1999), riconducibili all’uso congiunto
di entrambi gli approcci e contenente gli scenari4.
Tra i vari criteri di classificazione presenti in letteratura, quello sintetizzato da Gordon (1994) ripartisce
i metodi di previsione in: oggettivi o deterministici,
quali l’analisi moderna delle serie storiche, modelli
econometrici, etc.; soggettivi, quali metodo Delphi,
Cross-Impact, etc.; sistemici quali gli scenari. I metodi soggettivi si possono distinguere in: metodi di
convergenza delle opinioni, in cui viene strutturata
la comunicazione (Delphi, Shang); metodi di impatto, in cui viene strutturato il problema (Event-impact,
Cross-Impact, Trend-Impact). Ai precedenti, specie
per quel che concerne la definizione del “desiderata”, ci sentiamo di aggiungere i metodi della Partecipazione (Glen 1978, 1994).
I metodi soggettivi utili per effettuare una “pianificazione sociale partecipata” sono molti, per questo motivo e per fornire anche qualche riferimento
bibliografico, si è pensato di riportare nel seguito
alcuni dei metodi soggettivi in questione. In questo
lavoro si propone un utilizzo integrativo dei metodi
da espero con quelli della partecipazione, basata sia
sulla finalità del metodo (convergenza di opinioni,
valutazioni d’impatto, etc.), che sulle fonti delle valutazioni (rappresentanti delle parti sociali e/o delle
comunità, esperti, cittadini comuni, etc.). Lo spazio
a disposizione e le finalità introduttive del lavoro,
hanno suggerito di riportare la sottostante tabella,
contenente alcuni dei metodi in questione e qualche
riferimento bibliografico, mentre quel che concerne
la teoria e le applicazioni si veda la bibliografia allegata (Pacinelli, 2002).
3
4
de nel Delphi) e dalla controversia costruttiva di
Trysold3.
In questo lavoro si riprende l’approccio basato
sui microdati, evidenziando l’importanza dei metodi
della partecipazione, al fine di pervenire ad una pianificazione delle politiche d’intervento sociali fondate sulla partecipazione degli interessati (Pacinelli,
2001). Infine è bene precisare che l’approccio contenuto in questo lavoro non deve essere confuso con
la “concertazione”, perché mentre quest’ultima è
basata sul confronto tra “Rappresentanti delle parti
sociali”, i metodi della partecipazione, si rivolgono
alle persone coinvolte dall’intervento. Infine aggiungiamo che, nel protocollo proposto in questo lavoro
per pervenire alla “pianificazione sociale partecipata”, vengono comunque largamente utilizzati i “Rappresentanti delle parti sociali”, anche se sotto forma
di Testimoni Privilegiati (Fabbris, 1990).
2. Una rassegna di metodi soggettivi per la
pianificazione sociale partecipata
Wicksell propose come soluzione il ricorso alla regola dell’unanimità (utilizzata anche da Glen nel Futures wheel).
Secondo questo criterio ciascuna voce del bilancio, con il
relativo onere finanziario può essere approvata solo se vi è
l’unanimità o la quasi-unanimità.
Invece di generare una terza area, in questo lavoro si è preferito far riferimento all’integrazione di metodi, per spiegare anche la questione degli scenari.
Statistica & Società
Tab. 1: Metodi soggettivi per la pianificazione sociale
partecipata.
Metodi soggettivi
Riferimento bibliografico
Metodi per convergenza opinioni (comunicazione strutturata)
Delphi
Mini Delphi
Markov-Delphi
Shang
Nominal Group Techniques
Abacus Delphi
IperDelphi
Dalkey N., Helmer O., 1963
Helmer O., 1972
De Groot, 1974
Ford D.A., 1975
Delbecq, Van DaVen, Gustafson, 1975
Régnier F., 1983
Bolognini M., 2001
Metodi d’impatto: event, cross e trend impact
Gordon-Hayward
Gordon-Hayward, 1968
Ksim
Kane, 1970
Futures Wheel
Glen J.C., 1972
Explor-Sim
Duval, Fontela e Gabus, 1974
SMIC ‘74
Duperrin J.C. e Godet M., 1975
Interax
Enzer S., 1980
Ez-Impact.
Bonnicksen
Micmac
Godet M., 1985
Mactor
Godet M., 1985
Brauers-Weber
Brauers-Weber, 1988
Trend Impact Analysis (TIA)
Futures group AA.VV., 1994
Gksim
Gong J., Otsubo K., 1996
Futures Polygon
Pacinelli A., 2001
Metodi classici della Partecipazione
Charrette
Emery F., 1960
Opinion polling; Budget Games
Mueller, 1963; AA.VV.
Public Delphi, Policy Delphi
Turoff M., 1970
Syncon
Hubbard B., Whiteside J.,1971
Gruppi Focus
AA.VV.
Metodi elettronici per la Partecipazione
Groupware
Turoff M.,1960
A.R.P.A.NET.
Pentagono 1961-69
Issue Based Information System
Horst R., 1970
Consensor o PC Voter
Vedi Futures group
Multi User Dungeon (MUD)
AA.VV. anni ‘80
Chat; Unchat
AA.VV.; Barber B., 1984
Community networks (freenets)
Grunder, 1984
Minipopulus
Dahl R., 1989
Thirdvoice
Eng Siong Tan anni ‘90
BITNET Computeserve
Vedi Krol, 1992
Electronic Town Hall
AA.VV. USA 1992
MN-Politics
Stato Minnesota, 1994
Minitel
Governo francese
Mailing list; Newgroup; Forum
AA.VV.
Bullettin Board System
AA.VV.
Internet relay Chat
AA.VV.
NetConference Plus
Bolognini-Nordfors, 2000
U.R.C.I.
Pacinelli A., (in corso di stampa)
Altri metodi
Relevance Trees, Morph. Anal.
Zwicky F., 1947
Genius Forecasting
Lenz R., ante 1960
Technological Forecasting
Erich J., 1967
Decision Models
Vedi Futures group, 1994
Decision Analysis, D. A. tree
Vedi T.J. Gordon, 1994
Technology Sequence Analysis
Vedi T.J. Gordon, 1994
Scenarios
AA.VV.
System Dynamics
AA.VV.
Simulation Systems
AA.VV.
25
– Metodi per la convergenza delle opinioni. Lo scopo di questi metodi è quello di far convergere le
opinioni, ottenendo il restringimento dell’intervallo di variazione delle stesse. Tutti i metodi presentati si ispirano al capostipite Delphi, realizzato per la prima volta da Dalkey ed Helmer presso
la Rand Corporation e basato sulla “comunicazione strutturata”, che è un elemento fondamentale della Democrazia elettronica (Bolognini
2001). Il metodo Delphi si è diffuso in ritardo,
rispetto alla sua sperimentazione, per motivi di
sicurezza, poiché esso riguardava l’armamento
futuro degli USA (convenzionale, atomico o combinazione dei due). In questo lavoro i metodi per
la convergenza delle opinioni, basati sulla comunicazione strutturata, vengono proposti sia per
restringere l’intervallo previsionale suggerito dagli Esperti (scenario esplorativo), che per far convergere le opinioni dei Rappresentanti di Comunità o delle Parti sociali (scenario normativo).
– Metodi d’impatto. Ad avviso dello scrivente, è
possibile ricondurre i metodi d’impatto a tre aree
distinte: event impact (ad esempio il Futures
wheel), cross impact5 (ad esempio il Ksim) e trend
impact (ad esempio la TIA) (Pacinelli, 2002a).
L’ipotesi alla base dei metodi d’impatto è che
nessuno sviluppo avviene isolatamente, esso è
reso più o meno possibile dalla realizzazione di
altri eventi6. In questo lavoro si suggerisce il ricorso alla event impact per analizzare le conseguenze degli impatti degli eventi, alla cross impact
per studiare le traiettorie verso il futuro e selezionare lo scenario esplorativo ed alla TIA per individuare gli effetti degli impatti di un set di eventi
sul trend di serie storiche.
– Metodi della partecipazione: Il voto fu, sicuramente, la prima forma di partecipazione pubblica
nei processi politici. Negli anni ’60 e ’70 si imposero moderni metodi di partecipazione come
“Charrette”, “Syncon” e altre varie forme di comunicazione computerizzata. Si tratta di tecniche
integrative disegnate per e rivolte ad una sezione
trasversale del pubblico e a comunità professio5
6
I metodi di cross-impact sono quelli maggiormente
riscontrabili in letteratura e sono riconducibili ad almeno tre
diversi approcci: di simulazione (Gordon 1969), euristico
(Turoff 1972, Duval, Fontela e Gabus 1974) e di ottimizzazione (Duperrin, Godet 1975).
Infatti, il verificarsi di un certo evento può esercitare un’influenza inibente o accrescente nei confronti di un altro evento.
26
Statistica & Società
nali volte ad identificare fatti, possibilità future,
aspirazioni comuni. Tali interazioni possono generare consenso su obiettivi generali tattiche e
strategie di azione. Questi metodi ci potrebbero
guidare sul percorso che conduce al “desiderata”, ossia alle caratteristiche dello scenario normativo. Infatti i metodi della partecipazione possono utilizzare con grandi vantaggi lo strumento
dello scenario. Ad esempio, immaginiamo di
mostrare ad un gruppo di persone uno scenario,
che descriva le conseguenze delle attuali politiche, e di chiedere a loro se il quadro che emerge è
desiderabile. Non abbiamo inserito il problem
solving e le tecniche che lo accompagnano, perché diamo per scontato il loro uso. Analogamente si ritiene indispensabile il ricorso al “futures
problem solving” per sciogliere i nodi della pianificazione.
3. Dallo Scenario Esplorativo al “desiderata”:
verso la “partecipazione elettronica”
Il termine Scenario deriva dal canovaccio della
Storia dell’Arte, in cui l’attore di fronte all’imprevisto, era autorizzato ad usare l’immaginazione. In letteratura esistono molti tipi di scenari (contrastati,
estremisti, issue oriented, etc.), ma la distinzione tra
scenari esplorativi e normativi (ricomponibili nello
scenario progettuale) è la più consona agli obiettivi
di questo lavoro. Nella costruzione degli scenari sono
noti due approcci: quello formalizzato e quello non
formalizzato, il primo consente la costruzione degli
scenari tramite la cross-impact (Gordon-Hayward,
1968, Godet 1979, Brauers-Weber, 1988), il secondo contiene due tipi di scenari, uno tendenziale (trendbased-scenarios) e l’altro contrastato (contrasted
scenarios). Entrambi gli ultimi due scenari sono
esplorativi, mentre gli scenari anticipativi sono in
genere normativi. I primi sono basati sull’analisi dei
possibili effetti sul futuro di certe azioni effettuate
nel presente. I secondi presentano futuri alternativi
del sistema ed analizzano i percorsi che potrebbero
condurre ad essi, la combinazione tra gli scenari
esplorativi (o tendenziali) e quelli normativi (o anticipativi) costituisce un tipo di scenario detto
progettuale (obiettivo di questo lavoro). Infatti la
pianificazione sociale richiede due tipi di previsioni: futuri possibili, costruiti in assenza di nuove politiche sociali e futuro desiderato. La pianificazione
è l’attività che tenta di realizzare il futuro desiderato
(o “desiderata”) che ricade entro il range dei futuri
possibili, in modo da rendere questo futuro normativo più probabile degli altri. In altre parole, la molteplicità di futuri che costituiscono il “prevedibile”, cioè
il range dei possibili futuri, è detta scenario esplorativo, la previsione del futuro desiderato costituisce
lo scenario normativo. La pianificazione contempla
le ricerche di politiche che portano a previsioni descrittive più in linea con le previsioni normative. Ad
esempio la pianificazione è il processo di identificazione delle politiche che, se seguite, renderebbero le
Politiche sociali coincidenti con il “desiderata”. In
questo lavoro si propone un percorso basato sull’integrazione di Tecniche, che conduce ad un “desiderata” che, in virtù dei metodi adottati, può essere
definito “partecipato”. Nella prima fase, destinata alla
definizione del “presente” (ossia la base del cono del
plausibile secondo l’approccio francese, Godet,
1990), dopo la consueta applicazione dell’Albero
delle pertinenze, si potrà adottare l’Analisi strutturale. Infatti, la previsione esplorativa ritrae i futuri che
sembrano possibili, considerando l’azione o l’inazione degli attori (Mactor), degli sviluppi esterni e
delle dinamiche interne al sistema oggetto di studio
(Micmac). Così come per l’applicazione dei metodi
dell’Analisi strutturale si ricorre agli Esperti, utilizziamo la stessa fonte soggettiva per individuare le
traiettorie verso il futuro (Delphi, Ksim, etc.) e le
immagini del futuro contenute nello scenario esplorativo (si pensi, ad esempio, alla costruzione delle
matrici di compatibilità di più eventi nello stesso scenario nel metodo di Brauers-Weber, operazione comunemente affidata ad Esperti). Ottenuto lo scenario esplorativo, nella seconda fase bisognerà definire quello normativo ma, trattandosi di questioni sociali, lo si dovrà fare coinvolgendo gli Attori ed i
rappresentanti della società (Pacinelli, 1995b). Al fine
di generare il precedente coinvolgimento, nel protocollo proposto, si distingue tra “scenario normativo”
e “desiderata”. È noto che in letteratura l’uno è usato
come sinonimo dell’altro, ma nel nostro caso abbiamo preferito distinguere, per poter mostrare come
sia ben diverso l’uso di metodi da rappresentanza,
dall’uso di metodi della partecipazione. Ad esempio, i primi possono essere utilizzati per individuare
gli elementi di un possibile scenario normativo, mentre i secondi possono fornire una “calibratura fine”
dello stesso, che conduca all’effettivo “desiderata”
dai cittadini (terza fase). In definitiva i metodi da
esperto, in genere usabili anche con i rappresentanti
delle comunità (o rappresentanti politici), forniscono lo scenario esplorativo (esperti) e quello normati-
Statistica & Società
vo (rappresentanti politici), mentre i metodi della rappresentanza (cittadini, imprese, etc) conducono al
“desiderata”. I precedenti metodi, che genericamente definiamo “metodi della Consultazione”7, ben si
prestano per la progettazione di piattaforme informatiche per la Democrazia elettronica che, proprio
per la sua finalità necessita di metodi garantiti dalla
strutturazione della comunicazione e dei problemi.
Alludiamo evidentemente ai “metodi da Esperto”,
ai “metodi di Rappresentanza” ed ai “metodi di Partecipazione”, che possono essere applicati in diversi
contesti dell’e-Government e dell’e-Governance.
Alcuni di questi metodi sembravano quasi
inapplicabili, dato l’enorme dispendio di risorse
umane e finanziarie che necessitavano ma, con l’avvento di Internet, essi possono costituire un importante serbatoio metodologico per la realizzazione di
procedure finalizzate alla “Democrazia elettronica”.
Il fenomeno chiamato Computer Mediated Communication (Groupware è il termine comunemente usato) da Murray Turoff, l’inventore della conferenza
tramite computer, che negli anni ’60 sperimentò il
metodo Delphi su network, indica un particolare tipo
di software predisposto per connettere gruppi di persone, allo scopo di farle collaborare ad uno stesso
progetto. In tal modo, grazie ad Internet, gruppi situati anche a grandi distanze possono interagire con
altri individui, ma non è questo l’unico vantaggio.
La facilità di accesso al sito che contiene il software,
consente di raggiungere un’ampiezza della partecipazione di gran lunga superiore al numero di esperti
usati da Turoff, o a quella ottenibile con i metodi
della partecipazione classici. Per questo motivo si è
diffusa l’idea che il ricorso a metodi elettronici finalizzati alla partecipazione, possa trovare ampia diffusione nel futuro, fino a modificare sensibilmente
gran parte dei processi decisionali attuali. Secondo
Bolognini (2001), dopo alcuni anni di sperimentazione i servizi di democrazia elettronica risultano
ininfluenti rispetto ai processi decisionali, caratterizzati da flussi di comunicazione frammentari e quasi
7
Per consultazione si intende l’atto, modo, effetto del consultare e del consultarsi, pertanto, con l’azione del consultare
si innesca una comunicazione a fini informativi, che non
implica la facoltà di decidere. Quindi il consultare coinvolge la necessità di informarsi, mentre l’azione del consultarsi
implica la comunicazione. Per questo motivo l’organizzazione di una consulta presuppone almeno un “percorso informativo” (information path) ed una “convergenza di opinioni” (consensor room) (Pacinelli, 2002).
27
sempre inconcludenti. Questo dipende anche dall’inadeguatezza dei sistemi di computer-mediated communication impiegati (forum di discussione,
newsgroup, mailing list, etc.), adatti al dibattito normativo e alla costruzione della “comunità”, ma non
alla deliberazione e alla decisione. Inoltre, possono
stabilire una comunicazione orizzontale (tra i cittadini), ma non una comunicazione verticale (tra cittadini e istituzioni) e consentono di far interagire solo
un numero limitato di partecipanti, con un processo
di comunicazione troppo elementare. “Ben sapendo
che quello delle tecniche non è il solo problema da
affrontare…, l’interrogativo che emerge è se sia possibile adottare alcune tecniche più efficaci, che contribuiscano a portare i servizi di democrazia elettronica fuori dalle secche in cui, dopo le prime
sperimentazioni, sembrano essersi arenati.”
(Bolognini, 2001 pag. 49). In questo lavoro abbiamo
cercato di fornire un insieme di metodi di natura soggettiva, utili ai fini della pianificazione sociale e, in
larga parte, usabili per espandere le potenzialità
metodologiche della Democrazia elettronica.
Concludendo, in diverse occasioni si è presentata l’opportunità di applicare alcuni dei metodi esposti in precedenza, in particolare gli ambiti d’intervento riguardavano le politiche sociali di Amministrazioni locali (Pacinelli, 1995, 2001), la pianificazione degli interventi formativi (Pacinelli, 2000a,
2000b, 2002b) e l’orientamento (Pacinelli, 1996).
Bibliografia
BRAUERS J., WEBER M., (1988). A New Method of Scenario Analysis for Strategic Planning, in: Journal of
Forecasting vol.7, Jan-March, pp. 31-47.
D ALKEY N.C., H ELMER O., (1963). An Experimental
Application of Delphi Method to the Use of Experts,
in Management Science, n° 9, pp. 458-467.
DE NARDIS P., (1999). Sociologia del limite, Meltemi, Roma.
DUPERRIN J.C., GODET M., (1975). SMIC ’74 - A Method
for Costructing a Ranking Scenarios, Futures, n. 7.
pp. 302-312
ENZER S., (1970). A Case-Study Using Forecasting as a
Decision-Making Aid, in: Futures, December, pp. 341362
ENZER S., (1980). Interax: An Interactive Model for
Studying Future Business Enviroment, Technological
Forecasting and Social Change, Vol. 1-2 and 3.
FABBRIS L., (1990). Problemi statistici nella utilizzazione
di dati rilevati presso testimoni privilegiati, in “Rilevazione per campione delle opinioni degli italiani”,
SGE, Padova,.
28
Statistica & Società
FONTELA E., GABUS A., (D UVAL), (1974). Events and
Economic Forecasting Models, Futures, Vol. 6, N. 4.
GLENN J. C., (1972). Futurizing Teaching vs Futures
Course, Social Science Record, Syracuse University,
v. IX, n.3, Spring.
G ODET M., (1985). Prospective et Planification
Stratégique, in: Economica, Paris. (trad. it. Scenari e
Gestione Strategica, a cura di Antonio Martelli, IPSOA,
Scuola d’Impresa, 1990.
GONG J. and OTSUBO K., (1996): Development of the land
use/cover change dataset of China, in Eco-Frontier
Fellowship, pp.73-81, Research & Information Office,
Global Environment Department, Environment
Agency of Japan, Tokyo.
G ORDON T.J., (1969). “cross-Impact Matrices: an
illustration of their for Policy Analysis, Futures,
December, pp. 527-531
GORDON T. J., (1994). Trend Impact Analysis, Futures
Research Methodology, AC/UNU Millennium Project,.
GORDON T.J., HAYWARD H., (1968).Initial Experiments with
the Cross-Impact Matrix Method of Forecasting,
Futures, v.1, n.2, pp.110-116.
GORDON, T.J., HELMER, O., (1964). Report on a Long Range
Forecasting Study, RAND Corporation, Santa Monica, California, September R-2982.
GROVES T., LOEB M., (1973). Incentives and Public Imputs,
Journal of Public Economics, n. 14.
GREEN J. R., LAFFONT J.J., (1979). Incentives in Public
Decision-Making, Amsterdam,.
HELMER O., (1972). Cross-Impact Gaming, Futures June.
pp.149-167.
ISERNIA P., (1987). Introduzione agli scenari, in: AA.VV.
Futuro e Complessità: metodologie per la Previsione
di Medio e Lungo Periodo. F.Angeli.
KANE, J., (1972). A Primer for a New Cross-Impact
Language KSIM, Technological Forecasting and Social
Change, V.4, n.2.
KAPLAN, SKOGSTAD, GIRSHICK, (1950). The Prediction of
Social and Technological Events, Public Opinion
Quarterly, Spring.
KROL, Ed. The Whole Internet: User’s Guide & Catalog,
O’Rielly&Associates, Inc., Sebastopol, California,
USA, 1992.
MARBACH G., MAZZIOTTA C., RIZZI A., (1991). Le previsioni. Fondamenti logici e basi statistiche, Etas Libri,
Milano.
PACINELLI A., (1995). “Sulla rilevazione del fabbisogno di
beni e servizi pubblici”, Atti incontro Statistica Economica, Napoli, pp.127-133.
PACINELLI A., (1995). Un’indagine Delphi sugli illeciti connessi all’attività della Regione Abruzzo, Quaderno di
Statistica del D.M.Q.T.E. Univ. G.d’Annunzio n.10.
PACINELLI A., (1996). Orientamento e Delphi: un connubio
sinergico, Induzioni n.12, Pisa-Roma, pp. 83-99.
PACINELLI A., (2000a). Un’indagine previsionale soggettiva sul problema degli immigrati in Puglia, Ministero del Lavoro e della Previdenza Sociale, Commissione Europea, O.S.C.A.R., C.S.E.R., Rapporto Orme
Quarta 01 vp2000, Roma.pp.149-232
PACINELLI A., (2000b). Il Disegno della Ricerca nella
rilevazione del fabbisogno di formazione, A.Pacinelli
(a cura), “Rapporto sull’analisi dei fabbisogni di professionalità delle PMI del Molise”, Fondo Sociale
Europeo, Consorform-Trend.
PACINELLI A., (2001). Sulla valutazione soggettiva della
probabilità di eventi: dal Futures Whell al Futures
Polygon, Conv. Società Italiana di Statistica, Univ. Tor
Vergata, Roma.
PACINELLI A., (2002a). Popolazione e Società: metodi per
la pianificazione sociale partecipata, Quaderno del
Dipartimento di Studi Aziendali e Sociali, Sezione di
Popolazione, Ambiente e Metodi Matematico Statistici n. 5, Università di Siena, Siena.
PACINELLI A., (2002b). Nota metodologica all’azione di
ricerca sul Distretto industriale Vibrata Tordino
Vomano, realizzata per conto dell’Università di
Teramo, FSE, Regione Abruzzo, L’Aquila.
PACINELLI A., (in corso di stampa). Universal Register for
Collective Intelligence (U.R.C.I.), in Nota metodologica all’azione di ricerca EQUAL, area “Patto Chetino
Ortonese”, CNA, Chieti.
R ÉGNIER F., (1983). Médicament et consumérisme:
méthodes et conclusions d’un échange interactif,
Prospective et Santé,28.
RONCAROLO F., (1994). Controllare i media. Il presidente
americano e gli apparati nelle campagne di comunicazione permanente, Angeli, Milano
S CHNEIDER F., P OMMERHENE W. W., Free Riding and
Collective Action: An Experiment in Public
Microeconomics, Quarterly Journal of Economics, n.
96, 1981.
THE COMMITTEE FOR THE FUTURE, (1973). Pre-Syncon
Information to Section Coordinators, Syncon,
Washington, D.C.
THE FUTURES GROUP, (1994). Decision Modeling, AC/UNU
Millennium Project, Futures Research Methodology,.
TUROFF M., (1972). An Alternative Approach to CrossImpact Analysis, Technological Forecasting and Social
Change, n.3.
TUROFF M., (1970). The Design of a Policy Delphi, in:
Technological Forecasting and Social Change n°2, pp.
149-171
ZWICKY F., (1948). The Morphological Method of Analysis
and Construction, Courant Anniversary Volume, New
York, Intersciences Publish.
WICKSELL K., (1896). Finanztheoretische Untersuchyngen
and das Steuerwesen Schwen’s, Jena.
Statistica & Società
29
“Censimento a scuola”: statistica,… ma non solo
Maria Gabriella Ottaviani
Coordinatore del Gruppo permanente della SIS per la didattica della Demografia e della Statistica
e-mail: [email protected]
C’è da augurarsi che molti dei soci che hanno
partecipato lo scorso giugno a Milano alla XLI Riunione Scientifica della SIS, abbiano visitato, vicino
alla Segreteria della Società, la mostra allestita con
alcuni dei lavori prodotti dalle scuole partecipanti al
Premio di didattica della statistica, bandito dalla SIS
per la migliore attività in occasione del “Censimento a scuola” (cfr. SIS informazioni, Dicembre 2001).
Chi l’ha fatto sarà rimasto colpito dall’ingenuità festosa che traspariva dai lavori dei bambini delle elementari – quasi tutti disegni che illustravano brevi
testi –, e dalla, oserei dire, professionalità delle presentazioni su CD Rom degli studenti delle scuole
medie. Senza dubbio si è trattato di una bella sorpresa anche per quegli statistici che più si interessano
alla didattica pre-universitaria della disciplina. Vi
sono tuttavia altre testimonianze che i materiali inviati per concorrere al premio permettono di cogliere, si tratta delle 28 relazioni per le scuole elementari e 20 relazioni per le scuole medie prodotte dagli
insegnanti che hanno assunto il ruolo di docenti
referenti della scuola per l’attività in concorso. Esse
raccontano con semplicità cosa ha rappresentato il
“Censimento a scuola” per le scuole che vi hanno
partecipato.
Circa la motivazione dell’adesione al progetto,
così scrive la referente dell’Istituto comprensivo di
Briatico (Vibo Valentia): «La proposta del “Censimento a scuola” (…) mi è sembrata un’opportunità
unica, da non lasciarsi sfuggire per diversi motivi:
stimolava gli alunni ad apprendere in maniera divertente ed originale; consentiva di far entrare questo aspetto delle scienze sociali in modo sistematico
nel curricolo scolastico; contribuiva a far nascere
negli alunni un atteggiamento positivo verso le scienze logico-matematiche che, spesso e a torto, sono
ritenute astratte e avulse dalla realtà; suggeriva strumenti e metodologie di ricerca indispensabili per lo
studio delle diverse discipline; consentiva l’integrazione delle nuove tecnologie nella pratica didattica;
faceva sentire gli alunni, abitanti di un piccolo centro del sud, parte integrante della società dell’intero
Paese.». Si tratta indubbiamente di importanti moti-
vazioni del “mondo degli adulti”, ma come hanno
reagito i bambini in classe? Lo raccontano le referenti
dell’Istituto comprensivo di Brusciano (Napoli):
«Quando noi insegnanti del modulo di IV elementare delle sezioni (…), abbiamo proposto agli alunni
di partecipare al progetto “Censimento a scuola”
questi sono rimasti un po’ perplessi… qualcuno pensava di conoscere il significato di questo termine…
qualcun altro si sforzava di dargliene uno… poi insieme, e con l’entusiasmo che sempre accompagna i
bambini a questa età, abbiamo intrapreso questo
“lavoro”.».
Sì perché a scuola si lavora, e questo è stato un
lavoro difficile, come qualsiasi lavoro si affronti per
la prima volta, ma divertente e travolgente come un
gioco. È ancora la referente della scuola di Briatico
che illumina la scena: «L’entusiasmo, la passione a
volte e la serietà sempre, con cui i bambini hanno
giocato a fare “gli esperti di statistica” si evince dal
lavoro svolto».
Come insegnante forse mi sarei “accontentata” di realizzare le stesse attività in modo più semplice… su un quaderno, ma dagli alunni è partita la
spinta e l’esplicita richiesta di realizzare un lavoro
più organico e completo “… perché così, maestra,
ci viene più bello”.
Per non deluderli, per non smorzare il loro interesse, mi sono lasciata tanto coinvolgere in questo
gioco fino a divertirmi anch’io, nonostante la fatica
e l’impegno che richiedeva!».
E da Brusciano continuano: «In ogni momento
i bambini si sono mostrati interessati, ma soprattutto divertiti, quando formulavano delle domande e realizzavano grafici e diagrammi per ottenere informazioni sulle loro abitudini, sul livello di gradimento per gli spettacoli televisivi e sui libri di lettura
non scolastici, sui loro gusti, per conoscere insomma le caratteristiche che contraddistinguono ognuno di loro, ma che comunque li accomunano.».
La statistica diviene così viva in classe, come
testimoniano le insegnanti del II Circolo didattico di
Santeramo in Colle (Bari) che scrivono: «La creatività degli alunni, che per fortuna non ha limiti, ha
30
Statistica & Società
saputo cogliere ogni opportunità per spaziare anche nel rigido mondo della “Statistica” fatto di dati,
numeri, indici, frequenze…». E la classe diviene un
gruppo in cui “si sta bene”, perché in essa si apprende «in clima sereno e culturalmente stimolante» (IV
Circolo Didattico di Sanremo – Imperia). In questo
ambiente, segnala la referente del VI Circolo Didattico di Brindisi: «I lavori hanno l’impronta molto
semplice poiché, sia le modalità organizzative che
quelle tecnico-operative ed esecutive, sono state determinate da scelte libere ed autonome da parte dei
bambini. Vanno sottolineati, pertanto, la forte motivazione e il grande spirito collaborativo che
sottendono alle fasi operative. I linguaggi utilizzati
sono stati diversi: da quello iconico a quello grafico, in versi o semplicemente esplicativo ed umoristico. I contenuti trattati e rappresentati lasciano trasparire tanto la competenza acquisita in ordine alla
terminologia specifica come statistica, questionario,
percentuale, indagine…, quanto la capacità di riconoscere, nell’operazione censuaria, la sua valenza
sociale utile a rilevare caratteristiche, fenomeni, situazioni di una popolazione rispetto ad un’altra e
costruire, così, la propria identità.».
Il riconoscimento della propria identità comporta necessariamente il riconoscimento di quella degli
altri e da Osimo (Ancona) la referente del I Circolo
testimonia: «Si sono svolti altri lavori applicando la
statistica. Interessante è stato il progetto sulla
“Multiculturalità e l’accoglienza degli stranieri”.
Tramite l’Ufficio Demografico del Comune di Osimo
si è avuta tutta la documentazione degli stranieri
residenti in Osimo, da cui gli alunni hanno tratto il
numero degli immigrati di ciascun paese di provenienza, il numero dei bambini da 0 a 11 anni. Si sono
esercitati a ricercare le percentuali da mettere a
confronto con i residenti, con gli alunni del I Circolo e della scuola “Bruno da Osimo”. È stato il punto
di partenza per incontri e conoscenza di questa nuova realtà osimana.». Anche altrove la classe si è dilatata ad accogliere il mondo esterno, è accaduto ad
esempio presso la Scuola elementare di Artegna
(Udine) dove: «è stato invitato a scuola il sindaco
del Comune che ha illustrato le modalità di svolgimento dei censimenti (della popolazione, dell’agricoltura…) ed ha risposto alle domande formulate
dagli alunni.».
In questo fervore di attività e di scambio continuo fra bambini e docenti emerge il rapporto fra le
varie discipline, che ovviamente i docenti non hanno problemi ad evidenziare. I referenti del I Circolo
didattico di Galatina (Lecce) così illustrano il loro
progetto: «Le attività progettuali programmate saranno effettuate all’interno del curricolo che, in via
prioritaria riguarderà l’ambito logico-matematico,
ma al tempo stesso saranno facilmente estensibili a
percorsi interdisciplinari che coinvolgeranno gli altri due ambiti dell’azione formativa (ambito linguistico ed ambito antropologico) creando percorsi
d’apprendimento attivo basato sull’esperienza diretta.». Ed ancora, la referente dell’Istituto comprensivo di San Martino di Venezze (Rovigo) caratterizza
il progetto per il coinvolgimento de «la matematica
come materia e in particolare la statistica, unita all’uso delle nuove tecnologie con la conoscenza di
nuovi software.». A proposito di tecnologie i bambini di Artegna così esprimono il loro entusiasmo: «Abbiamo imparato ad usare la posta elettronica e con
questa abbiamo spedito le nostre domande alle classi
quarte di Piovega ed Ospedaletto; con la stessa procedura abbiamo ricevuto le loro risposte e così abbiamo potuto confrontare i vari dati. Abbiamo imparato ad usare un nuovo programma, Excel, con il
quale si possono costruire tabelle, fare le somme, le
percentuali e perfino costruire i grafici che ci piacciono di più.».
L’utilità di questa esperienza è andata ben oltre
l’attività proposta. Seguendo la Guida al Censimento a scuola, per cui più di un docente ha ringraziato,
«le competenze acquisite sono risultate trasferibili
ad altre situazioni e in diversi contesti.» così testimoniano i referenti del II Circolo didattico di Santeramo in Colle (Bari). Tra l’altro il metodo statistico
è stato usato con maestria dai bambini del Circolo
didattico di Corridonia (Macerata) per rispondere ad
una domanda che frullava loro in testa, scrivono:
«dopo l’effettuazione del Censimento Generale, noi
della V (..) abbiamo voluto renderci conto se, come
diceva la nostra insegnante, sull’argomento eravamo informati come e più degli adulti. Nel mese di
Dicembre abbiamo intervistato 33 persone comprese tra i 30 e i 60 anni, per la maggior parte donne, e
abbiamo posto loro delle domande per verificare se
conoscevano l’importanza del censimento e le modalità con cui viene attuato. Abbiamo registrato tutte le risposte, le abbiamo tabulate, abbiamo calcolato le varie percentuali e scelto un diagramma per
evidenziare i dati. (..) Alla fine del lavoro ci siamo
resi conto che l’insegnante aveva ragione!!!». Si
parla tanto di problem-posing e di problem-solving,
quale esempio migliore di questo?
Ovviamente, il rapporto bambini-adulti più in-
Statistica & Società
teressante è quello con i genitori, questo emerge vivace dalla prosa delle referenti di Brusciano (Napoli): «Tutto ciò che imparavano lo raccontavano ai
genitori ed erano felici perché ne sapevano più di
loro, per alcuni momenti si sono sentiti anche “grandi” e “colti” perché conoscevano cose ignorate dagli adulti.». E ciò ovviamente la dice lunga sul livello di cultura statistica nel nostro Paese e sulla necessità di investire in questo campo da parte degli
statistici.
I genitori sono stati partecipi in più modi. La
referente della Scuola elementare Amerigo Vespucci
di Roma informa che: «Le famiglie degli alunni opportunamente informate del progetto hanno ben accolto le attività proposte dal censimento nelle classi
e si sono mostrate interessate ai lavori realizzati ed
esposti nella Mostra.». Molto attivo è stato il coinvolgimento dei genitori del I Circolo di Nardò
(Lecce): «Tutte le operazioni si sono concluse con la
compilazione, da parte dei genitori, di un “ulteriore
questionario”, approntato dagli insegnanti per verificare l’indice di gradimento e di utilità dell’iniziativa, adottata dalla nostra scuola. Da tale indagine, lo studio della Statistica, sotto forma di gioco,
è risultato un’attività notevolmente formativa, necessaria alle generazioni del III millennio.». Ciò è
stato così chiaro agli insegnanti che molte delle scuole
che hanno partecipato all’iniziativa - lanciata per gli
studenti che, in IV nel 2000-2001, sarebbero stati in
V nel 2001-2002 - l’hanno di fatto estesa anche ai
bambini più piccoli, arrivando a coinvolgere anche i
piccolissimi di prima, ovviamente nei modi per essi
adatti e che i maestri ben conoscono.
Passando dalle elementari alle medie, anche se
la sostanza resta, il tono indubbiamente cambia. La
chiave del cambiamento si legge in evidenza nella
prima slide della presentazione in Power Point inviata dall’Istituto comprensivo di Costa Volpino
(Bergamo) dove è scritto: «Partecipanti classi 2° (…)
(in rosso nel testo); Committente ISTAT (Istituto
Nazionale di Statistica) (in nero nel testo)». In effetti alle medie si parla esplicitamente di “gioco di simulazione” come appare nella relazione del referente
dell’Istituto comprensivo di Artena (Roma) che sollecita la «divulgazione di strategie simili per trarre
dal gioco di simulazione spunti didattici e approfondimento di temi specifici». La proposta del “Censimento a scuola” viene riconosciuta come un “modo
di apprendere”. Scrive la referente della Scuola media di Porto Torres (Sassari): « Tutto questo lavoro è
stato notevolmente utile perché ha permesso agli
31
alunni di imparare tanti concetti nuovi, seguendo il
filo conduttore tratto dalla realtà, con uno scopo ben
preciso: un vero e proprio laboratorio di matematica, dove gli alunni sono stati protagonisti. Dal lavoro svolto è stato quindi prodotto, al computer, un
libro - documento che contiene i dati e le notizie più
importanti raccolti dagli alunni. Alcuni si sono cimentati nella scrittura, altri con i grafici, altri ancora con lo scanner hanno acquisito disegni e fotografie. Non è stato possibile riportare sul libro tutte le
attività svolte e le ricerche effettuate; esso è una semplice testimonianza dell’entusiasmo dimostrato nei
confronti di un modo nuovo di apprendere.». La statistica viene percepita come un linguaggio, come
emerge dalla relazione della referente della Scuola
media di Sora (Frosinone): «Dopo aver organizzato
la matrice dei dati, i ragazzi si sono sentiti motivati
a saperne di più e hanno deciso di continuare il lavoro per visualizzare con strumenti matematici i dati
reali, che riguardano la loro persona e gli aspetti
della loro vita quotidiana. Così, per gioco, è nato
quest’opuscolo che ha impegnato tutta la classe nella costruzione di tabelle, di grafici, nell’uso del computer, nell’acquisizione di un linguaggio ancora per
loro sconosciuto».
L’interdisciplinarità della statistica è evidente
per i legami che molti dei referenti hanno indicati
con matematica e scienze, lettere, educazione tecnica.
Molte sono state le attività presentate che, prendendo l’avvio dal “Censimento a scuola”, hanno utilizzato la statistica come strumento di indagine. Così
l’Istituto comprensivo di Artena ha usato il metodo
statistico per un progetto di “Educazione alimentare”, dalla Scuola media di Veglie (Lecce) è arrivato
un interessante “Test ecologico”. All’Istituto comprensivo di San Fedele Intelvi (Como) si sono lanciati nello studio de “L’adolescente medio italiano”,
riconoscendo però nelle conclusioni che: «La nostra
indagine, dato il campione limitato di ragazzi intervistati, è difficilmente comparabile con quella nazionale; tuttavia fornisce dati significativi per la conoscenza della realtà giovanile locale.». Dalla Scuola
media “D. Savio” di Potenza è arrivato un lavoro il
cui titolo poetico: “Con quali occhi guardiamo il futuro” cela un progetto di ricerca sperimentale. Scrivono le docenti responsabili: «In terza media lo studio delle leggi di Mendel e di elementi di genetica
ha creato un ponte tra scienze e matematica ed ha
fatto nascere spontaneamente nella classe l’idea di
condurre un “Censimento Biologico”, cioè un’indagine statistica su come si manifesta un carattere
32
Statistica & Società
ereditario; è stato scelto il carattere “colore degli
occhi” perché consentiva una facile rilevazione in
tutti i componenti delle famiglie degli alunni attraverso una semplice osservazione, pur presentando
qualche elemento di incertezza nell’analisi di alcune sfumature. (Altri caratteri, come ad esempio
“gruppo sanguigno”, pur se in assoluto più oggettivi, sono stati scartati sia perché legati ad una maggiore riservatezza individuale sia perché di più difficile rilevazione soprattutto nella generazione dei
nonni).» .
L’entusiasmo dei ragazzi traspare da tutte le
relazioni, ma a livello di scuola media i ragazzi sono
più maturi e consapevoli, essi sono attratti dall’uso
delle tecnologie e dall’esigenza di comprenderne le
potenzialità. Scrive da Pinerolo (Torino) la referente
della Scuola media: «I ragazzi hanno lavorato con
molto impegno ed entusiasmo, apprendendo un metodo statistico di ricerca e di elaborazione dei dati
in modo coinvolgente, con l’utilizzo di strumenti informatici che sono stati alla base di tutto. La statistica è stata l’occasione per imparare ad usare Excel
e Power Point, per riflettere sulle abitudini dei ragazzi italiani, per sentirsi un po’ più uguali o un po’
più diversi, a seconda dei casi, al resto dei coetanei.» .
La maggior parte delle scuole ha inviato lavori
su CD Rom e presentazioni in Power Point. Dalla
Scuola media di Villaricca (Napoli) è arrivato un
ipermedia con tanto di mappa.
L’iniziativa del “Censimento a scuola”, che
l’ISTAT ha condotto e finanziato con 200.000, ha
raggiunto 126.536 studenti ossia poco più del 10%
degli studenti di IV elementare e II media
ai quali il censimento è stato rivolto nell’anno
scolastico 2000-2001. All’iniziativa la SIS ha partecipato in vari modi: ha portato avanti l’idea, mutuandola da una iniziativa analoga che si era svolta in
Nuova Zelanda nel 1990; ha fatto in modo che l’allora Ministero della Pubblica Istruzione e l’UMI ne
riconoscessero l’importanza; ha cooperato con
l’ISTAT affinché l’operazione raggiungesse i suoi
obiettivi didattici. A questo scopo hanno contribuito
anche alcuni statistici che si occupano di didattica
della statistica e che sono anche membri del CIRDIS:
Enzo Lombardo, M. Gabriella Ottaviani, Miriam
Pannone.
Senz’altro il “Censimento a scuola” ha dato visibilità, nella scuola dell’obbligo, alla statistica e
quindi anche alla probabilità. Come scrive il referente
dell’Istituto comprensivo di Muro Lucano (Potenza): «La scuola ha (…) il dovere di dare agli alunni
gli strumenti per poter “leggere” la realtà in una
visione collettiva e per poter effettuare previsioni dei
fenomeni; infatti, la trattazione statistica di fenomeni è collegata ad aspetti di probabilità. La probabilità costituisce un settore del pensiero matematico il
cui significato può essere sintetizzato dall’affermazione che esso permette “di gestire l’incertezza” utilizzando strumenti che hanno tuttavia un fondamento scientifico. Queste brevi considerazioni permettono subito di affermare come le conoscenze di Statistica e Probabilità possano, o debbano, oggigiorno rientrare in un insieme delle conoscenze culturali di base necessarie ad ogni individuo. Per questi
motivi sono ben viste le iniziative anche esterne alla
scuola che stimolano alla ricerca statistica.».
Il contributo della statistica a scuola è però andato
oltre a quello culturale, che pure è importantissimo,
lo esplicita chiaramente la referente dell’Istituto comprensivo di Via Vanni di Roma: «Colgo l’occasione
per esprimere tutto il mio apprezzamento per questo
tipo di iniziative (spero che in futuro ce ne siano altre) che non solo mirano a coinvolgere gli alunni
inserendoli concretamente nella realtà quotidiana
ma gli attribuiscono, anche, un adeguato senso di
responsabilità che, pur se può sembrare minimo, è
fondamentale per la formazione culturale e sociale
dei futuri cittadini.».
Scarica

Società Italiana Statistica