& rivista quadrimestrale per la diffu Statistica & Società anno I n. 2, 2002 Reg. Trib. di Roma nº 504/2002 2/9/02 Rassegna quadrimestrale SOMMARIO gratuita per i soci SIS pag. Struttura Organizzativa: Direttore Responsabile B. Vittorio Frosini Direttore Scientifico Luigi D’Ambra Condirettori Giovanni Maria Giorgi (Didattica, Intervista, Informatica, Risposte ai Soci, Dottorati di Ricerca) Giuliana Coccia (Mercato del lavoro, Territorio, Osservatorio Internazionale, Bestiario Statistico) Comitato Editoriale B. Vittorio Frosini Luigi D’Ambra Giovanni Maria Giorgi Giuliana Coccia Responsabili di Sezione Luigi Fabbris Mercato del lavoro Intervista M. Gabriella Ottaviani Didattica Enrico Del Colle Territorio Gianfranco Galmacci Informatica Daniela Cocchi Dottorati di Ricerca Achille Lemmi Management Alberto Lombardo Bestiario Statistico Gustavo De Santis Risposte ai Soci Osservatorio Internazionale Segreteria di Redazione Michele Gallo Dipartimento di Matematica e Statistica Via Cinthia Complesso Monte S. Angelo 80126 – Napoli Tel. 081 675111 fax 081 675187 e-mail: [email protected] Finito di stampare nel mese di dicembre rce edizioni Piazza Bagnoli, 19 – Napoli Tel 081 2303416 – fax 081 2428946 Discussione 2 Qualche considerazione sull’impiego dei metodi statistici nell’industria e sulle iniziative che potrebbero favorirne la diffusione 5 Egidio Cascini Indici dei prezzi al consumo 11 Laura Leoni Informatica e statistica Gianfranco Galmacci 15 Sull’uso di metodi soggettivi nella “Pianificazione Sociale Partecipata”: verso la “Democrazia Continua” 23 Antonio Pacinelli “Censimento a scuola”: statistica,… ma non solo Maria Gabriella Ottaviani 29 2 Statistica & Società INFERENZA STATISTICA: SCIMMIETTE E CATTIVI MAESTRI – UN TITOLO PER SORRIDERE di A. Rizzi B.Vittorio Frosini Istituto di Statistica, Università Cattolica del Sacro Cuore – Milano e-mail: [email protected] Mi trovo sostanzialmente d’accordo con la presentazione, fatta da Rizzi, delle diverse impostazioni inferenziali; in particolare, mi sembra abbastanza acquisita la convinzione che esse abbiano una pari dignità teorica, mentre dal punto di vista applicativo è essenziale considerare il problema concreto (scientifico oppure operativo), nonché l’insieme degli individui cui si chiede di concordare con le conclusioni raggiunte (il solo proponente, una ristretta cerchia di persone – in ambito operativo o in ambito scientifico – o l’intera comunità scientifica internazionale). Per fare maggiore chiarezza, vi sarebbe anche da considerare la fondamentale distinzione fra ricerca statistica e ricerca scientifica nelle scienze naturali e nelle altre scienze empiriche; la ricerca statistica è ricerca sul metodo, anche se il campo elettivo della sua applicazione può essere abbastanza delimitato (ad esempio economia, psicologia, biologia ecc.); le applicazioni della statistica – all’economia, alla psicologia, alla biologia ecc. – sono fatte dai cultori delle particolari discipline, non dagli statistici, anche se il contributo degli statistici a gruppi di ricerca è generalmente bene accetto. A questo proposito penso che l’atteggiamento degli statistici verso i problemi delle scienze empiriche dovrebbe essere di grande umiltà, anche per il semplice fatto che molti di essi si occupano di ricerca esclusivamente deduttiva, di tipo matematico. Chi ha fatto ricerche solo di tipo matematico non ha più titolo dell’uomo della strada di fare osservazioni sul metodo scientifico in generale. Data l’amplissima copertura della metodologia inferenziale, l’articolo di Rizzi è necessariamente molto sintetico su singoli temi, che hanno trovato ampio sviluppo nella letteratura, con centinaia di articoli e decine di volumi (anche limitatamente al “discorso sul metodo”). Ognuno ha le sue preferenze. Personalmente avrei detto qualcosa di più a proposito della contrapposizione tra Fisher e NeymanPearson (§ 2.2), portatori di due proposte altrettanto valide, ma con significato induttivo assai diverso; in particolare, mi sembra importante ricordare che l’impostazione di Fisher cerca di adattare all’inferenza induttiva l’argomento deduttivo del modus tollens, con l’individuazione di un insieme di possibili campioni conformi all’ipotesi nulla, con una data probabilità; tale chiarimento facilita anche la corretta comprensione della terminologia infelice “accettare o respingere un’ipotesi”, che significa semplicemente che le osservazioni campionarie sono conformi – o non conformi – alla data ipotesi (Frosini, Metodi statistici, Carocci, Roma, 2001, § 11.9). Un’ultima osservazione. Una data impostazione inferenziale può offrire un sostegno a un’altra impostazione, in modo inatteso e contro le intenzioni dei proponenti. Ad esempio, una semplice estensione della ”teoria del supporto”, che è basata sulla sola verosimiglianza, offre un sostegno notevole alla teoria fisheriana dei test di significatività (Frosini, op. cit., § 11.9.2). Addirittura, la usuale elicitazione delle probabilità soggettive proposta dalla Scuola bayesiana, rende plausibile l’interpretazione soggettiva degli intervalli di confidenza! (Frosini, op. cit., § 11.14.5). Domenico Piccolo Dipartimento di Scienze Statistiche, Università degli Studi di Napoli Federico II e-mail: [email protected] Mi sembra significativo che la nuova Rivista della SIS ospiti il contributo accattivante e provocatorio di Alfredo Rizzi sui princìpi generali della nostra disciplina, verso la quale è noto l’impegno scien- tifico e culturale dell’Autore. Lasciando a chi possiede maggiori competenze il dibattito sulle molte questioni epistemologiche e filosofiche affrontate, mi limiterò a commentare un paio di aspetti che tale la- Statistica & Società voro ha stimolato in me, con riguardo all’insegnamento e alla ricerca della Statistica. A me sembra che l’elemento unificante della riflessione di Rizzi sia l’invito ad una presentazione corretta ed onesta della Statistica, nella quale non si privilegi una sola prospettiva, né si esalti la propria concezione, denigrando quella degli altri. Condivido da sempre tale impostazione, ed infatti così scrivevo nella premessa al mio nuovo testo (1998): “Poiché la Statistica nasce per offrire risposte a domande il cui esito non è univoco, sono legittimi i dibattiti, le opinioni e persino i contraddittori più accesi. Ma, se vogliamo essere utili come scienziati metodologici, dobbiamo sempre rispondere con efficacia e fornire convincimenti forti ed evidenze pregnanti a chi chiede strategie decisionali. Credo, perciò, che educare i giovani alla Statistica significhi formare generazioni che siano aperte ad impostazioni alternative, che criticamente utilizzino strumenti compositi ma unificati dagli obiettivi, che coraggiosamente abbandonino modelli inefficienti a favore di nuove analogie, che cerchino di imparare dai dati senza preconcetti. Quest’ultima affermazione, però, non implica una ‘neutralità’ rispetto alle osservazioni, che è spesso un’illusione che nasconde impliciti dogmatismi. Infatti, è solo nella dialettica tra dati, modelli e teoria che si costruisce il rapporto corretto tra informazione empirica, struttura formale e conoscenza razionale” (da: Statistica, il Mulino, Bologna, 1998, pag. 10). Mi sembra anche che occorre estendere questo atteggiamento alla ricerca scientifica, ascoltando, leggendo ed imparando dagli approcci alternativi all’analisi statistica. Assieme ai tanti che negli anni hanno lavorato con me (subendo anche omologazioni che oggi mi sembrano un po’ stantie), sono lieto di aver utilizzato senza preconcetti una molteplicità di strumenti statistici via via che questi si prospettavano nel dibattito internazionale: dalle analisi numeriche alle tecniche computazionali, dagli approcci bayesiani ai metodi di simulazione, dal ricampionamento agli sviluppi asintotici, dalle analisi multivariate agli studi sul filtraggio, dai modelli non-lineari a quelli lineari generalizzati, etc. Ciò è in linea con la professione dello statistico che è attraente perché consiste nel lavorare su problemi reali e nel rispondere a questioni importanti, cercando di stabilire -con fantasia e creatività- collegamenti nuovi ed utili fra settori differenti. Ogni ap- 3 proccio, difatti, va giudicato comparativamente e, alla fine, va provvisoriamente selezionato, secondo l’ottica popperiana del rifiuto progressivo delle ipotesi piuttosto che quella dell’accettazione definitiva. Ma vi è un secondo aspetto (già esplicito nel mio testo: Ibidem, pp. 288-289) sul quale intendo riflettere e che mi sembra si riconnetta immediatamente al discorso centrale di Rizzi: quale concezione della probabilità raccontiamo agli studenti e quale di esse è sottesa all’approccio inferenziale che proponiamo? Nelle mie lezioni racconto (avendolo appreso da Pompilj nelle sue ultime magistrali lezioni del 1967) che la probabilità è un concetto primitivo, che è ridicolo pensare di “definirla”, ma che ha invece senso interrogarsi su come tale concetto si formi nel cervello umano, sin dalla prima infanzia. Le discussioni sulle concezioni della probabilità – spesso riassunte e semplificate attorno ai nomi di Laplace (classica), von Mises (frequentista), de Finetti (soggettivista) – sono fin troppo note per ripeterle qui. In sostanza, credo fermamente che l’opzione soggettivista includa anche le altre (e non casualmente, essendo successiva sul piano storico). Peraltro, mi ritrovo spesso ad esplicitare con gli studenti le tante situazioni in cui solo una concezione soggettivista riesce a rispondere coerentemente a questioni reali ed importanti per quella “Scienza delle decisioni in condizioni di incertezza” che ritengo sia la Statistica. Tuttavia, credo che fra le prime due concezioni della probabilità (classica e frequentista) e la terza (soggettivista) vi sia una qualche differenza ontologica. Infatti, a ben vedere, classici e frequentisti rispondono in modo primario alla domanda: “da dove trae origine il concetto di ‘probabilità’ nell’Uomo?”. I classici dicono che ciò avviene su base logica mediante un ragionamento derivato dalla simmetria degli esiti, mentre i frequentisti dicono che ciò avviene su base sperimentale osservando gli esiti di prove ripetute. Per contro, a me sembra che i soggettivisti rispondano in modo secondario alla medesima domanda, perché in effetti essi sono più interessati ad una questione differente: “come comportarsi coerentemente di fronte ad una scommessa?”. Credo sia capitato a molti colleghi di imbattersi nella difficoltà che hanno gli studenti nel comprendere con immediatezza la frase: “probabilità è la somma p che un individuo coerente scommette su un evento E il cui verificarsi gli fa vincere 1 Euro”. 4 Statistica & Società A me sorge il dubbio che l’impostazione soggettivista implichi di fatto molto più di quella classica e di quella frequentista, perché essa pone l’accento sulla strategia da assumere di fronte ad una prova ad esito incerto, ma non mi pare che essa affronti (o risolva) la questione primaria di come gli esseri umani pervengano ad una valutazione numerica della probabilità. Potrei anche sbagliare, ma a me sembra che tutte le determinazioni umane siano sempre e solo il risultato di due fonti: il ragionamento e/o l’esperienza, ovvero una saggia ponderazione tra questi due elementi. Questa è anche un’opinione ben consolidata quando si tratta della concettualizzazione matematica: “Il mondo matematico è prodotto dall’incontro della mente umana con il mondo fisico. Pertanto la matematica è determinata dal mondo che ci circonda e dalla struttura del nostro cervello” (K. Devlin, Il gene della matematica, Longanesi, Milano, 2002, pag. 173). Così, per similitudine, contrasto, analogia, etc. ogni ragionamento sulla prova specifica deriva (modificandolo in tutti i modi possibili, ovviamente) dallo schema classico della partizione equiprobabile degli eventi elementari di una prova. D’altra parte, ogni ragionamento sulla prova specifica si può derivare (anche qui per similitudine, analogia, contrasto, etc.) dagli esperimenti pregressi, cioè secondo un’ottica frequentista. A mio avviso, questo mixing di ragionamento ed esperienza è anche il punto di forza (e la ragione intrinseca della sua importanza epistemologica) del teorema di Bayes, grazie al quale la strategia decisionale di fronte alle ipotesi deriva da una combinazione (storica, progressiva, dialettica) di pensiero formale ed evidenza empirica, in un legittimo contesto probabilistico. La mia posizione attuale (sulla quale con piacere vorrei ricevere critiche e/o correzioni) ritiene che non solo sia utile insegnare una concezione soggettivista ma che occorre illustrare anche come essa – in molti casi – sia opportuna e necessaria, sul piano pedagogico e su quello della onestà intellettuale. Ma credo, inoltre, che bisogna ricordare che tale impostazione è a sua volta derivata dalle concezioni primarie della probabilità, che si fondono sulla capacità propriamente umana di osservare il mondo (concezione frequentista) e di comprenderne per sintesi ed astrazione gli aspetti essenziali (concezione classica). Se rispettiamo l’evoluzione storica (e persino biologica) dei concetti primitivi – così come si sono determinati negli esseri umani – forse dovremmo ammettere che la concezione soggettivista nasce solo molto tempo dopo la percezione degli avvenimenti e lo studio razionale della probabilità. Per questo, essa rappresenta un tentativo, lodevole e spesso vincente, di unificare ed includere concetti differenti. Tuttavia, al di là delle razionalizzazioni fornite successivamente dagli studiosi, è certo che la prima utilizzazione storica della probabilità è derivata dall’evidenza sperimentale che ha orientato le strategie ottimali per la sopravvivenza degli umani (e dei preumani): e questo è un atteggiamento sicuramente frequentista. Poi, molto più tardi, la riflessione sulle domande poste dai giochi di azzardo (domande ‘frequentiste’ ad essere onesti…) ha generato la concezione classica della probabilità, secondo un susseguirsi di approfondimenti che derivano da Laplace e culminano con Kolmogorov (il quale ‘confessa’ la genesi frequentista dei suoi postulati). Al pari di quanto è avvenuto con altre scienze formali, questa evoluzione temporale delle varie concezioni della probabilità mi sembra confermare il carattere derivato della concezione soggettivista, intesa più come una saggia regola decisionale che come una interpretazione originaria di un concetto primitivo. Statistica & Società 5 QUALCHE CONSIDERAZIONE SULL’IMPIEGO DEI METODI STATISTICI NELL’INDUSTRIA E SULLE INIZIATIVE CHE POTREBBERO FAVORIRNE LA DIFFUSIONE Egidio Cascini Qualità & Metodologie Six-Sigma – 3M Italia S.p.A. e-mail: [email protected] Sommario I metodi statistici sono suscettibili di applicazioni sempre utili e molto spesso indispensabili, per lo sviluppo e il miglioramento dei processi industriali, oltre che per la soluzione dei problemi che si presentano nel corso della loro gestione ordinaria. Nel lavoro, con l’ausilio di casi reali, studiati e risolti in modo soddisfacente, viene giustificata l’affermazione e vengono forniti alcuni spunti di riflessione sulle iniziative che potrebbero favorirne una maggiore diffusione, allo stato attuale, piuttosto modesta. 1. Introduzione Nel lavoro è affrontato il tema dei metodi statistici nell’industria, valutando lo stato attuale d’impiego di quelli maggiormente consolidati, e mostrando che la modesta situazione rilevata non dipende da scarsa convenienza, quanto piuttosto da alcuni ostacoli oggettivi, che potrebbero essere rimossi con azioni correttive opportune. Alcune di queste sono analizzate e sottoposte all’attenzione della comunità scientifica e industriale. 2. Considerazioni sull’impiego dei metodi statistici nell’industria I risultati presentati in questo paragrafo sono tratti da una relazione, Cascini (2000), nella quale era stata anche fornita qualche precisazione sulla natura dei processi studiati. Sono state esaminate 15 realtà diverse, il 27% delle quali è rappresentato da processi continui, il 40% misti, il 33% da laboratori di ricerca e sviluppo. Per chiarezza, un processo continuo è caratterizzato da un prodotto costituito da unità non distinguibili, come, per esempio, il processo per la produzione del film poliestere; mentre quello misto è costituito da un processo continuo seguito da operazioni di trasformazione, come, per esempio, è il processo per la produzione di video cassette. Anche se, per l’esiguità e la possibile polarizzazione dei dati, è conveniente considerare il campione come popolazione a sé stante, piuttosto che rappresentativo della realtà industriale complessiva, dall’analisi dei risultati potrà, nondimeno, essere tratta qualche indicazione di carattere più generale. L’analisi è consistita nel rilievo, per ciascuna delle 15 realtà, del numero dei metodi statistici realmente utilizzati e nella contemporanea valutazione di quelli che avrebbero potuto essere utilizzati con profitto; il rapporto tra le due grandezze è stato assunto come indicatore del livello d’impiego in ciascuna delle realtà esaminate. I metodi considerati appartengono alla lista che segue, perché, anche se congiuntamente a qualche idea originale, sono risultati sufficienti per una corretta gestione delle numerose situazioni incontrate e proposte dallo scrivente, in più di 35 anni di attività industriale: a. Sintesi statistica dei dati b Carte di controllo per variabili c. Carte di controllo per attributi d. Piani di campionamento per variabili e. Piani di campionamento per attributi f. Test statistici- analisi della varianza g. Regressione, correlazione h. Carte di controllo multivariate i. Esperimenti programmati l. Superfici di risposta m. Serie storiche n. Calcolo delle probabilità e affidabilità o. Manutenzione preventiva p. Indici complessivi di qualità q. Indici di Customer Satisfaction I valori numerici ottenuti sono stati: 0,13; 0,20; 0,20; 0,13; 0.13; 0,20; 0,13; 0,07 0,07; 0,07; 0,13; 0,28; 0,28; 0,14; 0,07 6 Statistica & Società Il valore medio, m = 0,155, è un chiaro indicatore di una situazione piuttosto modesta. Se si vuole avere un’idea del livello d’impiego dei metodi specifici, si può far riferimento alle frequenze relative della figura 1, che sono indicate da un tratto continuo. La linea tratteggiata congiunge i valori forniti dalla relazione: f ( x) = 0, 24 e − x2 27 f (x) = − ( x − 0 )2 2σ2 e 2 πσ (0 ≤ x < ∞) con: 2σ 2 = 27; 2 2 πσ = 0, 22; σ = 3, 674235. Le frequenze sono state determinate con la procedura illustrata, per semplicità, dall’esempio che segue: se due realtà utilizzano rispettivamente, i metodi {a,b,g,h} e {a,g,h}, la popolazione dei metodi utilizzati, risulta dall’insieme: {a,a,b,g,g,h,h}; le frequenze relative dei singoli metodi, sono, allora: a:2/7 b:1/7 g:2/7 0 1 i 2 a 3 b 4 g 5 c 6 d 7 f 8 f 9 p 10 h 11 m x (1) che costituisce un tentativo di modellazione dei dati sperimentali, e che, curiosamente, risultano quasi coincidenti con le ordinate della densità continua: 2 f(x).26 .24 .22 .14 .18 .16 .20 .12 .10 .08 .06 .04 .02 h:2/7 Nel caso in esame, il numero dei metodi utilizzati è risultato di 45, di cui 11 sono esperimenti programmati, 10 sintesi statistica dei dati, 7 carte di controllo per variabili, 5 regressione, 3 piani di campionamento per attributi, 3 piani di campionamento per variabili, 2 test statistici, 1 ciascuno analisi della varianza, indici complessivi di qualità, carte di controllo multivariate e serie storiche. Le frequenze, relativamente alte, degli esperimenti programmati, della sintesi statistica dei dati (che consiste più che altro nel calcolo di parametri statistici semplici, come media e deviazione standard, più raramente nella determinazione della distribuzione di frequenza delle caratteristiche controllate), e delle carte di controllo, per lo più di Shewart, sembrano determinate essenzialmente da due fattori principali, vale a dire dalla semplicità d’utilizzazione e dalla ricchezza di contenuto informativo. I piani di campionamento sono utilizzati soltanto quando specifici requisiti contrattuali impongano, i test statistici come supporto all’intuizione, l’analisi della Fig. 1: Frequenze relative dei metodi statistici della popolazione esaminata – linea continua – e del modello interpretativo – linea tratteggiata. varianza essenzialmente nell’ambito dei metodi di misura, per stabilire i valori numerici della ripetibilità e riproducibilità. L’impiego d’indici complessivi della qualità e di customer satisfaction si trova in una fase iniziale ed è ancora essenzialmente motivato dalla necessità di soddisfare i requisiti della nuova edizione della normativa ISO-9000. Alcuni lavori collegati alla teoria delle serie storiche, sia per analizzare i processi di produzione, sia per modellare la domanda e quindi gestire più correttamente gli inventari, sono, al momento, ancora in una fase di studio. Concludendo con queste brevi considerazioni il discorso sul livello attuale d’impiego, si mostrerà ora come l’applicazione appropriata dei metodi statistici può risultare, in verità, molto conveniente per affrontare con successo le situazioni che si presentano in pratica. 3. Utilità dei metodi statistici nell’industria Per questo scopo, si presentano tre esempi, relativi, rispettivamente, alle fasi di sviluppo, di miglioramento e di soluzione di un problema, nell’ambito della gestione di un processo industriale. Sono tre esempi rappresentativi una popolazione assai vasta, che ha contribuito in maniera rilevante allo sviluppo dell’azienda. 3.1 Sviluppo di un processo 1983; stabilimento italiano di prodotti magnetici per la registrazione digitale ed analogica. Il prodotto era costituito dai comuni dischetti magnetici per la registrazione digitale, del diametro di 5.25 pollici. Oggi, com’è noto, si usano quelli da 3.00 pollici. Il prodotto, come alcuni ricorderanno, era costituito da un dischetto magnetico, mobile al- Statistica & Società l’interno di un contenitore di materiale plastico flessibile, il cosiddetto packaging primario, il tutto inserito in una busta di carta speciale. Dieci dischetti rappresentavano il contenuto di un astuccio di cartone, confezione comune per il cliente finale. I distributori, invece, ricevevano una confezione contenente un numero elevato d’astucci, in un pacco avvolto da un film di plastica. Le operazioni necessarie per la confezione del prodotto erano eseguite, in modo automatico, mediante una linea d’imballaggio integrata. Per il rapido sviluppo del mercato dei personal computer di quegli anni, fu stimato che la richiesta di prodotto sarebbe raddoppiata nel giro di pochi mesi; la soluzione più semplice e, in un certo senso, obbligata, per far fronte alle nuove richieste, era quella di installare una seconda linea, ed infatti furono avviati i contatti con il fornitore, per definirne l’acquisto. Contemporaneamente, però, fu avviato uno studio di affidabilità, per valutare soluzioni alternative. Con i metodi del calcolo delle probabilità si scoprì che l’efficienza della linea di produzione poteva essere raddoppiata, modificando non di molto lo schema dell’impianto. In particolare, sarebbe stato sufficiente installare, in parallelo con quello esistente, un nuovo blocco per imbustare i singoli dischetti, lasciando inalterato il resto, con un risparmio del 90%, rispetto alla soluzione dell’acquisto di una nuova linea. L’efficienza dell’unica linea esistente, modificata secondo lo schema suggerito dai calcoli, confermò i risultati attesi, per l’intero periodo di funzionamento. Il caso è trattato in Cascini (1991). 3.2 Miglioramento di un processo 1995; stabilimento italiano di lastre in alluminio per stampa offset. Il mercato lamentava una variabilità eccessiva di una delle caratteristiche qualitative fondamentali delle lastre, vale a dire del grado di finitura superficiale, collegato in modo diretto alla qualità di stampa. La causa del reclamo fu individuata nel comportamento anomalo del personale di produzione. Per cercare di ridurre la variabilità, che la direzione attribuiva a scarsa attenzione, gli operatori avevano la tendenza ad intervenire con maggior frequenza del necessario, secondo criteri che ciascun capoturno stabiliva sulla base alla ”propria esperienza di lavoro”, finendo per peggiorare la situazione. Anche se leggermente diversi, si scoprì, infatti, che tutti gli interventi avevano una caratteristica in comune; si 7 interveniva per modificare la media del processo, anche se i valori della caratteristica controllata risultavano all’interno dei limiti di variabilità naturale. Per risolvere il problema in maniera definitiva, si ritenne utile determinare, in termini quantitativi, l’aumento di variabilità derivante da questa procedura. Fu, quindi, avviato lo studio del quale si riporta di seguito il risultato fondamentale. In breve: indicando con r il rapporto tra l’ampiezza delle specifiche e quella dei limiti di controllo al 99.73%, con -δp la variazione di media del processo, effettuata in corrispondenza di un valore osservato, esterno di p al limite di specifica, (fig. 2), con σ0 la deviazione standard naturale del processo, con σp la deviazione standard risultante dall’impiego di questa strategia, è stato possibile determinare la relazione esistente tra σp e σ0. r= a b ∆µ = δ p Limite di controllo Limite di specifica p a b µ Limite di specifica Limite di controllo Campioni Fig. 2: Strategia di controllo del processo che prevede la variazione del target m di una quantità ∆µ = -δπ, con δ valore prestabilito e p distanza tra il valore di un rilievo esterno ai limiti di specifica e il limite di specifica più prossimo. Mediante un software appropriato, infatti, le realizzazioni di ciascuna di 10 serie temporali casuali, con deviazione standard nota, σ0, sono state modificate, applicando la regola precedente, per i valori di r e δ riportati nella terza e quarta colonna della tabella I, ottenendo nuovi valori di deviazione standard, σp. I rapporti σp/σo sono indicati nella seconda colonna della tabella. Posto: y = b1r + b 2 δ + b12 rδ (2) dai dati della tabella sono stati ricavati i valori numerici dei coefficienti b1, b2, b12, e la relazione (3), in grado di riprodurre fedelmente i valori numerici sperimentali, come si può verificare dal confronto delle colonne corrispondenti della tabella I. I valori dei coefficienti b1, b2, b12 sono: b1= -1,91491; b2= +2,08459; b12= -0,95198 La relazione ottenuta è: 8 Statistica & Società σp σo 3.3 Soluzione di un problema = 1 + 0, 1221 e y (3) Le relazioni (2) e (3) sono illustrate graficamente nelle figure 3 e 4 seguenti. Il punto P(r = 0,11; d = 1,5; y = 2,76), indicato sui grafici delle figure 3 e 4, non utilizzato per la determinazione della relazione (3), è relativo al caso reale trattato. Tenendo conto della dimensione del campione utilizzato, (80 rilevazioni), l’accordo con il valore stabilito dalla relazione teorica, appare più che soddisfacente. Maggiori dettagli in Cascini (2002). Nello stesso lavoro è mostrato inoltre, come anche la struttura del processo risulti alla fine profondamente modificata da questa procedura. Una sequenza casuale, infatti, diviene autocorrelata, con struttura e grado, dipendente dal valore assunto dalle grandezze r e δ. 1985; stabilimento italiano di prodotti magnetici per la registrazione digitale ed analogica. Il prodotto finale era costituito da una bobina di nastro magnetico per la registrazione digitale di dati. Da un rotolo di dimensioni appropriate, si ottenevano contemporaneamente 52 bobine, con una macchina a ciclo continuo, dotata di un sistema di controllo in grado di rilevare i difetti presenti su ciascuna bobina. Tab. 1: Valori sperimentali dai quali è stata ricavata la formula (3) e confronto tra i valori sperimentali di σp/σo, seconda colonna, e quelli ottenuti dalla (3), ultima colonna. sperimentale 1 2 3 4 5 6 7 8 9 10 Fig. 3: Rappresentazione grafica della funzione: y = b1r + b2δ + b12 rδ con i punti (r,δ) della tabella I. Le curve sono il luogo dei punti y = cost., con il valore cost. indicato a margine. Le coordinate del punto P sono relative al caso reale. σp σ0 -5 -4 -3 -2 3,0 2,8 2,6 2,4 2,2 2,0 1,8 1,6 1,4 1,2 1,0 0,8 0,6 0,4 0,2 0,0 -1 Y 0 P 1 2 3 4 5 Fig. 4: Rappresentazione grafica dell’equazione (3). I punti indicati sulla curva rappresentano i valori sperimentali dai quali è stata ricavata la relazione. Il punto P non utilizzato per la determinazione della (3), rappresenta il caso reale trattato. 1,16 1,14 1,11 1,07 1,03 1,40 1,36 1,26 1,17 1,06 σp σo r 0,00 0,03 0,17 0,35 0,70 0,00 0,03 0,17 0,35 0,70 δ 0,50 0,50 0,50 0,50 0,50 1,00 1,00 1,00 1,00 1,00 y 1,04 0,96 0,63 0,20 –0,63 2,08 1,98 1,59 1,08 0,07 σp σo calcolato 1,16 1,15 1,11 1,07 1,03 1,41 1,37 1,26 1,17 1,06 Le bobine con un numero di difetti maggiore di quello stabilito dai limiti di specifica, erano scartate automaticamente. L’unità elettronica di controllo, che consentiva questa operazione, era stata installata 2 anni prima, con notevole vantaggio economico, per il ridotto carico di lavoro del collaudo finale. Durante le operazioni di fabbricazione, ad intervalli regolari, veniva prelevato un campione di 5 bobine. Il numero di difetti veniva determinato nuovamente con uno strumento fuori linea. Se si rilevava una differenza significativa tra i valori medi determinati con i dati relativi ai due strumenti, la produzione era interrotta, per tarare lo strumento in linea. Nello stesso periodo, si cominciò a notare una progressiva diminuzione della produttività, per l’aumento del numero di fermate macchina, causate da necessità di taratura. Fu organizzato, quindi, un gruppo di lavoro, con il compito di individuare i motivi tecnici di queste fermate. Il lavoro di qualche mese produsse un notevole miglioramento di stabilità degli amplificatori Statistica & Società elettronici ed una nuova procedura di taratura. La produttività, però, non migliorò, così il problema fu affrontato da una nuova prospettiva. I risultati del lavoro possono essere riassunti dal seguente teorema: “assegnati due strumenti di misura, collegati da una matrice di trasferimento, condizione sufficiente perché si possa osservare una variazione di sensibilità relativa è che vari la distribuzione di frequenza del numero di difetti sul prodotto sottoposto al controllo” che, con riferimento al caso in esame, evidenziava come le variazioni di sensibilità osservate potevano essere indipendenti dallo strumento e condurre, quindi, a fermi macchina non necessari e ad aumenti indebiti degli scarti. In conformità a queste indicazioni fu definita una nuova strategia di controllo. I risultati sperimentali confermarono le previsioni. La discussione del caso, con la dimostrazione del teorema, è contenuta in Cascini (1988). 4. Qualche idea per favorire lo sviluppo dei metodi statistici nell’industria I risultati del paragrafo 2 mostrano un impiego modesto dei metodi statistici. I casi trattati nel paragrafo 3, d’altra parte, sono un esempio della loro utilità, in linea con motivazioni di carattere teorico. Si veda, al riguardo, Zanella (2002). Il problema di come promuoverne la diffusione, quindi, assume, nell’ambito industriale, un particolare rilievo. Un primo provvedimento dovrebbe consistere nella rimozione della causa fondamentale del livello attuale, che, senza dubbio, è proprio l’atteggiamento culturale di certe direzioni aziendali. Una idea, per rimuovere questo ostacolo, potrebbe essere quella di utilizzare, in aggiunta ad attività formative, il processo di certificazione della qualità aziendale, secondo la normativa ISO-9000. Affiancando, infatti, agli ispettori ufficiali, durante le visite ispettive, uno statistico esperto, si avrebbe la possibilità di accertare, in modo affidabile, il livello e la correttezza di utilizzazione di quei metodi statistici, che la norma ISO-9000, anche se soltanto implicitamente, richiede in molti punti del sistema di qualità. Si veda anche Zanella (2002). Si otterrebbe, per ciascun’azienda una diagnosi precisa ed una serie di raccomandazioni cogenti, in grado sicuramente di migliorare la situazione. 9 A questo punto sorge spontanea una seconda idea, che, se realizzata, potrebbe, d’altra parte, favorire il miglioramento del livello tecnico delle applicazioni. Si tratterebbe di creare la figura dello statistico industriale, progettando una laurea specifica in Statistica industriale. Si dovrebbe cercare il modo per poter affiancare ai corsi di Probabilità e Statistica, un certo numero di discipline tecniche, come, per esempio: Fisica Generale, Chimica Generale, Meccanica Applicata, Elettronica, Controlli Automatici. Una conoscenza approfondita di questi contenuti è, infatti, necessaria per affrontare e risolvere in modo soddisfacente le questioni relative alla maggioranza dei processi industriali di natura tecnica. Le fasi di impostazione degli esperimenti e di interpretazione dei risultati richiedono spesso una precisa indagine ed una interpretazione fisica precisa, per risultare veramente utili in termini pratici. Il collegamento tra analisi statistica e modellazione fisica, dovrebbe essere il contenuto di un corso specifico, del tipo: Modelli matematici industriali, con un’ampia raccolta di casi reali e che potrebbe essere affidato anche ad esperti aziendali del settore. Un terzo punto di riflessione è il linguaggio. Lo sviluppo della Statistica sembra procedere di pari passo con quello di un linguaggio sempre più ermetico. Non vi è dubbio che un linguaggio tecnico sintetico può favorire la circolazione dei risultati tra esperti di settori specifici, ma certamente costituisce un ostacolo insormontabile per le applicazioni. Questo problema, d’altra parte non è nuovo nelle Scienze, ed ha da sempre costituito uno dei limiti alla sua diffusione. In Poincarè, (1880, a), per esempio, si può leggere: “Voglio occuparmi solo della forma: e precisamente mi domando se la forma adottata gli permette di conseguire un maggior rigore e se ciò ripaghi gli sforzi che essa impone tanto a chi scrive quanto a chi legge. Osserviamo, tanto per cominciare, che Burali-Forti definisce il numero 1 nel modo seguente: 1 = iT ′{k 0 ∩ ( u, h ) ∈ ( u ∈ Um )} una definizione particolarmente acconcia a dare un’idea del numero 1 a chi non ne avesse mai sentito parlare… sia come sia, Burali-Forti parte da questa definizione per arrivare, dopo un breve calcolo, all’equazione: 1 ∈N 0 la quale ci dice che UNO è un numero…” 10 Statistica & Società Ancora, in Poincarè, (1880, b): “Nel suo articolo “Le classi finite” (Atti della reale accademia delle scienze di Torino, XXXII) Burali-Forti fornisce un’altra dimostrazione del principio di induzione. Ma è costretto ad assumere due postulati. Il primo asserisce che esiste sempre almeno una classe infinita. Il secondo si enuncia nel modo seguente: u ∈ K(K − i ∧) ⋅ u < U ′u Il primo postulato non è più evidente del principio da dimostrare. Il secondo non solo non è evidente, ma è falso, come ha dimostrato Whitehead, e come si sarebbe accorta immediatamente l’ultima delle matricole se l’assioma fosse stato enunciato in un linguaggio intelligibile. Esso infatti significa: il numero delle combinazioni che si possono formare con più oggetti è minore del numero di tali oggetti”. La semplicità e la chiarezza d’esposizione sono condizioni necessarie per rendere applicabili, ove possibile, i risultati della ricerca scientifica. Negli anni ’70 era possibile applicare direttamente i risultati degli articoli pubblicati, per esempio, a cura dell’Associazione Italiana Cultura Qualità. Oggi è impossibile trovare articoli utilizzabili direttamente. A questo proposito potrebbe essere utile realizzare una terza idea: la pubblicazione di casi aziendali risolti con metodi statistici, trattati in modo accessibile, non per i metodi, che potrebbero essere anche molto avanzati, ma per il linguaggio, che dovrebbe mettere in luce il significato pratico della trattazione. È, per fortuna, già avviata un’altra iniziativa, la quarta di questa lista, a cura dell’Associazione Italiana Cultura Qualità-Centronord. Si tratta di due “Masters in discipline statistiche, finalizzate alla gestione tecnica della qualità nell’industria”, che, in poco più di 100 ore, forniscono teoria e pratica dei metodi fondamentali per il controllo e il miglioramento dei processi. Ricapitolando, le iniziative per fornire un impulso rilevante alle applicazioni statistiche, potrebbero essere: • Affiancare uno statistico all’ispettore, nel corso delle visite ispettive per la certificazione del sistema di qualità delle aziende. • Introdurre un corso di laurea in Statistica Industriale, utilizzando esperti aziendali. • Avviare uno scambio d’informazioni tecniche su “casi aziendali risolti con metodi statistici”. • Pubblicizzare i “Masters in discipline statistiche per la gestione della qualità”, promossi dall’Associazione Italiana Cultura Qualità Centronord. Il ragionamento alla base delle idee precedenti è quella di utilizzare l’unica chiave oggi disponibile, vale a dire la normativa di qualità, ISO-9000 , per “accedere” nella realtà industriale e promuovere appropriate applicazioni statistiche; e di non trascurare, nello stesso tempo l’aggiornamento delle professionalità tecniche, da cui devono scaturire, in seguito, i risultati concreti. Prima di concludere è utile soffermarsi ancora un attimo sulla prima delle proposte, per ribadirne la validità, soprattutto per le aziende, in cui il livello di penetrazione della statistica è basso o medio-basso. Per quelle già ad un buon livello, potrebbe essere utile considerare la possibilità di introdurre, per la gestione complessiva, la filosofia e i metodi del SixSigma, che, però, per vastità e specificità, non possono essere presi in considerazione in questa nota. 5. Conclusioni L’obiettivo finale del lavoro era di indicare alcune soluzioni, per risolvere il problema della scarsa diffusione della statistica nell’industria. Prima di farlo è stata effettuata una piccola verifica dell’effettiva esistenza del problema e, con l’ausilio d’alcuni casi reali, della convenienza di risolverlo. Per rendere concrete le idee proposte, occorrerebbe condividerne i contenuti ed avviare un certo numero di processi; l’auspicio è che quest’articolo possa contribuire ad avviare un utile dibattito al riguardo. Riferimenti Bibliografici CASCINI E., (2000), I metodi statistici nel controllo di qualità, Facoltà di Scienze Statistiche-Padova, Simposio: gli incontri della facoltà di Scienze Statistiche, Relazione orale invitata. CASCINI E., (1991), Un criterio per ottimizzare il livello di automazione di una linea produttiva, Automazione e Strumentazione, 9, pp. 137-146. CASCINI E., (2002), Transforming a Random Time Serie in an ARMA Process, Società Italiana di Matematica Applicata e Industriale, Atti del VI Convegno Nazionale, Chia Laguna (CA), CD-ROM. CASCINI E., (1988), Un falso problema di deriva nel controllo di qualità in linea, Qualità, 63, pp. 13-22. POINCARE H.J., (1880 a), Scienza e Metodo, Boringhieri, (Torino, 1995), p. 136. POINCARE H.J., (1880 b), Scienza e Metodo, Boringhieri, (Torino, 1995), p. 168. UNI EN – ISO 9001: 2000, (2000). ZANELLA A., (2002), La statistica nell’impresa, in particolare nell’area di tecnologia e produzione, Statistica & Società, n. 1, pp. 24-30. Statistica & Società 11 INDICI DEI PREZZI AL CONSUMO Laura Leoni Dirigente del Servizio Statistiche sui Prezzi – Istituto Nazionale di Statistica Aspetti generali Il sistema degli indici dei prezzi è attualmente costituito da tre indicatori: un indice principale, l’indice nazionale dei prezzi al consumo per l’intera collettività (NIC), e due indici satelliti, l’indice dei prezzi al consumo per famiglie di operai ed impiegati (FOI) e l’indice armonizzato dei prezzi al consumo per i paesi membri dell’Unione europea (IPCA). L’indice principale (NIC) misura la variazione nel tempo dei prezzi dei beni e servizi acquistabili sul mercato e destinati al consumo finale di tutte le famiglie presenti sul territorio nazionale. Il FOI misura le variazioni nel tempo dei prezzi dei medesimi beni e servizi, destinati ai consumi delle famiglie aventi come persona di riferimento un lavoratore dipendente non agricolo. L’indice armonizzato è prodotto in ciascuno stato membro dell’Unione europea secondo una metodologia sviluppata dagli statistici europei sotto la guida di Eurostat: esso misura la variazione dei prezzi dei beni e servizi che hanno regimi di prezzo comparabili nei diversi paesi dell’Unione. Rispetto agli indici nazionali, questo indicatore presenta notevoli differenze concettuali che verranno successivamente discusse. I tre indicatori assolvono a funzioni differenti, ma scaturiscono da una medesima rilevazione dei prezzi, che viene effettuata in gran parte dagli Uffici comunali di statistica dei capoluoghi di provincia, e nella restante parte dall’Istat. Essi hanno la medesima base territoriale (i comuni capoluoghi di provincia), utilizzano le stesse procedure di calcolo (indice concatenato di tipo Laspeyres) e si basano sullo stesso insieme ragionato di prodotti (paniere). Differiscono, invece, il NIC dal FOI per la popolazione di riferimento (nel NIC totalità delle famiglie; nel FOI famiglie con persona di riferimento costituita da lavoratore dipendente extra agricolo) e i primi due dall’indice armonizzato per l’aggregato economico considerato. L’indice NIC, poiché ha la copertura più ampia, costituisce lo strumento per la misura dell’inflazione in Italia; il FOI è utilizzato per la rivalutazione delle somme monetarie, costituendo l’indice di riferimento di numerose norme; l’IPCA, infine, è adoperato per misurare la dinamica dei prezzi nei Paesi dell’Unione Monetaria. L’aggregato macroeconomico a cui si riferisce il NIC è rappresentato dai consumi finali individuali delle famiglie residenti (comprese le comunità ed i turisti stranieri) originati da transazioni monetarie effettuate sul territorio economico italiano. I consumi finali individuali includono anche le spese sostenute dalla Pubblica Amministrazione (PA) o dalle istituzioni non aventi fini di lucro (ISP) per consumi finali riferibili alle famiglie (medicinali, servizi medici, prestazioni sociali). Sono, invece, escluse tutte le spese per le quali non viene pagato un corrispettivo monetario e per le quali nei Conti Nazionali viene stimato un valore figurativo. Poiché l’indice è riferito ai beni e servizi acquistabili sul mercato, sono escluse anche tasse, imposte e contributi. Per il FOI, tali consumi sono resi proporzionali alle quote attribuibili alle famiglie di operai e impiegati, sulla base dei dati dell’indagine sui consumi delle famiglie. L’aggregato economico di riferimento dell’IPCA è l’insieme dei beni e servizi rientranti nelle spese monetarie per consumo finale individuale (Household final monetary consumption expenditure). Tale peculiarità lo fa divergere dagli altri due indici; in particolare, per il capitolo “Servizi sanitari e spese per la salute”, nell’IPCA sono considerate nel sistema di ponderazione solo le spese effettivamente pagate dalle famiglie (prestazioni di natura privatistica più contributi al Sistema Sanitario Nazionale). Nel NIC e nel FOI, invece, il peso del capitolo è proporzionale all’ammontare delle spese sostenute direttamente dalle famiglie più le spese della Pubblica amministrazione per le prestazioni sociosanitarie. Analoga differenza si riscontra anche nella rilevazione dei prezzi, in quanto per l’IPCA viene rilevato il ticket, ovvero la quota del prezzo di medicine a carico delle famiglie, per il NIC e il FOI il prezzo pieno della confezione di medicine. 12 Statistica & Società Sono inoltre escluse dall’IPCA le spese sostenute per lotterie, concorsi pronostici, lotto e i servizi relativi alle assicurazioni vita. A partire dal gennaio 2002, in applicazione del regolamento comunitario n.2602/2000 del 17 novembre 2000, i prezzi di acquisto considerati ai fini del calcolo dell’indice IPCA devono tener conto delle riduzioni temporanee di prezzo praticate dagli esercenti (sconti, promozioni, ecc.). Il paniere e il sistema di ponderazione La determinazione del paniere e la metodologia di costruzione dei prezzi ad essa associati sono due aspetti strettamente connessi della medesima procedura di definizione delle strutture degli indici. L’insieme ragionato dei prodotti selezionati per rappresentare l’aggregato economico di riferimento viene definito annualmente dall’Istat sulla base di una pluralità di fonti e secondo criteri prefissati. Le fonti principali sono i dati sui consumi delle famiglie elaborati nell’ambito delle stime dei conti economici nazionali, opportunamente adattati al dominio di riferimento degli indici, nonché i dati derivanti dall’indagine mensile sui consumi delle famiglie eseguita dall’Istat. Da gennaio 1999, in accordo con le norme comunitarie, il complesso dei consumi considerati è classificato secondo la nomenclatura COICOP rev.1 (Classification of individual Consumption by Purpose) in 12 capitoli di spesa, 38 categorie di prodotto, 106 gruppi di prodotto. Tale classificazione, adottata sia per gli schemi di contabilità nazionale sia per l’indagine sui consumi delle famiglie, permette l’integrazione di più fonti per la costruzione del sistema di ponderazione e conseguentemente per la definizione del paniere. Negli indici italiani, le 106 voci della classificazione COICOP sono ulteriormente suddivise in 209 voci di prodotto che rappresentano il massimo dettaglio di classi di consumo omogeneo. Ai pesi delle 209 voci di prodotto, che descrivono in maniera esaustiva l’insieme dei consumi considerati e sono la base per le definizioni del paniere, si giunge attraverso una elaborazione dei dati di contabilità nazionale. L’operazione successiva consiste nell’individuare, all’interno di ciascuna delle 209 voci di prodotti, le “posizioni rappresentative”. Il criterio utilizzato per la definizione di tale elenco è quello della prevalenza: sulla base dei dati ricavati dall’indagine sui consumi delle famiglie e dalle altre fonti si in- dividuano per ciascuna voce i singoli prodotti rappresentativi cui corrispondono le maggiori quote di consumo. La scelta tiene conto anche del criterio del peso medio, secondo il quale maggiore è il peso di una voce di prodotto sul totale dei consumi delle famiglie, maggiore deve essere il numero di posizioni rappresentative che contribuiscono a misurare l’evoluzione dei prezzi. Il criterio permette di individuare i casi nei quali il rapporto tra spesa per i consumi e numero di posizioni rappresentative risulta relativamente elevato o relativamente basso. In questi casi si interviene aumentando il numero di posizioni rappresentative o, alternativamente, riducendolo. Si tratta di un principio che non può essere utilizzato in modo automatico ma che va contemperato con considerazioni specifiche riguardanti le caratteristiche dei prodotti inclusi in ciascuna voce: ad esempio, nel caso di energia elettrica, acqua, gas, carburanti di autotrazione, il criterio del peso medio perde di significato. Tutte le informazioni raccolte sono integrate in un quadro unitario, all’interno del quale si effettua la scelta dei prodotti da inserire nel paniere e di quelli da eliminare. La selezione si basa, come si è visto, su valutazioni quantitative e qualitative. In particolare, i criteri della prevalenza e del peso medio sono utilizzati per una valutazione quantitativa del grado di rappresentatività dei singoli prodotti e del grado di copertura delle corrispondenti voci di prodotto. I risultati delle analisi quantitative permettono di verificare la fondatezza delle valutazioni di carattere qualitativo suggerite dagli Uffici Comunali di Statistica. La fonte principale per la definizione del sistema di ponderazione per gli indici dei prezzi al consumo è costituita dalle stime dei consumi finali delle famiglie prodotte dalla contabilità nazionale. Una volta determinati con riferimento alle 209 voci di prodotto, i pesi derivati dalle stime di contabilità nazionale non vengono più modificati. Tutte le altre fonti utilizzate nella determinazione dei pesi (compresa l’indagine sui consumi delle famiglie) servono unicamente per disaggregare i dati sui consumi forniti dalla contabilità nazionale, al livello di dettaglio necessario per il calcolo degli indici. In particolare, le fonti secondarie vengono utilizzate per calcolare le quote percentuali di spesa da attribuire a ciascuna voce disaggregata. Si deve, però, tener conto che il peso attribuito a ciascuna posizione rappresentativa non corrisponde all’effettivo consumo che Statistica & Società le famiglie effettuano di quel prodotto, ma all’insieme dei prodotti che vengono rappresentati Oltre alle fonti già citate, vengono prese in considerazione, ai fini della definizione del paniere e dello schema di ponderazione, numerose altre indagini dell’Istat (le altre indagini sui prezzi, l’indagine sul commercio estero, l’indagine sulla produzione industriale, indagine sulle strutture e sulle presenze turistiche ecc.). Tra le fonti non Istat, è da segnalare l’utilizzo dei dati ACNielsen riguardanti il fatturato effettivo delle vendite relative al settore grocery (alimentari e igiene casa) e al settore abbigliamento. Alla fine di tale processo, piuttosto complesso, si giunge all’individuazione delle posizioni rappresentative, il cui numero è variabile nel tempo (ad esempio, esso passa da 568 nel 2002 a 577 nel 2003). Le posizioni rappresentative costituiscono il livello minimo al quale è attribuibile un peso. In altri termini, l’indice complessivo si ottiene come media aritmetica ponderata degli indici delle posizioni rappresentative. Poiché alcune di queste posizioni sono a loro volta formate da più componenti (ad es. la posizione “ortaggi”), nella realtà viene osservato il prezzo di più di 900 prodotti, con una numerosità che varia nel corso degli anni. Unità di rilevazione Attualmente la base territoriale degli indici è formata da venti capoluoghi di regione e da sessantuno capoluoghi di provincia. Nella maggior parte dei comuni che non partecipano all’indagine, sono in svolgimento le attività preparatorie, in vista di un prossimo ingresso nella rilevazione. La definizione delle unità di rilevazione (negozi, studi professionali, …) presso cui effettuare la raccolta dei prezzi spetta agli Uffici comunali di statistica. Essi utilizzano informazioni desunte dai censimenti, dai piani commerciali, dalle anagrafi delle ditte per selezionare l’elenco completo dei punti presso cui effettuare la rilevazione, sulla base di criteri prefissati dall’Istat. Questi riguardano principalmente: – dimensione del Comune; – distribuzione territoriale della popolazione; – tipologia e articolazione degli esercizi commerciali sul territorio: – abitudini di consumo delle famiglie. 13 La rilevazione non grava totalmente sugli Uffici comunali, in quanto per i prodotti che hanno prezzi uguali su tutto il territorio nazionale (tabacchi, periodici ecc.…), per i beni soggetti a continui aggiustamenti di qualità (computer, telefoni, cellulari, ecc.…) e per i servizi il cui godimento non riguarda solo la popolazione del comune interessato (camping, stabilimenti balneari ecc….) la raccolta dei prezzi viene effettuata dall’Istat, anche mediante rilevazioni estese sul territorio. Si deve sottolineare che agli Uffici Comunali viene inviato, ai fini della rilevazione, un elenco di prodotti, in cui ciascun bene o servizio è corredato da una serie di informazioni (“descrizione del prodotto”) che lo specificano (ad esempio: peso, confezione, tipo…); ciò permette l’individuazione, nel territorio nazionale, di beni che non siano dissimili tra loro, ma allo stesso tempo che siano rappresentativi delle varietà più diffuse a livello locale. Per ciascun prodotto, in ogni capoluogo, viene rilevata una pluralità di quotazioni di prezzo riferite alle differenti varietà presenti sul mercato. Il numero varia in funzione della disponibilità dei punti vendita, dell’ampiezza demografica del comune, delle caratteristiche della rete di commercializzazione locale. La rilevazione dei prezzi dei beni e servizi presenti nel paniere avviene con periodicità differenziate tenendo conto sia della natura dei prodotti considerati, sia della stagionalità di alcuni di essi, nonché della variabilità più o meno accentuata dei loro prezzi. Le periodicità sono le seguenti: • bimensile: per i prodotti alimentari freschi (pesci, ortaggi e frutta) e per i carburanti; • mensile: per i rimanenti generi alimentari, gli articoli di abbigliamento e di uso domestico, alcuni servizi personali, articoli vari e combustibili; • trimestrale: in corrispondenza dei mesi di febbraio, maggio, agosto, e novembre per i mobili e gli altri beni durevoli per la casa, e in corrispondenza dei mesi di gennaio, aprile, luglio e ottobre per gli affitti. I prezzi attualmente utilizzati nel calcolo sono raccolti presso circa 29000 unità di rilevazione, alle quali si aggiungono circa 10000 abitazioni per la rilevazione degli affitti; presso queste unità i comuni raccolgono mensilmente una media di 300000 osservazioni elementari 14 Statistica & Società Cenni sulla metodologia di calcolo A partire dal 1999, gli indici si calcolano, secondo le raccomandazioni di Eurostat, utilizzando un indice a catena di tipo Laspeyres, in cui sia il paniere sia il sistema dei pesi vengono aggiornati annualmente. La produzione dell’indice a catena prevede una doppia fase: nella prima gli indici sono calcolati rispetto al dicembre dell’anno precedente (base di calcolo), nella seconda sono riportati in base di riferimento, attraverso opportuni coefficienti. Gli indici vengono diffusi in base di riferimento: attualmente l’anno 1995 per gli indici NIC e FOI, l’anno 1996 per l’indice armonizzato. Partendo dalle singole osservazioni, per giungere al calcolo dell’indice generale, si segue un procedimento sequenziale: • per ciascun prodotto si calcola un microindice, come rapporto tra la singola osservazione e il prezzo del medesimo prodotto nel dicembre dell’anno precedente; • con media geometrica semplice dei microindici di ciascun prodotto, si perviene agli indici elementari di prodotto per ogni capoluogo; • mediante media aritmetica ponderata, con pesi proporzionali alla popolazione residente nelle province della regione, degli indici elementari di prodotto, si perviene all’indice regionale di prodotto; • mediante media aritmetica ponderata, con pesi proporzionali ai consumi di quel prodotto nelle varie regioni, degli indici regionali di prodotto, si ottengono gli indici nazionali di prodotto. Gli indici nazionali per categoria, gruppo, capitolo e quello generale sono ottenuti mediante media aritmetica ponderata con pesi proporzionali ai consumi nazionali per il livello di aggregazione considerato. Agli indici per capoluogo di provincia si perviene, invece, attraverso una sintesi verticale degli indici di prodotto, passando attraverso i vari livelli di aggregazione (voce di prodotto, categorie, gruppo, capitolo). Per ogni capoluogo di provincia partecipante alla rilevazione vengono, infatti, calcolati e diffusi gli indici per capitolo e l’indice generale. Tutti i capoluoghi di provincia appartenenti alla medesima regione hanno la stessa struttura dei pesi, poiché le fonti statistiche utilizzate non consentono il calcolo di coefficienti di ponderazione specifici a livello provinciale. Bibliografia Eurostat [2001], Compendium of HICP reference documents (2/2001/B/5) Lussemburgo A. PREDETTI [2002], I Numeri Indici – Teoria e Pratica, Giuffrè editore Documenti Istat su “dossier Prezzi”, pagina Web, www.istat.it/Economia/Prezzi/index.htm. Statistica & Società 15 INFORMATICA E STATISTICA Gianfranco Galmacci Dipartimento di Scienze Statistiche – Università di Perugia Premessa 1. L’evoluzione dell’hardware Si narra che Thomas J. Watson Sr., fondatore dell’IBM, abbia affermato nel 1943: I think there is a world market for about five computers. Più recentemente nel 1977 Ken Olsen, al tempo Chief Executive Officer della Digital Equipment Corporation, avrebbe dichiarato: There is no reason for any individuals to have a computer in their home. Questi esempi sono molto indicativi sulle modalità con cui l’informatica si è sviluppata nell’arco di circa mezzo secolo e, al tempo stesso, dovrebbero indurre chi scrive sull’argomento a riflettere attentamente nel fare previsioni impegnative. Tuttavia è molto difficile rinunciare alla tentazione di proiettarsi in avanti quando si affrontano temi di tecnologia sia per il fascino che l’argomento esercita su tutti, specialmente quando si pensa al futuro, sia perché spesso ciò è necessario per pianificare attività, strategie e investimenti. La statistica è una delle discipline che hanno tratto enorme beneficio dall’evoluzione dell’informatica; è difficile pensare oggi a metodologie di analisi dei dati che prescindano dall’uso di calcolatori. Il termine “statistica computazionale”, coniato per indicare quei settori della statistica più strettamente connessi con procedure di calcolo automatico, sembra oggi aver perso il suo significato originale perché ormai, in pratica, tutta la statistica è “computazionale”. Ciò nonostante, tra i filoni di ricerca in campo statistico, esistono dei settori di frontiera che cercano di seguire l’innovazione tecnologica per trasferire in campo statistico nuove possibilità e potenzialità offerte dall’informatica o per individuare nuovi approcci metodologici resi possibili grazie alla tecnologia. Nel seguito verranno prima delineate le tappe fondamentali che hanno segnato gli sviluppi hardware e software, successivamente si esaminerà lo stato dell’arte ed alcune linee di tendenza delle tecnologie informatiche per la statistica. L’ultimo paragrafo, infine, è dedicato ad alcune tecnologie che, seppure ancora allo stato di ricerca (ma a diversi livelli), potrebbero rappresentare il futuro sia per le architetture degli elaboratori sia per le tecniche di trasmissione dei dati. I fattori determinanti per la diffusione capillare dei computer ad ogni livello sono stati fondamentalmente due: l’avvento dei microcomputer e, successivamente, la nascita di World Wide Web (Berners Lee, 1989). In realtà sarebbe corretto considerare come pietra miliare la nascita del protocollo TCP/IP (Cern e Khan, 1974) che dette vita ad Arpanet e quindi a Internet, tuttavia la rete rimase per molti anni quasi completamente confinata in ambito accademico e l’esplosione si è avuta solo a partire dal 1993 quando venne rilasciato Mosaic (NCSA, 1993), il primo browser grafico per WWW. L’avvento del microprocessore e la sua evoluzione hanno rappresentato uno degli eventi più spettacolari, soprattutto per la velocità con cui esso è cresciuto e si è diffuso (fatti peraltro strettamente connessi tra loro, grazie alla spinta del mercato). La rilevanza di questo fenomeno giustifica un richiamo delle tappe fondamentali che ne hanno caratterizzato la vita. • 1971: Intel produce quello che viene generalmente riconosciuto come il primo microprocessore, noto come 4004 (o anche MCS-4), costituito da 2300 transistor, con una architettura a 4 bit. Fu disegnato da Federico Faggin (vicentino, laureatosi in fisica a Padova) e usato a bordo del Pioneer 10 • 1974: Intel annuncia il modello 8080, una architettura a 8 bit disegnata ancora da Faggin; fu usato per l’Altair 8800, il primo a prendere il nome di Personal Computer • 1974: RCA introduce il microprocessore 1802, 8 bit con clock a 6,4 MHz, considerato il primo con architettura RISC • 1976: Zilog presenta i modelli Z80 e Z80-H, simili agli 8080, con clock a 2,5 e 10MHz (la società Zilog fu fondata nel 1974 da Faggin, insieme a Ralph Ungerman) • 1976: Motorola presenta i processori 6501 e 6502, simili agli 8080 e molto economici; il secondo fu utilizzato per Apple, Commodore e Atari • 1976: Texas Instruments produce il primo processore con una “reale” architettura a 16 bit, il TMS 9900 16 Statistica & Società • 1978: Intel rilascia il modello 8086 a 16 bit che ottiene un grande successo commerciale (fu utilizzato per l’IBM PC) • 1979: Advanced Micro Devices produce il primo co-processore matematico a virgola mobile, AMD 9511, con una architettura a 32 bit • 1979: Motorola lancia il modello 68000 con la nuova architettura a 32 bit e un clock a 8MHz • 1982: Intel annuncia il modello 80286 a 20MHz con 134.000 transistor: poteva gestire RAM fino a 16Mb • 1985: Intel rilascia il microprocessore 80386 a 33MHz, in grado di indirizzare memorie fino a 4Gb; è il primo processore con modalità multitask reale • 1986: si diffondono le architetture RISC • 1989: Intel mette sul mercato il modello 80486 con 1,2 milioni di transistor • 1992: DEC lancia il microprocessore alpha con architettura a 64 bit • 1993: nasce la serie Intel Pentium che parte da 60MHz con 3,1 milioni di transistor • 1999: AMD rilascia il modello K6-III a 400MHz con 23 milioni di transistor, un processore molto competitivo con Intel • 2000: Intel e Hewlett-Packard annunciano Intel Itanium, un processore con una architettura a 64 bit chiamata EPIC (Explicit Parallel Instruction Computing). • 2002: viene immesso sul mercato un Pentium 4 a 2,8 GHz che contiene circa 55 milioni di transistor. In pratica fino ad oggi la cosiddetta “legge di Moore” è stata puntualmente rispettata. La popolarità di questa “legge” è tale che sembra doveroso ricordarne i termini. Nel 1965 apparve un articolo in cui Gordon E. Moore (fondatore della Intel) prevedeva che per tutti gli anni ’70 la capacità di elaborazione sarebbe raddoppiata ogni anno. Questo ritmo di crescita fu rivisto ed aggiustato più volte fino alla fine degli anni ’80 quando, sulla base di una più consolidata esperienza, si suppose per il decennio successivo un raddoppio ogni 18 mesi. Attualmente tali stime vengono riviste continuamente alla luce delle nuove tecnologie ed i tentativi di proiezione portano a risultati molto suggestivi, di cui però non ci occuperemo. È importante invece sottolineare un elemento caratteristico di questa evoluzione, nell’arco dei trenta anni presi in considerazione i prezzi di mercato dei personal computer sono rimasti costanti. Per valutare meglio questo fatto è necessario considerare i costi in relazione alla capacità di elaborazione delle macchine. Assumendo come unità di misura delle prestazioni il MIPS (Million of Instructions Per Second), il costo per MIPS dai primissimi anni ‘70 ad oggi è passato da circa 100.000 a meno di 1 Euro. Per quanto concerne le prospettive a breve termine, i principali produttori di microprocessori prevedono di raggiungere in un triennio la soglia di 10GHz, mentre per le architetture RISC le previsioni sono ancora più ottimistiche. 2. Il software di base La rapida evoluzione dell’hardware verificatasi durante l’ultimo ventennio è stata ovviamente affiancata da un altrettanto rapido sviluppo del software. Lo sforzo economico prodotto in questo periodo è stato notevole, ma l’interesse che le innovazioni suscitavano e i bassi costi dei prodotti sono stati fattori determinanti per una risposta entusiasta da parte del mercato. Da un punto di vista software, gli eventi più rilevanti e determinanti di questo processo sono stati l’avvento delle interfacce grafiche, lo sviluppo di linguaggi di programmazione orientati agli oggetti e, naturalmente, le applicazioni di rete (in primo luogo World Wide Web). Per esigenze di spazio non è possibile soffermarci su tutti questi aspetti, pertanto ci limiteremo a richiamare i momenti fondamentali che hanno caratterizzato uno dei fatti che, nella storia dei computer, sono risultati più rilevanti dal punto di vista dell’utente: il passaggio da modalità di lavoro “per linea di comandi” alle interfacce grafiche. Nei primi anni ’70 vennero immessi sul mercato i primi terminali grafici destinati a risolvere problemi tecnici e scientifici (progetti di ingegneria, cartografia, rappresentazione di funzioni matematiche, ecc.). La disponibilità di questi nuovi supporti indusse i responsabili della Xerox Palo Alto Research Center (Xerox PARC) a sviluppare un progetto che portò alla realizzazione della prima interfaccia grafica (GUI, Graphical User Interface) in grado di gestire applicazioni tramite un mouse. L’idea in realtà non era completamente nuova, le prime ricerche in questa direzione si devono infatti a Doug Engelbart, che già nel 1968 aveva realizzato un primo prototipo; l’agenzia ARPA (Advanced Research Projects Agency, ente del Dipartimento Statistica & Società di costruttori diversi, e quindi tra loro incompatibili. Nacque così il sistema grafico X-Windows che ben presto fu adottato per tutti i sistemi Unix. Nel novembre 1983 Microsoft annunciò la prima versione di Windows come modulo aggiuntivo del sistema DOS, che fu resa disponibile nel 1985. Un passo significativo fu fatto da Microsoft nel 1995 con il rilascio di Windows 95, e la conseguente scomparsa di DOS come sistema operativo di base autonomo (esso continuerà ad essere presente anche nelle versioni successive ma in modo trasparente per l’utente). Oggi non sono più immaginabili sistemi che non siano basati su una GUI. Tali interfacce, inoltre, hanno stimolato lo sviluppo dei linguaggi orientati agli oggetti rendendo possibile la realizzazione di tutte le applicazioni che oggi conosciamo (anche WWW deve il suo successo alla presenza di interfacce grafiche). In pratica esse hanno cambiato completamente il “volto dell’informatica”, tanto che recentemente è nata anche una nuova disciplina, la Human Computer Interaction, con l’obiettivo di studiare e migliorare “i rapporti” tra l’utente e la macchina. 3. Reti di calcolatori Nei paesi più sviluppati le reti di calcolatori rappresentano ormai una componente fondamentale per le attività quotidiane (spesso irrinunciabile) e quando si parla di reti ci si riferisce implicitamente ad Internet. Il grafico 1 mostra l’evoluzione dei computer connessi alla rete (stime di Network Wizard, 2002): in particolare, nel periodo 1981-2002 si è passati da 213 calcolatori a 162.128.493 (luglio 2002). Nel valutare le informazioni fornite dal grafico è necessario tenere conto del fatto che nel 1993 è stato prodotto da NCSA il primo browser grafico ed è così iniziata l’era di World Wide Web. 200.000.000 150.000.000 100.000.000 50.000.000 Grafico 1: Computer connessi alla rete Internet. (fonte: Network Wizard). 2001 2000 1999 1998 1997 1996 1995 1994 1993 1991 1992 0 1990 della Difesa degli Stati Uniti) si interessò al progetto e per sette anni finanziò un gruppo di ricerca sotto la direzione di Engelbart (la stessa agenzia finanziò parallelamente anche il progetto che portò alla definizione del protocollo TCP/IP, e quindi alla nascita di Internet). Quando, a metà degli anni ’70, terminarono i finanziamenti il gruppo si sciolse e alcuni membri passarono alla Xerox PARC, che poté così disporre del know-how necessario per la realizzazione della prima GUI ufficiale. Inizialmente fu progettato un computer (denominato Alto) in grado di gestire un Word Processor (Gypsy) che costituisce il primo esempio del cosiddetto WYSIWYG (What You See Is What You Get) e che non mancò di suscitare enorme interesse. Successivamente, nel 1981, fu rilasciato un nuovo sistema denominato The Star Office System, molto potente considerati i tempi, ma anche troppo costoso e quindi non competitivo con macchine tipo Apple e IBM PC. In quegli anni Steve Jobs (CEO della Apple) visitò Xerox PARC e rimase impressionato dalla nuova interfaccia grafica (gestione dello schermo mediante icone, finestre, menu a tendina, copia-incolla, ecc.); ben presto Jobs, grazie anche al contributo di alcuni ricercatori passati dal PARC alla Apple, decise di adottare per il sistema Apple Lisa (già in fase di costruzione) un sistema operativo completamente basato su una GUI; questo sistema impressionò il pubblico per le sue caratteristiche, tuttavia esso era basato su un processore Motorola 68000 a 5Mhz e la potenza non era ancora sufficiente per gestire una grafica avanzata; il costo, inoltre, era molto elevato. Parallelamente a Lisa venne iniziato lo sviluppo di un nuovo progetto che doveva portare ad una macchina dello stesso tipo ma di basso costo: Macintosh. Il successo di Macintosh fu quasi immediato, grazie anche ai prodotti software che stavano nascendo (in particolare i prodotti della società Adobe, fondata da alcuni fuorusciti della Xerox). Come è ben noto, l’utilizzo della GUI da parte di Apple e, successivamente, di Microsoft portò ad una lunga contesa con la Xerox, che divenne difficile anche perché non esisteva ancora una legislazione di riferimento (si veda ad esempio Myers, 1995), tuttavia ciò non fermò l’evoluzione di un processo ormai avviato. Nel 1984 il MIT, insieme ad alcuni produttori di computer, lanciò il progetto Athena con l’obiettivo di sviluppare una rete di stazioni grafiche ad uso didattico che mettesse in comunicazione workstation 17 18 Statistica & Società Tuttavia Internet è solo la grande realtà attuale: le reti di calcolatori nascono, infatti, all’inizio degli anni ’60, seppure può essere improprio parlare di reti per quegli anni. L’interesse all’inizio era prevalentemente militare: a seguito del lancio del primo Sputnik da parte dell’Unione Sovietica (4 ottobre 1957), il Department of Defense Americano fonda l’agenzia ARPA con l’intento di recuperare lo svantaggio e di raggiungere un livello di supremazia tecnologica e scientifica applicabile in campo militare. ARPA finanzierà nel seguito molti progetti volti all’interconnessione di calcolatori, ed in particolare quello che porterà allo sviluppo del protocollo TCP/IP. Sia la rete Internet (fino alla fine degli anni ’80 denominata ARPAnet) che altre tipologie di rete cominciano a diffondersi a partire dalla fine degli anni ’70, ma quasi esclusivamente in campo accademico (citiamo ad esempio UUCP, DECnet, BITNET). Gli enti accademici europei si avvalgono di una “donazione” dell’IBM, che mette a disposizione gratuitamente per un biennio tutte le infrastrutture per una rete autonoma, EARN (European Academic Research Network), collegata a BITNET. L’Italia partecipa attivamente fin dall’inizio, collaborando allo sviluppo e alla diffusione delle nuove tecnologie, e nel 1988 lancia il progetto GARR (Gruppo per l’Armonizzazione delle Reti della Ricerca, promosso dalle Università e dai principali enti di ricerca nazionali, CNR, ENEA, INFN e INAF) volto a realizzare una dorsale nazionale e a sperimentare la coesistenza di protocolli diversi. Attualmente il GARR mette a disposizione una infrastruttura con velocità variabili tra 155Mbps e 2,5Gbps (si veda http://www.garr.it/servgarrb/garr-b-servgarrb.shtml) che ormai viene utilizzata solo per Internet. Le tipologie di connessione usate fino ad oggi per le reti sono basate su cavi (linee telefoniche tradizionali e, più recentemente, fibre ottiche) e comportano costi molto elevati, in particolare nei paesi europei. Anche in questo settore comunque i costi sono destinati a scendere grazie alla tecnologia wireless che utilizza ricetrasmettitori a micro-onde (ponti radio). Le velocità di trasmissione consentite da questa tecnologia non sono ancora paragonabili con quelle ottenibili con fibre ottiche, tuttavia diverse università stanno già sperimentando collegamenti wireless su scala regionale per connettere le proprie sedi distaccate a costi accettabili. 4. Informatica e Statistica Probabilmente solo pochi tra i lettori ricordano i tempi pionieristici in cui ci si avvicinava con riverenza ad un calcolatore di dimensioni “notevoli”, con in mano un voluminoso pacco di schede contenente programmi in Fortran e dati, per poi ripartire con tabulati ingombranti e poco gestibili. L’unico supporto software allora disponibile era costituito da qualche subroutine dell’ormai storica SSP (Scientific Subroutine Package) o da qualche raro programma orientato a problemi molto specifici. I primi package statistici sono apparsi negli anni ’60 (BMD nel 1962, SPSS nel 1968) ma, considerato che all’epoca esistevano solo mainframe e minicomputer, il loro utilizzo rimase condizionato alla presenza di “centri di calcolo”, ovvero di strutture grandi e solitamente molto costose. Solo a partire dalla seconda metà degli anni ’80 è cominciato il processo di proliferazione e diffusione di tali prodotti, grazie alla penetrazione capillare dei personal computer ed alla possibilità di realizzare “interfacce grafiche” in grado di facilitare al massimo l’utilizzo di questi prodotti anche per i meno esperti di informatica. Ciò che caratterizza oggi il software statistico, oltre alla potenza e alla larga disponibilità di procedure, è la possibilità di interazione e integrazione con altri prodotti, di produrre grafici di elevata qualità e il fatto che, nella maggior parte dei casi, essi mettono a disposizione semplici linguaggi di programmazione che consentono di sviluppare nuovi algoritmi. In questo modo, e grazie ad Internet, anche le procedure per le metodologie più recenti sono ormai facilmente accessibili. Infatti, sta diventando prassi comune a molti autori rendere disponibili nei siti Web personali, o nei grandi archivi software (ad esempio, Statlib http://lib.stat.cmu.edu), le procedure software relative alle nuove metodologie di analisi parallelamente alla loro pubblicazione su riviste scientifiche. L’informatica ha aperto anche prospettive del tutto nuove per la statistica: metodi come Cluster Analysis, bootstrap e MCMC, per citare solo alcuni dei più noti, potevano essere pensati solo in presenza di adeguati ambienti hardware e software. Da questo punto di vista, comunque, sono ormai moltissimi i settori che si sono sviluppati grazie alla consapevolezza delle risorse di calcolo disponibili, a volte con interessi solo applicativi che, però, talvolta hanno anche aperto la strada a linee di ricerca teorica molto interessanti. Statistica & Società 4.1 Dynamic graphics Fin dagli anni ’70 John Tukey inseguì l’idea di realizzare un ambiente grafico che consentisse una elevata interattività con i dati; in questo modo egli pose le basi della cosiddetta dynamic graphics. Tukey creò anche dei prototipi con macchine appositamente assemblate, peraltro costosissime, che non avevano al tempo alcuna possibilità di impiego al di fuori di laboratori sperimentali. Solo a distanza di circa quindici anni, quando la tecnologia lo ha permesso, sono apparse le prime procedure informatiche che hanno realmente mostrato utilità e vantaggi di questa tecnica. Citiamo a questo proposito JMP (SAS Institute,http://www.jmp.com/product/jmp_intro.shtml), Xgobi (D.F. Swayne, D. Cook, A. Buja, prodotto gratuito, http://www. research.att.com/areas/stat/xgobi/), Ggobi (D.T. Lang, prodotto gratuito, http://www.ggobi .org/), Splus e, soprattutto, XlispStat (L. Tierney, 1990, prodotto gratuito, http://www.stat.umn.edu/ ~luke/xls/xlsinfo/xlsinfo.html). XlispStat in realtà è un ambiente di programmazione ad oggetti per la statistica ma, pur essendo il contesto più avanzato per la dynamic graphics, non ha mai avuto una grande diffusione perché è basato sul linguaggio Lisp, che non può essere certo annoverato tra i più semplici per un “utente generico”. Le potenzialità di questo software possono essere meglio comprese se si pensa agli ambienti di calcolo per la statistica che con esso sono stati realizzati, in particolare Vista (Forrest Young, http://forrest.psych.unc.edu/research/ vistaframes/xls.html) e ARC (Dennis Cook e Sanford Weisberg, http://www.stat.umn.edu/arc), esempio classico, quest’ultimo, di come la dynamic graphics abbia contribuito sia a migliorare le tecniche di analisi dei dati sia ad indicare nuove linee di ricerca (Cook & Weisberg, 1999). 4.2 Calcolo parallelo Un altro settore dell’informatica che sta assumendo importanza per la statistica è quello delle tecnologie per il calcolo parallelo. Alcune metodologie (ad esempio MCMC) o applicazioni specifiche (ad esempio Data Mining) richiedono oggi risorse di calcolo notevoli e tali da giustificare, talvolta, anche l’impiego di calcolatori vettoriali o paralleli. Sebbene in certi casi anche i software commerciali offrano queste possibilità, considerati i costi, in questa sede si farà riferimento solo a soluzioni free software, che peraltro sono altrettanto interessanti e forse ancora più versatili, senza richiedere investimenti di rilievo. Nella nostra comunità scientifica è diventato or- 19 mai piuttosto famoso un software gratuito denominato R (http://www.r-project.com), in pratica un clone di S-plus (http://www.insightful.cm/), alla cui realizzazione collaborano statistici di tutti i paesi. Recentemente sono apparse due interfacce, rpvm (Michael Na Li e Anthony J. Rossini htt:// software.biostat.washington.edu/statsoft/snake/) e Rmpi (Hao Yu http://www.stats.uwo.ca/faculty/yu/ Rmpi), che consentono di distribuire l’esecuzione di una procedura tra più calcolatori (purché opportunamente predisposta per l’elaborazione parallela). In pratica, è possibile utilizzare insiemi di computer Unix o Linux (rpvm include anche sistemi Windows) collegati in rete e ripartire l’esecuzione di una procedura tra tutte le macchine. Solitamente vengono utilizzati a tal fine cluster di processori Intel opportunamente assemblati (architetture Beowulf con sistemi operativi Linux, http://www.beowulf.org/) oppure, più semplicemente, un gruppo di macchine già presenti nel dipartimento ed usate per scopi tradizionali (L. Tierney, http://www.stat.uiowa.edu/~luke/R/ cluster/cluster.html). 4.3 XML Nello scenario informatico internazionale, sempre ricco di nuove proposte, da alcuni anni si discute approfonditamente di approcci unitari per la gestione dei diversi tipi di documenti che popolano il mondo Web. La vertiginosa crescita di questo “mondo” (secondo l’indagine di Netcraft Web Server Survey, i siti attivi nell’Agosto 2002 erano 35.991.815) e la mancanza di adeguati standard hanno infatti determinato una situazione caotica che richiede urgentemente una adeguata razionalizzazione per evitare la presenza di una ingestibile miriade di formati e protocolli diversi e spesso obsoleti. Il problema era comunque prevedibile, tanto che già nel 1996 il World Wide Web Consortium (W3C, http://www.w3.org/) aveva annunciato XML (Extensible Markup Language), poi introdotto ufficialmente nel 1998, con lo scopo di creare uno standard per WWW. Questo linguaggio spesso viene visto come un successore di HTML, in realtà esso è molto di più perché apre la via ad una “gestione globale” dei documenti. Il W3C definisce XLM come un “formato universale per documenti strutturati e dati destinati all’ambiente Web”. In pratica esso consente di strutturare un qualsiasi documento individuando e “descrivendo” tutte le sue parti (ad esempio, nel caso di un articolo, si dovranno individuare titolo, autore, 20 Statistica & Società dipartimento, sommario, paragrafi, formule, grafici, tabelle, ecc., oppure, nel caso di un file di dati, autore o fonte, riferimenti temporali, descrizione, nomi delle variabili, commenti, dati, ecc.). Gli utenti di TeX o di LaTeX troveranno molti di questi concetti piuttosto familiari, anche se per XML i descrittori dei vari “elementi” non sono precodificati, come in TeX, ma assolutamente liberi. Il vantaggio di XML sta nel fatto che, una volta generato il documento, esso può essere memorizzato in un supporto qualsiasi (database, una semplice cartella, ecc.) per essere poi utilizzato nel modo e negli ambienti più diversi (per la pubblicazione su Web, per la stampa, per essere gestito da un Word Processor, ecc.). Il documento è sempre “unico” e indipendente dal tipo di utilizzo; appositi file (DTD, XSL, ecc.), associati al documento XML, dovranno contenere le specifiche necessarie per identificarne la struttura e per indicare i modi in cui le diverse parti del documento dovranno essere visualizzate o trattate, in relazione alle varie esigenze e alla destinazione finale. In che modo però tutto ciò può avere una ricaduta sulla statistica? Anzitutto, con un certo senso di sollievo, il pensiero non può che rivolgersi all’annoso problema di “dati e metadati”, ma non solo. XML sta diventando anche lo standard per unificare i diversi modi con cui i software statistici “leggono” i dati e tutte le informazioni relative (il documento XML può anche contenere le “istruzioni” su come devono essere letti i dati) e al tempo stesso si stanno predisponendo aggiornamenti affinché esso diventi l’unico sistema di scambio di informazioni tra ambienti software diversi. Inoltre, un sistema basato su XML offre vantaggi anche nel trattamento degli output: i risultati possono essere direttamente e facilmente inseriti in altri documenti, qualunque sia la loro natura, oppure tradotti o modificati per garantire la loro compatibilità con prodotti non ancora allineati con questo standard. Al momento i principali prodotti software per la statistica hanno già rilasciato versioni con interfacce XML, per molti altri gli aggiornamenti sono in corso. A conclusione di queste considerazioni va comunque chiarito che XML non può essere ancora considerato completamente operativo. I prodotti software per la gestione di questi documenti, tranne poche eccezioni, sono da considerarsi ancora a livel- lo semi-sperimentale e non è ancora possibile fare completo affidamento su tutti quegli automatismi che sono stati descritti. Gli investimenti e la quantità di ricercatori impegnati in questo campo sono però tali da consentire previsioni molto ottimistiche. 5. Scenari futuri Il futuro dell’informatica è ancora molto incerto: da un lato le tecnologie attuali basate sul silicio sembrano essere non lontane dai limiti massimi consentiti, dall’altro però non sembra che le alternative siano così immediate e affidabili. Parallelamente in quest’ultimo periodo, e a differenza di quanto accaduto nel passato, le tecnologie per la trasmissione dati hanno fatto progressi molto rapidi, forse più rapidi di quanto non sia avvenuto per i processori o per i supporti di memoria di massa. Al momento sembra rilevante citare un recente annuncio da parte IBM concernente la realizzazione di un transistor basato sulla tecnologia SiGe (silicon germanium) in grado di raggiungere una velocità di 210 Gigahertz, migliorando dell’80% le prestazioni e riducendo del 50% i consumi rispetto ai modelli precedenti. L’importanza dell’annuncio tuttavia sta in un altro fatto: fino ad oggi si pensava che fosse impossibile superare la barriera dei 200 GHz! Le linee di ricerca in atto sono comunque molte, alcune incerte e con eventuali prospettive a lungo termine (quantum computer), altre più realistiche, altre ancora ormai in fase conclusiva e sul punto di rilasciare prodotti da immettere sul mercato. Purtroppo non è facile conoscere i dettagli dei vari progetti perché quasi sempre queste ricerche vengono condotte presso aziende private. Nei paragrafi successivi si presenteranno due tipi di progetti (il secondo ormai giunto alla fase di approvazione finale da parte degli organi di controllo americani prima di passare alla commercializzazione dei prodotti) che, per la loro particolare natura, possono suscitare la curiosità scientifica del lettore. 5.1 Quantum Computer A partire dalla prima metà degli anni ’80 alcuni fisici (in particolare Richard Feynman e David Deutsch) hanno posto le basi teoriche per creare un computer basato su alcuni principi della meccanica quantistica; l’idea in realtà non era completamente nuova, tuttavia è da quel momento che si è intravista concretamente la possibilità di ottenere risultati. Statistica & Società I processori attuali sfruttano un sistema “elettrico” che, in base a differenze di potenziale diverse, consente di riconoscere due stati distinti ai quali si associano i valori 0 e 1; l’unità elementare di informazione utilizzata in questo sistema è chiamata bit. La stessa informazione, comunque, potrebbe essere codificata con altre tecniche: due diverse polarizzazioni della luce oppure due diversi stati elettronici di un atomo. In particolare, una particella subatomica può assumere stati di energia discreti o discretizzabili (livelli) e quindi potrebbe essere utilizzata come bit. Per descrivere brevemente l’idea che sta alla base di un quantum computer sarà necessario ricorrere a molte semplificazioni, tuttavia si ritiene che possa essere interessante conoscere, seppure sommariamente, qualcuno dei principi fondamentali di questa tecnologia. Pensando ad un bit costituito da una particella subatomica, dalla meccanica quantistica sappiamo che si possono verificare situazioni “molto strane”: una particella “opportunamente isolata”, oltre allo stato “0” e allo stato “1”, può assumere al tempo stesso “entrambe gli stati” (coherent superposition) e solo quando essa interagisce con “il resto del mondo” (ad esempio entrando in contatto con un’altra particella) il suo stato diventa “fisso”. Quindi un bit di questo tipo, chiamato qubit, può presentarsi al tempo stesso sia nello stato 0 sia nello stato 1 (superposizione). Si consideri ora un registro costituito da 3 bit: utilizzando la logica binaria di un computer tradizionale con tale registro sarà possibile rappresentare uno degli 8 numeri compresi tra 0 e 7, ovvero una sola delle terne (0,0,0), (0,0,1), ..., (1,1,1). Utilizzando invece un registro costituito da qubit, in condizione di superposizione esso assume nello stesso tempo tutti gli 8 valori diversi. Da questo esempio si può estendere la regola generale: un registro con N qubit in condizione di superposizione potrà memorizzare nello stesso tempo 2N numeri diversi. Mediante una “interazione” (ad esempio un raggio laser pulsante) è possibile passare dallo stato di superposizione iniziale a stati fissi diversi, realizzando in tal modo una “elaborazione parallela” delle informazioni contenute nel registro. David Deutsch, che possiamo annoverare tra coloro che più hanno contribuito alle ricerche in questo campo, afferma che in questo modo è possibile effettuare milioni di operazioni per ogni ciclo di calcolo (invece di una sola, come avviene per i computer attuali). La ricerca al momento è particolarmente attiva in due diverse direzioni: da un lato si stanno svilup- 21 pando le basi teoriche (da un punto di vita fisico e matematico) per la Quantum Computation e la Quantum Information (si veda ad esempio Nielsen e Chuang, 2002), dall’altro si conducono esperimenti per la realizzazione di un quantum computer. I centri che lavorano in questo settore sono ormai molti (tra i più rilevanti figurano Los Alamos Labs, IBM Almaden Research Center, CalTech, Stanford University, University of California at Berkeley, MIT, Oxford University): i risultati teorici sembrano essere molto promettenti ma i prototipi sperimentali realizzati mostrano che la strada da percorrere è ancora lunga. A titolo di esempio citiamo l’esperimento più recente condotto presso l’Almaden Research Center della IBM (dicembre 2001): in quel caso è stato realizzato un quantum computer con 7 qubit, costituiti da 5 atomi di fluoro e due di carbonio, utilizzando impulsi di radio frequenza per “programmare” i calcoli (ovvero per cambiare il livello di energia) e tecniche basate sulla risonanza magnetica nucleare per “osservare i risultati” (in pratica la tecnologia utilizzata per esami clinici negli ospedali). I problemi da affrontare sono ancora molti, primo fra tutti il controllo degli errori. Gli esperimenti hanno mostrato infatti che le tecniche usate sono molto sensibili e, in presenza di disturbi, generano molti errori. Sebbene la realizzazione di un quantum computer sia ancora in una fase assolutamente embrionale (e, allo stato attuale, non è detto che questa tecnologia porti realmente a risultati pratici) questo esempio è significativo per comprendere gli sforzi in atto per individuare alternative alla tecnologia attuale. 5.2 Ultra Wide Band (UWB) Il 22 Aprile 2002 la Federal Communications Commission americana ha pubblicato il testo del First Report and Order sulla Ultra Wide Band (UWB) che prevede una sperimentazione ufficiale di 6-12 mesi per la gamma di frequenze comprese tra 3,1 e 10,6 GHz. Questo annuncio, nonostante alcune controversie concernenti possibili interferenze con i sistemi GPS e di telefonia cellulare, apre la strada ad una nuova tecnologia per le comunicazioni wireless che interessa particolarmente l’informatica perché consente la trasmissione di dati via etere a velocità molto elevate (fino a 10Gbps contro le velocità massime attuali che sono dell’ordine di 100Mbps). La UWB utilizza modalità di trasmissione basate su segnali pulsanti anziché su una portante modulata in ampiezza o in frequenza. Le sue origini risalgono agli anni ‘60 (Gerald F. Ross, 1963, 1966) e si basano su una semplice intuizione: in base al ben noto integrale di 22 Statistica & Società convoluzione, le caratteristiche di un segnale in uscita y(t), dato un segnale di ingresso x(t), possono essere univocamente determinate mediante la funzione di impulso h(t) ∞ ∫ y(t ) = h(u)x (t − u)du. ∞ Le prime ricerche sull’impiego di segnali pulsanti furono condotte presso le società Hewlett Packard e Tektronix per la costruzione di oscilloscopi. Negli anni successivi la Sperry Rand Corporation utilizzò questa tecnologia per sviluppare applicazioni radar e per le comunicazioni. Il primo sensitive short pulse receiver fu sviluppato da Robbins (1972) e questa tecnologia divenne nota come baseband, carrier-free o anche impulse; solo nel 1989 lo U.S. Department of Defense utilizzò il nome Ultra Wide Band. Intorno alla metà degli anni ’80 Robert Fontana e Gerald Ross iniziarono una stretta collaborazione, che proseguì per circa undici anni grazie a finanziamenti del Governo Americano, per sviluppare una tecnologia affidabile per le comunicazioni. Attualmente con questa tecnologia è possibile trasmettere e ricevere segnali caratterizzati da impulsi di brevissima durata (nell’ordine di qualche decina di picosecondi) e di potenza così bassa da essere assimilati ad un rumore di fondo. Riferimenti bibliografici BAYKO J. (2002), “Great Microprocessors of the Past and Present (V 12.3.0)”. http://www3.sk.sympatico,ca/ jbayko/cpu.html. BENNETT C.H., BRASSARD G., CREPEAU C., JOZSA R., PERES A., WOOTTERS W. (1993). “Teleporting an Unknown Quantum State via Dual Classical and EPR Channels”. Phys. Rev. Lett. vol. 70, pp 1895-1899. BERNERS LEE T. (1989), “Original proposal for a global hypertext project at CERN”. http://www.w3.org/ History/ 1989/proposal.html. BONE B., CASTRO M. (2002), “A Brief History of Quantum Computing”. http://www.doc.ic.ac.uk/~nd/surprise_97/ journal/vol4/spb3/. C ENTRE FOR Q UANTUM C OMPUTATION (2002), http:// www.qubit.org/. CERF V.G., KAHN R.E. (1974), “A protocol for packet network interconnection”. IEEE Trans. Comm. Tech., vol. COM-22, V 5, pp. 627-641. COOK R.D., WEISBERG S. (1999), Applied Regression Including Computing and Graphics. John Wiley & Sons, New York, http://www.stat.umn.edu/arc/. GALMACCI G. (1996), “Analisi statistica dei dati e nuove tecnologie”. Atti della XXXVIII Riunione Scientifica della SIS. vol. 1, pp. 391-402. G ERSHENFELD N., C HUANG I.L. (1998). “Quantum Computing with Molecules”. Scientific American, 6. http://www. sciam.com/1998/0698issue/0698gers henfeld.html. IBM (2001), “IBM Test-Tube Quantum Computer Makes History: First demonstration of Shor’s historic factoring algorithm”. http://www.research.ibm.com/ resources/news/2001 1219_quantum.shtml. INTEL (2002), “A History of the Microprocessor”. http :/ /www.intel.com/intel/intelis/museum/exhibit/ hist_micro/. MOORE G.E. (1965), “Cramming more components onto integrated circuits”. Electronics, April 19, pp. 114-117. MYERS B.A. (1998), “A Brief History of Human Computer Interaction Technology”. ACM interactions. Vol. 5, no. 2, March, pp. 44-54. http://www-2.cs.cmu.edu/ ~amulet /papers/uihistory .tr.html. N ETCRAFT (2002), “Web Server Survey”. http:// www.netcraft .com/Survey/ NETWORK WIZARD (2002), “Internet Domain Survey”. http:/ /www.isc.org/ds/. NIELSEN M.A., CHUANG I.L. (2002), Quantum Computation and Quantum Information. Cambridge University Press, Cambridge, UK. ROBBINS K. (1972), Short Base-band Pulse Receiver. U.S. Patent No. 3,662,316. ROSS G.F. (1963), The transient analysis of multiple beam feed networks for array systems. Ph.D. dissertation, Polytechnic Institute of Brooklyn, Brooklyn, NY. ROSS G.F. (1966), “The transient analysis of certain TEM mode four-port networks”. IEEE Trans. Microwave Theory and Tech., Vol. MTT-14, No. 11, pp. 528-547. STEANE A.M. (1997), “Quantum computing: Introduction”. http://eve.physics.ox.ac.uk/Personal/steane/ qcintro.html. T IERNEY L. (1990), LISP-STAT: An Object-Oriented Environment for Statistical Computing and Dynamic Graphics. John Wiley & Sons, New York, http:// www.stat.uiowa .edu/~luke/R/cluster/cluster.html. WHITE S. (2001). “A Brief History of Computing”. http:// ox.compsoc.net/~swhite/history/timeline-INDEX.html. ZAKON R.H. (2002), “Hobbes’ Internet Timeline v5.6”. http://www.zakon.org/robert/internet/timeline/. Statistica & Società 23 SULL’USO DI METODI SOGGETTIVI NELLA “PIANIFICAZIONE SOCIALE PARTECIPATA”: VERSO LA “DEMOCRAZIA CONTINUA” Antonio Pacinelli Università G. d’Annunzio Sommario Nel lavoro è proposto un approccio alla rilevazione del fabbisogno sociale ed alla pianificazione del soddisfacimento dello stesso, utilizzando metodi da esperto, metodi da rappresentanza e metodi della partecipazione (anche elettronica.) Introduzione Nelle democrazie rappresentative il problema della manifestazione delle volontà individuali si risolve per mezzo del voto, saranno poi i rappresentanti ad interpretare in senso politico le preferenze individuali dei cittadini1. Le preferenze individuali, però, contano poco, almeno fino a che non riescono a costituirsi in gruppi di pressione. Prendere in considerazione il percorso che, partendo dalla Democrazia rappresentativa e per mezzo della Democrazia elettronica, conduce alla Democrazia diretta prima ed alla Democrazia continua dopo, vuole dire ridare voce alle preferenze individuali, in un’ottica di “campagna elettorale permanente”2. Questo è il senso del presente lavoro che, nella prima parte presenta gli approcci principali alla rilevazione di beni e servizi pubblici e nella seconda una rassegna di metodi utili per la pianificazione sociale “partecipata”. Infine nella terza parte viene proposto un processo decisionale pubblico che utilizza i “metodi da esperto” per definire lo scenario esplorativo, i “metodi delle rappresentanze” per definire quello “normativo” ed i “metodi della partecipazione” per “calibrare” il “desiderata”. 1. Dal macrodato al microdato: la “partecipazione” e gli errori che ne discendono In letteratura troviamo due approcci alla rilevazione dei beni e servizi pubblici: quello basato sul 1 2 Purtroppo spesso si sono affermati sistemi di rappresentanza volti più ad interessi particolari che generali. Per il concetto di “Campagna elettorale permanente”, si veda Roncarolo, 1994. “macrodato” e quello fondato sul “microdato”. Nell’area dei macrodati rientrano metodi come quello dell’elettore mediano e quello dei determinanti della spesa pubblica, (input di questi metodi sono macrodati provenienti, ad esempio, dai bilanci), mentre nell’area dei microdati troviamo il metodo della domanda ideale ed il budget game (basati sul microdato, perché si rivolgono direttamente ai cittadini) (Pacinelli, 1995a). Purtroppo, come accade per il macrodato, caratterizzato dalla distorsione di Teibout, anche il microdato è fonte di errori. Non parliamo dei consueti errori derivanti dalla costruzione dell’immagine semplificata (pertinenza, esaustività, etc.) o dal disegno di campionamento (errore di campionamento, etc.), ma di un tipo di errore connesso alla figura del rispondente e di esso ci occupiamo brevemente nel seguito. In particolare Wicksell (1896) riconosce che in presenza di un servizio indivisibile in unità di vendita e di consumo, un attore razionale avrebbe nascosto le proprie preferenze perché, ritenendo ed essendo nei fatti il proprio contributo irrilevante, avrebbe cercato di trarne beneficio senza pagarne i costi. Questo fenomeno venne in seguito chiamato il “problema del free rider”, ossia di colui, che non manifesta sinceramente le proprie preferenze per i beni collettivi, per non pagarne il costo, o comunque pagarlo solo in parte (Schneider, Pommerhene, 1981). Mentre il free rider è un errore proprio dei metodi della partecipazione, altri errori derivano dai metodi da esperto/rappresentanza. In particolare il “face to face” comporta gli errori di “leadership” e di “gruppo pensiero”, adeguatamente contrastati rispettivamente dall’isolamento dei partecipanti (come acca- 24 Statistica & Società Prima di parlare di pianificazione sociale, si ritiene opportuno precisare che essa coinvolge necessariamente la questione del futuro (Kaplan, Skogstad, Girshick, 1950). A tale proposito appare necessaria un’ulteriore precisazione, che evidenzi un futuro unico e certo, a fronte di un futuro prevedibile multiplo ed incerto (Marbach, Mazziotta, Rizzi, 1991). La scienza per spiegare e prevedere usa il procedimento logico denominato nomologico-inferenziale, sintetizzato dall’approccio hempeliano, in cui la spiegazione di un evento o di una classe di eventi (explanandum) viene ricondotta (o inferita da) a una classe di condizioni fattuali rilevanti e di leggi (explanans). La norma di carattere generale che deve valere per tutti i metodi nomologici inferenziali, è l’identità logico strutturale tra l’attività di spiegazione e quella di previsione (Isernia, 1987). Si pensi, ad esempio, ai modelli Arima, in cui i risultati dell’attività di spiegazione (ottenuti mediante le funzioni di autocorrelazione parziale e globale), sono utilizzati per identificare l’ordine del modello che si userà per la previsione. Gli approcci alla previsione possono essere ricondotti ad almeno due macro aree, una prima che può essere considerata previsione oggettivaclassica o scientifica in senso forte, mentre un secondo tipo di previsione è quella soggettiva-anticipativa o scientifica in senso debole. Nella prima concezione si postula una identità logico-strutturale tra attività di previsione e attività di spiegazione, nella seconda no (Isernia 1987). Alcuni autori prendono in considerazione anche una terza area di metodi definiti “sistemici” (Gordon, 1994), oppure “ibridi” (De Nardis, 1999), riconducibili all’uso congiunto di entrambi gli approcci e contenente gli scenari4. Tra i vari criteri di classificazione presenti in letteratura, quello sintetizzato da Gordon (1994) ripartisce i metodi di previsione in: oggettivi o deterministici, quali l’analisi moderna delle serie storiche, modelli econometrici, etc.; soggettivi, quali metodo Delphi, Cross-Impact, etc.; sistemici quali gli scenari. I metodi soggettivi si possono distinguere in: metodi di convergenza delle opinioni, in cui viene strutturata la comunicazione (Delphi, Shang); metodi di impatto, in cui viene strutturato il problema (Event-impact, Cross-Impact, Trend-Impact). Ai precedenti, specie per quel che concerne la definizione del “desiderata”, ci sentiamo di aggiungere i metodi della Partecipazione (Glen 1978, 1994). I metodi soggettivi utili per effettuare una “pianificazione sociale partecipata” sono molti, per questo motivo e per fornire anche qualche riferimento bibliografico, si è pensato di riportare nel seguito alcuni dei metodi soggettivi in questione. In questo lavoro si propone un utilizzo integrativo dei metodi da espero con quelli della partecipazione, basata sia sulla finalità del metodo (convergenza di opinioni, valutazioni d’impatto, etc.), che sulle fonti delle valutazioni (rappresentanti delle parti sociali e/o delle comunità, esperti, cittadini comuni, etc.). Lo spazio a disposizione e le finalità introduttive del lavoro, hanno suggerito di riportare la sottostante tabella, contenente alcuni dei metodi in questione e qualche riferimento bibliografico, mentre quel che concerne la teoria e le applicazioni si veda la bibliografia allegata (Pacinelli, 2002). 3 4 de nel Delphi) e dalla controversia costruttiva di Trysold3. In questo lavoro si riprende l’approccio basato sui microdati, evidenziando l’importanza dei metodi della partecipazione, al fine di pervenire ad una pianificazione delle politiche d’intervento sociali fondate sulla partecipazione degli interessati (Pacinelli, 2001). Infine è bene precisare che l’approccio contenuto in questo lavoro non deve essere confuso con la “concertazione”, perché mentre quest’ultima è basata sul confronto tra “Rappresentanti delle parti sociali”, i metodi della partecipazione, si rivolgono alle persone coinvolte dall’intervento. Infine aggiungiamo che, nel protocollo proposto in questo lavoro per pervenire alla “pianificazione sociale partecipata”, vengono comunque largamente utilizzati i “Rappresentanti delle parti sociali”, anche se sotto forma di Testimoni Privilegiati (Fabbris, 1990). 2. Una rassegna di metodi soggettivi per la pianificazione sociale partecipata Wicksell propose come soluzione il ricorso alla regola dell’unanimità (utilizzata anche da Glen nel Futures wheel). Secondo questo criterio ciascuna voce del bilancio, con il relativo onere finanziario può essere approvata solo se vi è l’unanimità o la quasi-unanimità. Invece di generare una terza area, in questo lavoro si è preferito far riferimento all’integrazione di metodi, per spiegare anche la questione degli scenari. Statistica & Società Tab. 1: Metodi soggettivi per la pianificazione sociale partecipata. Metodi soggettivi Riferimento bibliografico Metodi per convergenza opinioni (comunicazione strutturata) Delphi Mini Delphi Markov-Delphi Shang Nominal Group Techniques Abacus Delphi IperDelphi Dalkey N., Helmer O., 1963 Helmer O., 1972 De Groot, 1974 Ford D.A., 1975 Delbecq, Van DaVen, Gustafson, 1975 Régnier F., 1983 Bolognini M., 2001 Metodi d’impatto: event, cross e trend impact Gordon-Hayward Gordon-Hayward, 1968 Ksim Kane, 1970 Futures Wheel Glen J.C., 1972 Explor-Sim Duval, Fontela e Gabus, 1974 SMIC ‘74 Duperrin J.C. e Godet M., 1975 Interax Enzer S., 1980 Ez-Impact. Bonnicksen Micmac Godet M., 1985 Mactor Godet M., 1985 Brauers-Weber Brauers-Weber, 1988 Trend Impact Analysis (TIA) Futures group AA.VV., 1994 Gksim Gong J., Otsubo K., 1996 Futures Polygon Pacinelli A., 2001 Metodi classici della Partecipazione Charrette Emery F., 1960 Opinion polling; Budget Games Mueller, 1963; AA.VV. Public Delphi, Policy Delphi Turoff M., 1970 Syncon Hubbard B., Whiteside J.,1971 Gruppi Focus AA.VV. Metodi elettronici per la Partecipazione Groupware Turoff M.,1960 A.R.P.A.NET. Pentagono 1961-69 Issue Based Information System Horst R., 1970 Consensor o PC Voter Vedi Futures group Multi User Dungeon (MUD) AA.VV. anni ‘80 Chat; Unchat AA.VV.; Barber B., 1984 Community networks (freenets) Grunder, 1984 Minipopulus Dahl R., 1989 Thirdvoice Eng Siong Tan anni ‘90 BITNET Computeserve Vedi Krol, 1992 Electronic Town Hall AA.VV. USA 1992 MN-Politics Stato Minnesota, 1994 Minitel Governo francese Mailing list; Newgroup; Forum AA.VV. Bullettin Board System AA.VV. Internet relay Chat AA.VV. NetConference Plus Bolognini-Nordfors, 2000 U.R.C.I. Pacinelli A., (in corso di stampa) Altri metodi Relevance Trees, Morph. Anal. Zwicky F., 1947 Genius Forecasting Lenz R., ante 1960 Technological Forecasting Erich J., 1967 Decision Models Vedi Futures group, 1994 Decision Analysis, D. A. tree Vedi T.J. Gordon, 1994 Technology Sequence Analysis Vedi T.J. Gordon, 1994 Scenarios AA.VV. System Dynamics AA.VV. Simulation Systems AA.VV. 25 – Metodi per la convergenza delle opinioni. Lo scopo di questi metodi è quello di far convergere le opinioni, ottenendo il restringimento dell’intervallo di variazione delle stesse. Tutti i metodi presentati si ispirano al capostipite Delphi, realizzato per la prima volta da Dalkey ed Helmer presso la Rand Corporation e basato sulla “comunicazione strutturata”, che è un elemento fondamentale della Democrazia elettronica (Bolognini 2001). Il metodo Delphi si è diffuso in ritardo, rispetto alla sua sperimentazione, per motivi di sicurezza, poiché esso riguardava l’armamento futuro degli USA (convenzionale, atomico o combinazione dei due). In questo lavoro i metodi per la convergenza delle opinioni, basati sulla comunicazione strutturata, vengono proposti sia per restringere l’intervallo previsionale suggerito dagli Esperti (scenario esplorativo), che per far convergere le opinioni dei Rappresentanti di Comunità o delle Parti sociali (scenario normativo). – Metodi d’impatto. Ad avviso dello scrivente, è possibile ricondurre i metodi d’impatto a tre aree distinte: event impact (ad esempio il Futures wheel), cross impact5 (ad esempio il Ksim) e trend impact (ad esempio la TIA) (Pacinelli, 2002a). L’ipotesi alla base dei metodi d’impatto è che nessuno sviluppo avviene isolatamente, esso è reso più o meno possibile dalla realizzazione di altri eventi6. In questo lavoro si suggerisce il ricorso alla event impact per analizzare le conseguenze degli impatti degli eventi, alla cross impact per studiare le traiettorie verso il futuro e selezionare lo scenario esplorativo ed alla TIA per individuare gli effetti degli impatti di un set di eventi sul trend di serie storiche. – Metodi della partecipazione: Il voto fu, sicuramente, la prima forma di partecipazione pubblica nei processi politici. Negli anni ’60 e ’70 si imposero moderni metodi di partecipazione come “Charrette”, “Syncon” e altre varie forme di comunicazione computerizzata. Si tratta di tecniche integrative disegnate per e rivolte ad una sezione trasversale del pubblico e a comunità professio5 6 I metodi di cross-impact sono quelli maggiormente riscontrabili in letteratura e sono riconducibili ad almeno tre diversi approcci: di simulazione (Gordon 1969), euristico (Turoff 1972, Duval, Fontela e Gabus 1974) e di ottimizzazione (Duperrin, Godet 1975). Infatti, il verificarsi di un certo evento può esercitare un’influenza inibente o accrescente nei confronti di un altro evento. 26 Statistica & Società nali volte ad identificare fatti, possibilità future, aspirazioni comuni. Tali interazioni possono generare consenso su obiettivi generali tattiche e strategie di azione. Questi metodi ci potrebbero guidare sul percorso che conduce al “desiderata”, ossia alle caratteristiche dello scenario normativo. Infatti i metodi della partecipazione possono utilizzare con grandi vantaggi lo strumento dello scenario. Ad esempio, immaginiamo di mostrare ad un gruppo di persone uno scenario, che descriva le conseguenze delle attuali politiche, e di chiedere a loro se il quadro che emerge è desiderabile. Non abbiamo inserito il problem solving e le tecniche che lo accompagnano, perché diamo per scontato il loro uso. Analogamente si ritiene indispensabile il ricorso al “futures problem solving” per sciogliere i nodi della pianificazione. 3. Dallo Scenario Esplorativo al “desiderata”: verso la “partecipazione elettronica” Il termine Scenario deriva dal canovaccio della Storia dell’Arte, in cui l’attore di fronte all’imprevisto, era autorizzato ad usare l’immaginazione. In letteratura esistono molti tipi di scenari (contrastati, estremisti, issue oriented, etc.), ma la distinzione tra scenari esplorativi e normativi (ricomponibili nello scenario progettuale) è la più consona agli obiettivi di questo lavoro. Nella costruzione degli scenari sono noti due approcci: quello formalizzato e quello non formalizzato, il primo consente la costruzione degli scenari tramite la cross-impact (Gordon-Hayward, 1968, Godet 1979, Brauers-Weber, 1988), il secondo contiene due tipi di scenari, uno tendenziale (trendbased-scenarios) e l’altro contrastato (contrasted scenarios). Entrambi gli ultimi due scenari sono esplorativi, mentre gli scenari anticipativi sono in genere normativi. I primi sono basati sull’analisi dei possibili effetti sul futuro di certe azioni effettuate nel presente. I secondi presentano futuri alternativi del sistema ed analizzano i percorsi che potrebbero condurre ad essi, la combinazione tra gli scenari esplorativi (o tendenziali) e quelli normativi (o anticipativi) costituisce un tipo di scenario detto progettuale (obiettivo di questo lavoro). Infatti la pianificazione sociale richiede due tipi di previsioni: futuri possibili, costruiti in assenza di nuove politiche sociali e futuro desiderato. La pianificazione è l’attività che tenta di realizzare il futuro desiderato (o “desiderata”) che ricade entro il range dei futuri possibili, in modo da rendere questo futuro normativo più probabile degli altri. In altre parole, la molteplicità di futuri che costituiscono il “prevedibile”, cioè il range dei possibili futuri, è detta scenario esplorativo, la previsione del futuro desiderato costituisce lo scenario normativo. La pianificazione contempla le ricerche di politiche che portano a previsioni descrittive più in linea con le previsioni normative. Ad esempio la pianificazione è il processo di identificazione delle politiche che, se seguite, renderebbero le Politiche sociali coincidenti con il “desiderata”. In questo lavoro si propone un percorso basato sull’integrazione di Tecniche, che conduce ad un “desiderata” che, in virtù dei metodi adottati, può essere definito “partecipato”. Nella prima fase, destinata alla definizione del “presente” (ossia la base del cono del plausibile secondo l’approccio francese, Godet, 1990), dopo la consueta applicazione dell’Albero delle pertinenze, si potrà adottare l’Analisi strutturale. Infatti, la previsione esplorativa ritrae i futuri che sembrano possibili, considerando l’azione o l’inazione degli attori (Mactor), degli sviluppi esterni e delle dinamiche interne al sistema oggetto di studio (Micmac). Così come per l’applicazione dei metodi dell’Analisi strutturale si ricorre agli Esperti, utilizziamo la stessa fonte soggettiva per individuare le traiettorie verso il futuro (Delphi, Ksim, etc.) e le immagini del futuro contenute nello scenario esplorativo (si pensi, ad esempio, alla costruzione delle matrici di compatibilità di più eventi nello stesso scenario nel metodo di Brauers-Weber, operazione comunemente affidata ad Esperti). Ottenuto lo scenario esplorativo, nella seconda fase bisognerà definire quello normativo ma, trattandosi di questioni sociali, lo si dovrà fare coinvolgendo gli Attori ed i rappresentanti della società (Pacinelli, 1995b). Al fine di generare il precedente coinvolgimento, nel protocollo proposto, si distingue tra “scenario normativo” e “desiderata”. È noto che in letteratura l’uno è usato come sinonimo dell’altro, ma nel nostro caso abbiamo preferito distinguere, per poter mostrare come sia ben diverso l’uso di metodi da rappresentanza, dall’uso di metodi della partecipazione. Ad esempio, i primi possono essere utilizzati per individuare gli elementi di un possibile scenario normativo, mentre i secondi possono fornire una “calibratura fine” dello stesso, che conduca all’effettivo “desiderata” dai cittadini (terza fase). In definitiva i metodi da esperto, in genere usabili anche con i rappresentanti delle comunità (o rappresentanti politici), forniscono lo scenario esplorativo (esperti) e quello normati- Statistica & Società vo (rappresentanti politici), mentre i metodi della rappresentanza (cittadini, imprese, etc) conducono al “desiderata”. I precedenti metodi, che genericamente definiamo “metodi della Consultazione”7, ben si prestano per la progettazione di piattaforme informatiche per la Democrazia elettronica che, proprio per la sua finalità necessita di metodi garantiti dalla strutturazione della comunicazione e dei problemi. Alludiamo evidentemente ai “metodi da Esperto”, ai “metodi di Rappresentanza” ed ai “metodi di Partecipazione”, che possono essere applicati in diversi contesti dell’e-Government e dell’e-Governance. Alcuni di questi metodi sembravano quasi inapplicabili, dato l’enorme dispendio di risorse umane e finanziarie che necessitavano ma, con l’avvento di Internet, essi possono costituire un importante serbatoio metodologico per la realizzazione di procedure finalizzate alla “Democrazia elettronica”. Il fenomeno chiamato Computer Mediated Communication (Groupware è il termine comunemente usato) da Murray Turoff, l’inventore della conferenza tramite computer, che negli anni ’60 sperimentò il metodo Delphi su network, indica un particolare tipo di software predisposto per connettere gruppi di persone, allo scopo di farle collaborare ad uno stesso progetto. In tal modo, grazie ad Internet, gruppi situati anche a grandi distanze possono interagire con altri individui, ma non è questo l’unico vantaggio. La facilità di accesso al sito che contiene il software, consente di raggiungere un’ampiezza della partecipazione di gran lunga superiore al numero di esperti usati da Turoff, o a quella ottenibile con i metodi della partecipazione classici. Per questo motivo si è diffusa l’idea che il ricorso a metodi elettronici finalizzati alla partecipazione, possa trovare ampia diffusione nel futuro, fino a modificare sensibilmente gran parte dei processi decisionali attuali. Secondo Bolognini (2001), dopo alcuni anni di sperimentazione i servizi di democrazia elettronica risultano ininfluenti rispetto ai processi decisionali, caratterizzati da flussi di comunicazione frammentari e quasi 7 Per consultazione si intende l’atto, modo, effetto del consultare e del consultarsi, pertanto, con l’azione del consultare si innesca una comunicazione a fini informativi, che non implica la facoltà di decidere. Quindi il consultare coinvolge la necessità di informarsi, mentre l’azione del consultarsi implica la comunicazione. Per questo motivo l’organizzazione di una consulta presuppone almeno un “percorso informativo” (information path) ed una “convergenza di opinioni” (consensor room) (Pacinelli, 2002). 27 sempre inconcludenti. Questo dipende anche dall’inadeguatezza dei sistemi di computer-mediated communication impiegati (forum di discussione, newsgroup, mailing list, etc.), adatti al dibattito normativo e alla costruzione della “comunità”, ma non alla deliberazione e alla decisione. Inoltre, possono stabilire una comunicazione orizzontale (tra i cittadini), ma non una comunicazione verticale (tra cittadini e istituzioni) e consentono di far interagire solo un numero limitato di partecipanti, con un processo di comunicazione troppo elementare. “Ben sapendo che quello delle tecniche non è il solo problema da affrontare…, l’interrogativo che emerge è se sia possibile adottare alcune tecniche più efficaci, che contribuiscano a portare i servizi di democrazia elettronica fuori dalle secche in cui, dopo le prime sperimentazioni, sembrano essersi arenati.” (Bolognini, 2001 pag. 49). In questo lavoro abbiamo cercato di fornire un insieme di metodi di natura soggettiva, utili ai fini della pianificazione sociale e, in larga parte, usabili per espandere le potenzialità metodologiche della Democrazia elettronica. Concludendo, in diverse occasioni si è presentata l’opportunità di applicare alcuni dei metodi esposti in precedenza, in particolare gli ambiti d’intervento riguardavano le politiche sociali di Amministrazioni locali (Pacinelli, 1995, 2001), la pianificazione degli interventi formativi (Pacinelli, 2000a, 2000b, 2002b) e l’orientamento (Pacinelli, 1996). Bibliografia BRAUERS J., WEBER M., (1988). A New Method of Scenario Analysis for Strategic Planning, in: Journal of Forecasting vol.7, Jan-March, pp. 31-47. D ALKEY N.C., H ELMER O., (1963). An Experimental Application of Delphi Method to the Use of Experts, in Management Science, n° 9, pp. 458-467. DE NARDIS P., (1999). Sociologia del limite, Meltemi, Roma. DUPERRIN J.C., GODET M., (1975). SMIC ’74 - A Method for Costructing a Ranking Scenarios, Futures, n. 7. pp. 302-312 ENZER S., (1970). A Case-Study Using Forecasting as a Decision-Making Aid, in: Futures, December, pp. 341362 ENZER S., (1980). Interax: An Interactive Model for Studying Future Business Enviroment, Technological Forecasting and Social Change, Vol. 1-2 and 3. FABBRIS L., (1990). Problemi statistici nella utilizzazione di dati rilevati presso testimoni privilegiati, in “Rilevazione per campione delle opinioni degli italiani”, SGE, Padova,. 28 Statistica & Società FONTELA E., GABUS A., (D UVAL), (1974). Events and Economic Forecasting Models, Futures, Vol. 6, N. 4. GLENN J. C., (1972). Futurizing Teaching vs Futures Course, Social Science Record, Syracuse University, v. IX, n.3, Spring. G ODET M., (1985). Prospective et Planification Stratégique, in: Economica, Paris. (trad. it. Scenari e Gestione Strategica, a cura di Antonio Martelli, IPSOA, Scuola d’Impresa, 1990. GONG J. and OTSUBO K., (1996): Development of the land use/cover change dataset of China, in Eco-Frontier Fellowship, pp.73-81, Research & Information Office, Global Environment Department, Environment Agency of Japan, Tokyo. G ORDON T.J., (1969). “cross-Impact Matrices: an illustration of their for Policy Analysis, Futures, December, pp. 527-531 GORDON T. J., (1994). Trend Impact Analysis, Futures Research Methodology, AC/UNU Millennium Project,. GORDON T.J., HAYWARD H., (1968).Initial Experiments with the Cross-Impact Matrix Method of Forecasting, Futures, v.1, n.2, pp.110-116. GORDON, T.J., HELMER, O., (1964). Report on a Long Range Forecasting Study, RAND Corporation, Santa Monica, California, September R-2982. GROVES T., LOEB M., (1973). Incentives and Public Imputs, Journal of Public Economics, n. 14. GREEN J. R., LAFFONT J.J., (1979). Incentives in Public Decision-Making, Amsterdam,. HELMER O., (1972). Cross-Impact Gaming, Futures June. pp.149-167. ISERNIA P., (1987). Introduzione agli scenari, in: AA.VV. Futuro e Complessità: metodologie per la Previsione di Medio e Lungo Periodo. F.Angeli. KANE, J., (1972). A Primer for a New Cross-Impact Language KSIM, Technological Forecasting and Social Change, V.4, n.2. KAPLAN, SKOGSTAD, GIRSHICK, (1950). The Prediction of Social and Technological Events, Public Opinion Quarterly, Spring. KROL, Ed. The Whole Internet: User’s Guide & Catalog, O’Rielly&Associates, Inc., Sebastopol, California, USA, 1992. MARBACH G., MAZZIOTTA C., RIZZI A., (1991). Le previsioni. Fondamenti logici e basi statistiche, Etas Libri, Milano. PACINELLI A., (1995). “Sulla rilevazione del fabbisogno di beni e servizi pubblici”, Atti incontro Statistica Economica, Napoli, pp.127-133. PACINELLI A., (1995). Un’indagine Delphi sugli illeciti connessi all’attività della Regione Abruzzo, Quaderno di Statistica del D.M.Q.T.E. Univ. G.d’Annunzio n.10. PACINELLI A., (1996). Orientamento e Delphi: un connubio sinergico, Induzioni n.12, Pisa-Roma, pp. 83-99. PACINELLI A., (2000a). Un’indagine previsionale soggettiva sul problema degli immigrati in Puglia, Ministero del Lavoro e della Previdenza Sociale, Commissione Europea, O.S.C.A.R., C.S.E.R., Rapporto Orme Quarta 01 vp2000, Roma.pp.149-232 PACINELLI A., (2000b). Il Disegno della Ricerca nella rilevazione del fabbisogno di formazione, A.Pacinelli (a cura), “Rapporto sull’analisi dei fabbisogni di professionalità delle PMI del Molise”, Fondo Sociale Europeo, Consorform-Trend. PACINELLI A., (2001). Sulla valutazione soggettiva della probabilità di eventi: dal Futures Whell al Futures Polygon, Conv. Società Italiana di Statistica, Univ. Tor Vergata, Roma. PACINELLI A., (2002a). Popolazione e Società: metodi per la pianificazione sociale partecipata, Quaderno del Dipartimento di Studi Aziendali e Sociali, Sezione di Popolazione, Ambiente e Metodi Matematico Statistici n. 5, Università di Siena, Siena. PACINELLI A., (2002b). Nota metodologica all’azione di ricerca sul Distretto industriale Vibrata Tordino Vomano, realizzata per conto dell’Università di Teramo, FSE, Regione Abruzzo, L’Aquila. PACINELLI A., (in corso di stampa). Universal Register for Collective Intelligence (U.R.C.I.), in Nota metodologica all’azione di ricerca EQUAL, area “Patto Chetino Ortonese”, CNA, Chieti. R ÉGNIER F., (1983). Médicament et consumérisme: méthodes et conclusions d’un échange interactif, Prospective et Santé,28. RONCAROLO F., (1994). Controllare i media. Il presidente americano e gli apparati nelle campagne di comunicazione permanente, Angeli, Milano S CHNEIDER F., P OMMERHENE W. W., Free Riding and Collective Action: An Experiment in Public Microeconomics, Quarterly Journal of Economics, n. 96, 1981. THE COMMITTEE FOR THE FUTURE, (1973). Pre-Syncon Information to Section Coordinators, Syncon, Washington, D.C. THE FUTURES GROUP, (1994). Decision Modeling, AC/UNU Millennium Project, Futures Research Methodology,. TUROFF M., (1972). An Alternative Approach to CrossImpact Analysis, Technological Forecasting and Social Change, n.3. TUROFF M., (1970). The Design of a Policy Delphi, in: Technological Forecasting and Social Change n°2, pp. 149-171 ZWICKY F., (1948). The Morphological Method of Analysis and Construction, Courant Anniversary Volume, New York, Intersciences Publish. WICKSELL K., (1896). Finanztheoretische Untersuchyngen and das Steuerwesen Schwen’s, Jena. Statistica & Società 29 “Censimento a scuola”: statistica,… ma non solo Maria Gabriella Ottaviani Coordinatore del Gruppo permanente della SIS per la didattica della Demografia e della Statistica e-mail: [email protected] C’è da augurarsi che molti dei soci che hanno partecipato lo scorso giugno a Milano alla XLI Riunione Scientifica della SIS, abbiano visitato, vicino alla Segreteria della Società, la mostra allestita con alcuni dei lavori prodotti dalle scuole partecipanti al Premio di didattica della statistica, bandito dalla SIS per la migliore attività in occasione del “Censimento a scuola” (cfr. SIS informazioni, Dicembre 2001). Chi l’ha fatto sarà rimasto colpito dall’ingenuità festosa che traspariva dai lavori dei bambini delle elementari – quasi tutti disegni che illustravano brevi testi –, e dalla, oserei dire, professionalità delle presentazioni su CD Rom degli studenti delle scuole medie. Senza dubbio si è trattato di una bella sorpresa anche per quegli statistici che più si interessano alla didattica pre-universitaria della disciplina. Vi sono tuttavia altre testimonianze che i materiali inviati per concorrere al premio permettono di cogliere, si tratta delle 28 relazioni per le scuole elementari e 20 relazioni per le scuole medie prodotte dagli insegnanti che hanno assunto il ruolo di docenti referenti della scuola per l’attività in concorso. Esse raccontano con semplicità cosa ha rappresentato il “Censimento a scuola” per le scuole che vi hanno partecipato. Circa la motivazione dell’adesione al progetto, così scrive la referente dell’Istituto comprensivo di Briatico (Vibo Valentia): «La proposta del “Censimento a scuola” (…) mi è sembrata un’opportunità unica, da non lasciarsi sfuggire per diversi motivi: stimolava gli alunni ad apprendere in maniera divertente ed originale; consentiva di far entrare questo aspetto delle scienze sociali in modo sistematico nel curricolo scolastico; contribuiva a far nascere negli alunni un atteggiamento positivo verso le scienze logico-matematiche che, spesso e a torto, sono ritenute astratte e avulse dalla realtà; suggeriva strumenti e metodologie di ricerca indispensabili per lo studio delle diverse discipline; consentiva l’integrazione delle nuove tecnologie nella pratica didattica; faceva sentire gli alunni, abitanti di un piccolo centro del sud, parte integrante della società dell’intero Paese.». Si tratta indubbiamente di importanti moti- vazioni del “mondo degli adulti”, ma come hanno reagito i bambini in classe? Lo raccontano le referenti dell’Istituto comprensivo di Brusciano (Napoli): «Quando noi insegnanti del modulo di IV elementare delle sezioni (…), abbiamo proposto agli alunni di partecipare al progetto “Censimento a scuola” questi sono rimasti un po’ perplessi… qualcuno pensava di conoscere il significato di questo termine… qualcun altro si sforzava di dargliene uno… poi insieme, e con l’entusiasmo che sempre accompagna i bambini a questa età, abbiamo intrapreso questo “lavoro”.». Sì perché a scuola si lavora, e questo è stato un lavoro difficile, come qualsiasi lavoro si affronti per la prima volta, ma divertente e travolgente come un gioco. È ancora la referente della scuola di Briatico che illumina la scena: «L’entusiasmo, la passione a volte e la serietà sempre, con cui i bambini hanno giocato a fare “gli esperti di statistica” si evince dal lavoro svolto». Come insegnante forse mi sarei “accontentata” di realizzare le stesse attività in modo più semplice… su un quaderno, ma dagli alunni è partita la spinta e l’esplicita richiesta di realizzare un lavoro più organico e completo “… perché così, maestra, ci viene più bello”. Per non deluderli, per non smorzare il loro interesse, mi sono lasciata tanto coinvolgere in questo gioco fino a divertirmi anch’io, nonostante la fatica e l’impegno che richiedeva!». E da Brusciano continuano: «In ogni momento i bambini si sono mostrati interessati, ma soprattutto divertiti, quando formulavano delle domande e realizzavano grafici e diagrammi per ottenere informazioni sulle loro abitudini, sul livello di gradimento per gli spettacoli televisivi e sui libri di lettura non scolastici, sui loro gusti, per conoscere insomma le caratteristiche che contraddistinguono ognuno di loro, ma che comunque li accomunano.». La statistica diviene così viva in classe, come testimoniano le insegnanti del II Circolo didattico di Santeramo in Colle (Bari) che scrivono: «La creatività degli alunni, che per fortuna non ha limiti, ha 30 Statistica & Società saputo cogliere ogni opportunità per spaziare anche nel rigido mondo della “Statistica” fatto di dati, numeri, indici, frequenze…». E la classe diviene un gruppo in cui “si sta bene”, perché in essa si apprende «in clima sereno e culturalmente stimolante» (IV Circolo Didattico di Sanremo – Imperia). In questo ambiente, segnala la referente del VI Circolo Didattico di Brindisi: «I lavori hanno l’impronta molto semplice poiché, sia le modalità organizzative che quelle tecnico-operative ed esecutive, sono state determinate da scelte libere ed autonome da parte dei bambini. Vanno sottolineati, pertanto, la forte motivazione e il grande spirito collaborativo che sottendono alle fasi operative. I linguaggi utilizzati sono stati diversi: da quello iconico a quello grafico, in versi o semplicemente esplicativo ed umoristico. I contenuti trattati e rappresentati lasciano trasparire tanto la competenza acquisita in ordine alla terminologia specifica come statistica, questionario, percentuale, indagine…, quanto la capacità di riconoscere, nell’operazione censuaria, la sua valenza sociale utile a rilevare caratteristiche, fenomeni, situazioni di una popolazione rispetto ad un’altra e costruire, così, la propria identità.». Il riconoscimento della propria identità comporta necessariamente il riconoscimento di quella degli altri e da Osimo (Ancona) la referente del I Circolo testimonia: «Si sono svolti altri lavori applicando la statistica. Interessante è stato il progetto sulla “Multiculturalità e l’accoglienza degli stranieri”. Tramite l’Ufficio Demografico del Comune di Osimo si è avuta tutta la documentazione degli stranieri residenti in Osimo, da cui gli alunni hanno tratto il numero degli immigrati di ciascun paese di provenienza, il numero dei bambini da 0 a 11 anni. Si sono esercitati a ricercare le percentuali da mettere a confronto con i residenti, con gli alunni del I Circolo e della scuola “Bruno da Osimo”. È stato il punto di partenza per incontri e conoscenza di questa nuova realtà osimana.». Anche altrove la classe si è dilatata ad accogliere il mondo esterno, è accaduto ad esempio presso la Scuola elementare di Artegna (Udine) dove: «è stato invitato a scuola il sindaco del Comune che ha illustrato le modalità di svolgimento dei censimenti (della popolazione, dell’agricoltura…) ed ha risposto alle domande formulate dagli alunni.». In questo fervore di attività e di scambio continuo fra bambini e docenti emerge il rapporto fra le varie discipline, che ovviamente i docenti non hanno problemi ad evidenziare. I referenti del I Circolo didattico di Galatina (Lecce) così illustrano il loro progetto: «Le attività progettuali programmate saranno effettuate all’interno del curricolo che, in via prioritaria riguarderà l’ambito logico-matematico, ma al tempo stesso saranno facilmente estensibili a percorsi interdisciplinari che coinvolgeranno gli altri due ambiti dell’azione formativa (ambito linguistico ed ambito antropologico) creando percorsi d’apprendimento attivo basato sull’esperienza diretta.». Ed ancora, la referente dell’Istituto comprensivo di San Martino di Venezze (Rovigo) caratterizza il progetto per il coinvolgimento de «la matematica come materia e in particolare la statistica, unita all’uso delle nuove tecnologie con la conoscenza di nuovi software.». A proposito di tecnologie i bambini di Artegna così esprimono il loro entusiasmo: «Abbiamo imparato ad usare la posta elettronica e con questa abbiamo spedito le nostre domande alle classi quarte di Piovega ed Ospedaletto; con la stessa procedura abbiamo ricevuto le loro risposte e così abbiamo potuto confrontare i vari dati. Abbiamo imparato ad usare un nuovo programma, Excel, con il quale si possono costruire tabelle, fare le somme, le percentuali e perfino costruire i grafici che ci piacciono di più.». L’utilità di questa esperienza è andata ben oltre l’attività proposta. Seguendo la Guida al Censimento a scuola, per cui più di un docente ha ringraziato, «le competenze acquisite sono risultate trasferibili ad altre situazioni e in diversi contesti.» così testimoniano i referenti del II Circolo didattico di Santeramo in Colle (Bari). Tra l’altro il metodo statistico è stato usato con maestria dai bambini del Circolo didattico di Corridonia (Macerata) per rispondere ad una domanda che frullava loro in testa, scrivono: «dopo l’effettuazione del Censimento Generale, noi della V (..) abbiamo voluto renderci conto se, come diceva la nostra insegnante, sull’argomento eravamo informati come e più degli adulti. Nel mese di Dicembre abbiamo intervistato 33 persone comprese tra i 30 e i 60 anni, per la maggior parte donne, e abbiamo posto loro delle domande per verificare se conoscevano l’importanza del censimento e le modalità con cui viene attuato. Abbiamo registrato tutte le risposte, le abbiamo tabulate, abbiamo calcolato le varie percentuali e scelto un diagramma per evidenziare i dati. (..) Alla fine del lavoro ci siamo resi conto che l’insegnante aveva ragione!!!». Si parla tanto di problem-posing e di problem-solving, quale esempio migliore di questo? Ovviamente, il rapporto bambini-adulti più in- Statistica & Società teressante è quello con i genitori, questo emerge vivace dalla prosa delle referenti di Brusciano (Napoli): «Tutto ciò che imparavano lo raccontavano ai genitori ed erano felici perché ne sapevano più di loro, per alcuni momenti si sono sentiti anche “grandi” e “colti” perché conoscevano cose ignorate dagli adulti.». E ciò ovviamente la dice lunga sul livello di cultura statistica nel nostro Paese e sulla necessità di investire in questo campo da parte degli statistici. I genitori sono stati partecipi in più modi. La referente della Scuola elementare Amerigo Vespucci di Roma informa che: «Le famiglie degli alunni opportunamente informate del progetto hanno ben accolto le attività proposte dal censimento nelle classi e si sono mostrate interessate ai lavori realizzati ed esposti nella Mostra.». Molto attivo è stato il coinvolgimento dei genitori del I Circolo di Nardò (Lecce): «Tutte le operazioni si sono concluse con la compilazione, da parte dei genitori, di un “ulteriore questionario”, approntato dagli insegnanti per verificare l’indice di gradimento e di utilità dell’iniziativa, adottata dalla nostra scuola. Da tale indagine, lo studio della Statistica, sotto forma di gioco, è risultato un’attività notevolmente formativa, necessaria alle generazioni del III millennio.». Ciò è stato così chiaro agli insegnanti che molte delle scuole che hanno partecipato all’iniziativa - lanciata per gli studenti che, in IV nel 2000-2001, sarebbero stati in V nel 2001-2002 - l’hanno di fatto estesa anche ai bambini più piccoli, arrivando a coinvolgere anche i piccolissimi di prima, ovviamente nei modi per essi adatti e che i maestri ben conoscono. Passando dalle elementari alle medie, anche se la sostanza resta, il tono indubbiamente cambia. La chiave del cambiamento si legge in evidenza nella prima slide della presentazione in Power Point inviata dall’Istituto comprensivo di Costa Volpino (Bergamo) dove è scritto: «Partecipanti classi 2° (…) (in rosso nel testo); Committente ISTAT (Istituto Nazionale di Statistica) (in nero nel testo)». In effetti alle medie si parla esplicitamente di “gioco di simulazione” come appare nella relazione del referente dell’Istituto comprensivo di Artena (Roma) che sollecita la «divulgazione di strategie simili per trarre dal gioco di simulazione spunti didattici e approfondimento di temi specifici». La proposta del “Censimento a scuola” viene riconosciuta come un “modo di apprendere”. Scrive la referente della Scuola media di Porto Torres (Sassari): « Tutto questo lavoro è stato notevolmente utile perché ha permesso agli 31 alunni di imparare tanti concetti nuovi, seguendo il filo conduttore tratto dalla realtà, con uno scopo ben preciso: un vero e proprio laboratorio di matematica, dove gli alunni sono stati protagonisti. Dal lavoro svolto è stato quindi prodotto, al computer, un libro - documento che contiene i dati e le notizie più importanti raccolti dagli alunni. Alcuni si sono cimentati nella scrittura, altri con i grafici, altri ancora con lo scanner hanno acquisito disegni e fotografie. Non è stato possibile riportare sul libro tutte le attività svolte e le ricerche effettuate; esso è una semplice testimonianza dell’entusiasmo dimostrato nei confronti di un modo nuovo di apprendere.». La statistica viene percepita come un linguaggio, come emerge dalla relazione della referente della Scuola media di Sora (Frosinone): «Dopo aver organizzato la matrice dei dati, i ragazzi si sono sentiti motivati a saperne di più e hanno deciso di continuare il lavoro per visualizzare con strumenti matematici i dati reali, che riguardano la loro persona e gli aspetti della loro vita quotidiana. Così, per gioco, è nato quest’opuscolo che ha impegnato tutta la classe nella costruzione di tabelle, di grafici, nell’uso del computer, nell’acquisizione di un linguaggio ancora per loro sconosciuto». L’interdisciplinarità della statistica è evidente per i legami che molti dei referenti hanno indicati con matematica e scienze, lettere, educazione tecnica. Molte sono state le attività presentate che, prendendo l’avvio dal “Censimento a scuola”, hanno utilizzato la statistica come strumento di indagine. Così l’Istituto comprensivo di Artena ha usato il metodo statistico per un progetto di “Educazione alimentare”, dalla Scuola media di Veglie (Lecce) è arrivato un interessante “Test ecologico”. All’Istituto comprensivo di San Fedele Intelvi (Como) si sono lanciati nello studio de “L’adolescente medio italiano”, riconoscendo però nelle conclusioni che: «La nostra indagine, dato il campione limitato di ragazzi intervistati, è difficilmente comparabile con quella nazionale; tuttavia fornisce dati significativi per la conoscenza della realtà giovanile locale.». Dalla Scuola media “D. Savio” di Potenza è arrivato un lavoro il cui titolo poetico: “Con quali occhi guardiamo il futuro” cela un progetto di ricerca sperimentale. Scrivono le docenti responsabili: «In terza media lo studio delle leggi di Mendel e di elementi di genetica ha creato un ponte tra scienze e matematica ed ha fatto nascere spontaneamente nella classe l’idea di condurre un “Censimento Biologico”, cioè un’indagine statistica su come si manifesta un carattere 32 Statistica & Società ereditario; è stato scelto il carattere “colore degli occhi” perché consentiva una facile rilevazione in tutti i componenti delle famiglie degli alunni attraverso una semplice osservazione, pur presentando qualche elemento di incertezza nell’analisi di alcune sfumature. (Altri caratteri, come ad esempio “gruppo sanguigno”, pur se in assoluto più oggettivi, sono stati scartati sia perché legati ad una maggiore riservatezza individuale sia perché di più difficile rilevazione soprattutto nella generazione dei nonni).» . L’entusiasmo dei ragazzi traspare da tutte le relazioni, ma a livello di scuola media i ragazzi sono più maturi e consapevoli, essi sono attratti dall’uso delle tecnologie e dall’esigenza di comprenderne le potenzialità. Scrive da Pinerolo (Torino) la referente della Scuola media: «I ragazzi hanno lavorato con molto impegno ed entusiasmo, apprendendo un metodo statistico di ricerca e di elaborazione dei dati in modo coinvolgente, con l’utilizzo di strumenti informatici che sono stati alla base di tutto. La statistica è stata l’occasione per imparare ad usare Excel e Power Point, per riflettere sulle abitudini dei ragazzi italiani, per sentirsi un po’ più uguali o un po’ più diversi, a seconda dei casi, al resto dei coetanei.» . La maggior parte delle scuole ha inviato lavori su CD Rom e presentazioni in Power Point. Dalla Scuola media di Villaricca (Napoli) è arrivato un ipermedia con tanto di mappa. L’iniziativa del “Censimento a scuola”, che l’ISTAT ha condotto e finanziato con 200.000, ha raggiunto 126.536 studenti ossia poco più del 10% degli studenti di IV elementare e II media ai quali il censimento è stato rivolto nell’anno scolastico 2000-2001. All’iniziativa la SIS ha partecipato in vari modi: ha portato avanti l’idea, mutuandola da una iniziativa analoga che si era svolta in Nuova Zelanda nel 1990; ha fatto in modo che l’allora Ministero della Pubblica Istruzione e l’UMI ne riconoscessero l’importanza; ha cooperato con l’ISTAT affinché l’operazione raggiungesse i suoi obiettivi didattici. A questo scopo hanno contribuito anche alcuni statistici che si occupano di didattica della statistica e che sono anche membri del CIRDIS: Enzo Lombardo, M. Gabriella Ottaviani, Miriam Pannone. Senz’altro il “Censimento a scuola” ha dato visibilità, nella scuola dell’obbligo, alla statistica e quindi anche alla probabilità. Come scrive il referente dell’Istituto comprensivo di Muro Lucano (Potenza): «La scuola ha (…) il dovere di dare agli alunni gli strumenti per poter “leggere” la realtà in una visione collettiva e per poter effettuare previsioni dei fenomeni; infatti, la trattazione statistica di fenomeni è collegata ad aspetti di probabilità. La probabilità costituisce un settore del pensiero matematico il cui significato può essere sintetizzato dall’affermazione che esso permette “di gestire l’incertezza” utilizzando strumenti che hanno tuttavia un fondamento scientifico. Queste brevi considerazioni permettono subito di affermare come le conoscenze di Statistica e Probabilità possano, o debbano, oggigiorno rientrare in un insieme delle conoscenze culturali di base necessarie ad ogni individuo. Per questi motivi sono ben viste le iniziative anche esterne alla scuola che stimolano alla ricerca statistica.». Il contributo della statistica a scuola è però andato oltre a quello culturale, che pure è importantissimo, lo esplicita chiaramente la referente dell’Istituto comprensivo di Via Vanni di Roma: «Colgo l’occasione per esprimere tutto il mio apprezzamento per questo tipo di iniziative (spero che in futuro ce ne siano altre) che non solo mirano a coinvolgere gli alunni inserendoli concretamente nella realtà quotidiana ma gli attribuiscono, anche, un adeguato senso di responsabilità che, pur se può sembrare minimo, è fondamentale per la formazione culturale e sociale dei futuri cittadini.».