PISA.ch
Schweizerische Konferenz der kantonalen Erziehungsdirektoren
Conférence suisse des directeurs cantonaux de l’instruction publique
Conferenza svizzera dei direttori cantonali della pubblica educazione
EDK
Info
CDIP
Gemeinsames Projekt von Bund und Kantonen
Kompetenzmessung bei den 15-Jährigen
Projet commun de la Confédération et des cantons
Evaluation des compétences chez les jeunes de 15 ans
Progetto comune della Confederazione e dei cantoni
Valutazione delle competenze dei giovani di 15 anni
Agosto 2004
PISA Programme
for International
Student
Assessment
Conferenza stampa
7 dicembre 2004:
Primi risultati
PISA 2003
Contenuto
• Editoriale
• PISA 2003 – Preparazione dei dati
– «Pulizia» dei dati
– Ponderazione
– Calcolo dei punteggi PISA
– Costruzione dell’indice
• PISA 2003 – Presto si conosceranno
i risultati...
• PISA 2003 – Informazioni alle scuole,
per ringraziarle
• PISA 2000 – Rapporto sull’attuazione
delle misure in materia di politica
dell’istruzione
• PISA 2003 – Preparazione dei dati
• PISA 2006 – Opzioni nazionali
• Info
• Indirizzi e pagine Web
Editoriale
Come voi, anche noi siamo impazienti di conoscere i risultati di PISA 2003. Ma solo il 7
dicembre potremo fornirvi maggiori indicazioni.
Abbiamo quindi colto l’occasione di questo
bollettino per informarvi in modo preciso
ma comprensibile sui vari lavori che abbiamo dovuto effettuare negli scorsi mesi
per garantire che i dati analizzati rispecchino
fedelmente la realtà e siano così uno strumento utile.
Qui di seguito, gli esperti competenti del
consorzio internazionale del progetto PISA
vi spiegano le tappe della «pulizia dei dati»,
i motivi della «ponderazione», il principio
dei «punteggi». A ciò abbiamo aggiunto
una breve spiegazione sul calcolo degli «indici», il tutto sforzandoci di mantenere un
linguaggio semplice per operazioni molto
specialistiche e complesse. Speriamo così di
completare opportunamente le vostre conoscenze.
PISA 2003 – Preparazione
dei dati
«Pulizia» dei dati
La «pulizia» dei dati è un’operazione chiave
per assicurare la qualità in PISA. Dati dubbi
possono infatti influenzare l’analisi e rendere i risultati meno attendibili e di conseguenza meno utili. Considerata la natura
pubblica dei rapporti, nei file non devono restare dati dubbi, anche se non influenzano
i risultati dell’analisi.
Esistono varie fonti di dati ambigui. Nella
maggior parte dei casi sono dovuti a errori
di immissione dei dati o a errori dei partecipanti, che hanno scritto un valore impossibile o sbagliato nel questionario. È soprattutto su questo che verte il processo di «pulizia» dei dati. Talvolta vi sono anche errori
di traduzione o di stampa. A scanso di questi errori, PISA ha elaborato rigorose procedure di adattamento, traduzione e verifica.
Ciononostante, questo tipo di errore può
capitare ed essere identificato attraverso
l’analisi statistica durante l’appuramento dei
dati.
Il modo più semplice per trattare i dati ambigui sarebbe quello di eliminare l’intero record contenente valori dubbi. Ciò è però
inaccettabile perché i record eliminati sarebbero considerati allievi assenti, il che ridurrebbe il tasso di partecipazione del Paese.
L’International Study Centre presso l’ACER1
cerca quindi di correggere il maggior numero possibile di incoerenze nella banca
dati. E lo fa in varie tappe.
Innanzitutto, i dati devono essere immessi
nel KeyQuest, uno speciale software fornito
dall’ACER, che produce un messaggio d’errore ogni volta che viene immessa un’informazione sbagliata. Dopo che i dati sono
stati immessi, il software produce anche dei
rapporti di validità che elencano le incoerenze tra i dati e i Centri nazionali sono tenuti a risolvere queste incoerenze prima di
inviare i dati all’ACER.
Dopo l’invio dei dati all’ACER sono svolti
controlli supplementari. Durante il processo
di «pulizia» dei dati, l’ACER invia ai Centri
1
Australian Council for Educational Research
PISA.ch Info
nazionali dei rapporti contenenti i risultati
delle procedure di controllo, invitandoli a
chiarire eventuali incoerenze nella loro
banca dati. Le serie di dati nazionali sono poi
aggiornate man mano in base alle informazioni fornite dai Centri nazionali.
Dopo che l’ACER ha ricevuto tutti i rapporti
di controllo dai Centri nazionali e inserito
tutte le modifiche nella banca dati, alle incoerenze irrisolte nella banca dati PISA (generalmente non più di qualche caso e/o variabile per Paese) si applicano le seguenti regole generali:
− Le incoerenze irrisolte concernenti l’identificazione di allievi o scuole portano
all’eliminazione del record dalla banca
dati.
− I dati di eventuali errori sistematici irrisolti
per un determinato aspetto cognitivo
sono sostituiti dal codice non applicabile.
Se un Paese segnala ad esempio un errore di traduzione o di stampa per un
esercizio nella versione nazionale di un
opuscolo cognitivo, i dati per questo
esercizio sono ricodificati come non applicabili e non saranno utilizzati nelle analisi.
− Se il Paese ha eliminato una variabile nel
questionario sul background, questa è
sostituita dal codice non applicabile.
− Se una variabile nel questionario sul
background è stata modificata dal Paese
e non è ricodificabile nel formato internazionale, deve essere rinominata e la variabile internazionale è sostituita dal codice
non applicabile.
− Tutte le variabili concernenti il background aggiunte o modificate sono trasferite in un file separato, che i Paesi potranno utilizzare per i loro scopi.
Alla Routitsky, ACER
(http://www.acer.edu.au)
Ponderazione
Per capire la ponderazione dei dati di un’indagine bisogna capire la natura e lo scopo
del campionamento. Nella maggior parte
dei casi, quando vogliamo apprendere qualcosa su una popolazione, vari limiti impon-
Agosto 2004
gono l’osservazione di un campione di unità
della popolazione (gli allievi di 15 anni, nel
caso di PISA) e non di tutte le unità. Ma anche se l’osservazione si limita a un campione, il nostro scopo resta quello di dire
qualcosa sulle caratteristiche rappresentative dell’intera popolazione. A permetterci di
farlo è la ponderazione del campione. Se
ogni unità della popolazione aveva una probabilità ben definita di essere selezionata, a
ogni unità del campione è associato un
peso. Il peso, che indica quante unità dell’intera popolazione rappresenta l’unità inclusa
nel campione, è semplicemente l’inverso
della probabilità di selezione. Mettiamo ad
esempio che la popolazione degli allievi sia
composta da 1000 allievi. Se selezioniamo
casualmente 200 dei 1000 allievi, ogni allievo ha una probabilità di selezione di 1/5.
Per ogni allievo selezionato il peso è quindi
di 5. Se sommiamo il peso di tutti i 200 allievi inclusi nel campione, il risultato è 1000,
pari alla popolazione totale. La somma dei
pesi di tutte le unità del campione mostra
che attraverso la ponderazione le unità del
campione rappresentano l’intera popolazione.
In PISA, gli allievi non hanno tutti lo stesso
peso come nell’esempio precedente. Benché pesi uguali siano auspicabili e corrispondano al caso ideale nella concezione di PISA,
per vari motivi si impone una ponderazione
non uniforme. In PISA, infatti, gli allievi non
sono semplicemente selezionati direttamente da un elenco nazionale di tutti i quindicenni. Dapprima sono invece selezionate
le scuole, con le loro probabilità in funzione
del numero di quindicenni iscritti al momento in cui l’elenco della scuola è presentato per il campionamento. Nelle scuole incluse nel campione, all’avvicinarsi del momento della valutazione sono poi selezionati
gli allievi. In circostanze ideali, in questo caso
gli allievi avrebbero tutti lo stesso peso.
Spesso, tuttavia, il numero di quindicenni
per scuola in base all’elenco della popolazione scolastica differisce dal numero effettivo di allievi nella scuola al momento del
campionamento. Siccome le probabilità finali di selezione dell’allievo sono il prodotto
della probabilità di selezione della scuola e
della probabilità di selezione dell’allievo all’interno della scuola selezionata, questa discrepanza nel numero di quindicenni è il
primo motivo per cui il peso degli allievi può
variare. Il secondo motivo principale per cui
la probabilità di selezione degli allievi, e
2
quindi il loro peso, può variare è il sotto o
sovracampionamento intenzionale di particolari gruppi della popolazione di allievi allo
scopo di soddisfare requisiti operativi e/o nazionali. In PISA, spesso gli allievi delle scuole
piccole sono sottorappresentati perché la
loro valutazione presuppone una quantità
elevata di risorse per allievo. Sono invece sovrarappresentati particolari sottogruppi
come le regioni linguistiche o i Cantoni, in
cui è importante raggiungere una grandezza adeguata del campione per ogni sottogruppo. Sono quindi necessarie opportune ponderazioni per garantire che questi
campioni rispecchino effettivamente la popolazione generale.
Oltre alle probabilità di selezione, vi sono altri fattori che fanno variare i pesi. Tra questi,
in PISA quello principale è la mancata risposta delle scuole e degli allievi: le ponderazioni degli allievi inclusi nel campione finale
sono adeguate allo scopo di compensare
eventuali lacune nel campione derivanti
dalle mancate risposte.
Sheila Krawchuk, WESTAT
(http://www.westat.com)
Calcolo dei punteggi PISA
Alle risposte di ogni allievo agli esercizi di valutazione di PISA sono assegnati dei punteggi, utilizzati poi per la classificazione e
l’analisi dei dati PISA allo scopo di valutare
la capacità degli allievi e di ricavarne una misura della competenza nell’ambito di PISA.
Ma come sono determinati questi punteggi?
Gli esercizi PISA sono concepiti per generare
indicatori della competenza. Richiedono dagli allievi risposte classificabili in modo tale
da quantificare la competenza variabile di
base corrispondente all’esercizio. Applicando il metodo della item response theory
(IRT) è possibile stimare sia il grado di difficoltà dell’esercizio che la capacità dell’allievo
di risolvere un determinato esercizio.
La preparazione degli esercizi PISA comprende l’identificazione di tutte le risposte
possibili per ogni esercizio e il raggruppamento di queste risposte in categorie che
presentino un legame razionale con la competenza variabile di base. Gli esercizi a scelta
multipla sono facili da inquadrare – una
PISA.ch Info
delle risposte è quella corretta o la migliore
tra quelle disponibili. Altri esercizi possono
chiedere agli allievi di svolgere un calcolo o
scrivere qualcosa in risposta allo stimolo dell’esercizio. Per questi esercizi, sono stati effettuati test pilota e ampie sperimentazioni
sul terreno per identificare e prevedere la
maggior gamma di possibili risposte degli allievi. Queste risposte prevedibili sono poi assegnate dagli autori dell’esercizio a distinte
categorie, in modo tale che le categorie definite colgano qualitativamente vari tipi di risposta. In alcuni casi, se le risposte sono facilmente identificabili come corrette o sbagliate, può essere definita una dicotomia. In
altri esercizi possiamo considerare corretta
una serie di risposte differenti. In altri casi
ancora può essere identificata una serie di
risposte differenti, alcune chiaramente migliori di altre. Qui possiamo definire varie categorie di risposte, classificate secondo il
grado di correttezza – un tipo di risposta è
chiaramente migliore, una seconda categoria non è altrettanto buona, ma è pur sempre migliore di una terza categoria e così
via.
Le categorie di risposte definite sono descritte nelle guide alla codifica di PISA, che
accompagnano ogni esercizio. In ogni Paese
partecipante a PISA, centri nazionali assumono e formano dei codificatori specializzati, incaricati di attribuire le risposte date
dagli allievi alle categorie di risposte predefinite.
L’analisi dei dati PISA include un’analisi empirica dettagliata di ogni categoria di risposte, per ogni esercizio. In particolare, si stima
la capacità media degli allievi in ogni categoria definita e si paragonano le capacità
medie di tutte le categorie dell’esercizio.
Esperti di statistica verificano che le categorie di risposte siano effettivamente formate
nel modo previsto dagli autori del test – verificano cioè che gli allievi attribuiti a una categoria di risposte «superiore» presentino
una competenza media superiore rispetto a
quelli attribuiti alle categorie «più basse».
Oltre alla classificazione corretta delle risposte, è importante che i gruppi siano effettivamente distinti – e cioè che la capacità media degli allievi di ogni categoria sia chiaramente differente da quella degli allievi delle
altre categorie. Talvolta, se non sono sufficientemente distinte, le categorie possono
essere combinate nella fase di attribuzione
dei punteggi finali.
Agosto 2004
Quando sia gli analisti dei dati che gli autori
dell’esercizio sono convinti che tutte le categorie di risposte restanti sono distinte e classificate correttamente, a ogni categoria
sono assegnati i punteggi finali. Per gli esercizi dicotomici (quelli per i quali sono ammessi due soli valori) alla categoria superiore
(ossia quella della risposta ritenuta corretta)
è assegnato il punteggio «1» e all’altra il
punteggio «0». Per gli esercizi politomici
(quelli con tre o più categorie distinte) alla
categoria più bassa è assegnato il punteggio
«0», alla seguente il punteggio «1» e così
via fino a che a ogni categoria di risposte è
attribuito un punteggio. Nell’ambito dell’analisi dei dati, questi punteggi sono poi
rappresentati in scala per permettere una
valutazione delle difficoltà dell’esercizio e
delle competenze degli allievi. Gli allievi capaci di svolgere correttamente solo gli esercizi più facili ottengono valutazioni più
basse. Agli allievi che risolvono correttamente anche gli esercizi più difficili sono riconosciute competenze superiori.
Per generare gli indici complessi si segue lo
stesso procedimento che si utilizza anche
per calcolare i risultati dei test (item response
theory, IRT). L’agiatezza economica della famiglia è un esempio di indice complesso.
Deriva dalle domande volte a sapere se a
casa si dispone di una lavastoviglie, una
stanza propria, software per l’apprendimento e l’accesso ad internet, come pure il
numero di telefoni cellulari, apparecchi tv,
computer, automobili e bagni.
Il Consorzio internazionale verifica l’attendibilità dell’indice con l’ausilio di modelli di
equazione strutturale e verifica la validità di
ciascun indice tra i Paesi. Gli indici vengono
infine rappresentati in scale ove la media
OCSE corrisponde allo zero e i due terzi degli allievi siano compresi tra -1 e +1 (deviazione standard = 1). I valori negativi – tornando all’esempio – non significano che una
famiglia è povera ma che il suo livello di benessere economico è inferiore alla media
OCSE.
Ross Turner, ACER
(http://www.acer.edu.au)
Costruzione dell’indice
Un indice è una misura statistica, che di
norma si compone di diverse grandezze e
spesso presenta un punto di riferimento (ad
es. indice dei prezzi al consumo). Nel caso di
PISA i dati grezzi dei questionari per gli allievi e dei questionari per le scuole sono trasformati in diversi indici. Le domande che
vanno a formare l’indice sono scelte in base
a riflessioni di natura teorica e precedenti lavori di ricerca. Gli indici PISA – diversamente
da altri progetti – non sono valori sintetici direttamente interpretabili ma sono utilizzati
come fattori per spiegare l’esito del test
PISA. PISA opera una distinzione tra indici
semplici e complessi. I primi derivano da ricodifiche di una o più risposte dei questionari mentre i secondi sono stimati con metodi statistici complessi.
Un esempio di indice semplice PISA è il Paese
di origine. Nel questionario i giovani hanno
dovuto indicare in quale Paese sono nati essi
stessi, la madre e il padre. Raggruppando e
ricodificando queste tre domande si costruisce una nuova variabile che distingue tra
giovani autoctoni, giovani di seconda generazione e allievi stranieri.
3
PISA 2003 – Presto
si conosceranno i risultati …
I risultati delle competenze in lettura e
scienze naturali di PISA 2000 sono stati poco
soddisfacenti per la Svizzera. In particolare
– più che in tutti gli altri Paesi – è emerso che
l’origine sociale e culturale influenza molto
le prestazioni degli allievi.
Questo risultato ha scosso ed ha animato il
dibattito sugli obiettivi e i contenuti formativi ma anche sull’efficacia del nostro sistema formativo, sia nell’opinione pubblica
che tra i responsabili del settore.
Si attendono ora con grande interesse gli
esiti del secondo ciclo, incentrato sulla matematica. E’ nuovamente in programma
un’indagine sul ruolo esercitato dal background personale. Questa volta però sarà la
rilevanza delle istituzioni e del sistema dell’istruzione ad essere al centro delle pubblicazioni nazionali su PISA 2003. Il grande
campione di classi in Svizzera consente di effettuare analisi complesse sui tre livelli rappresentati dall’individuo, dalla classe e dalla
scuola.
PISA.ch Info
Un primo rapporto nazionale sarà pubblicato in concomitanza col primo rapporto
internazionale dell’OCSE il 7 dicembre
2004. Un secondo e più lungo rapporto
nonché una sintesi sono previsti per
l’aprile del 2005.
Oltre agli ambiti tradizionali della lettura,
della matematica e delle scienze naturali,
ora si possono anche dimostrare le prestazioni degli allievi in termini di competenza
nella risoluzione di problemi (problem solving).
Il primo rapporto, di circa 60 pagine, contiene principalmente i risultati della Svizzera
raffrontati a livello internazionale. Nel capitolo tematico incentrato sulle influenze del
sistema scolastico e dell’istruzione sulle prestazioni individuali, invece, si analizza in maniera più dettagliata il campione nazionale
del nono anno e lo si presenta confrontando
le regioni linguistiche.
Nel secondo rapporto si confrontano prevalentemente le tre regioni linguistiche nonché i 14 Cantoni (o loro parti) con un campione supplementare2 e il Principato del
Liechtenstein. In questo raffronto cantonale
interessa valutare il tema centrale «matematica» sulla base dei piani di studio cantonali.
Oltre al capitolo dedicato al rapporto tra i
fattori sistemici e le prestazioni individuali,
questo secondo rapporto contiene un capitolo sull’apprendimento autonomo (e cioè
le strategie di apprendimento, la motivazione e la percezione di sé) e uno sulle valutazioni dei giovani delle proprie conoscenze
e capacità informatiche.
PISA 2003 – Informazioni
alle scuole, per ringraziarle
La partecipazione delle scuole – estratte a
sorte per PISA – non è obbligatoria, per lo
meno in Svizzera. A maggior ragione dunque ci ha fatto piacere anche questa volta
costatare la grande partecipazione delle
scuole (si veda Bulletin PISA.ch del gennaio
2004). Per ringraziarle dell’impegno e della
2
(AG, BE-d, BE-f, FR, GE, JU, NE, SG, TI, TG, VD, VS-d,
VS-f, ZH )
Agosto 2004
fiducia dimostrata, le scuole che hanno partecipato con classi del nono anno a PISA
2003 riceveranno nella primavera del 2005
un’informazione circa i propri risultati.
Termini di paragone per la scuola
PISA 2006 – Preparazione
Estate 2004
Proposta per i campioni cantonali nella
Svizzera tedesca
Questa informazione alle scuole non rappresenta una loro valutazione ma intende presentare i risultati degli allievi testati presso
una scuola e la posizione che questa occupa
(sulla base dei valori medi delle scuole) nella
relativa regione linguistica. Si prevede di presentare i risultati delle scuole in relazione ai
temi matematica, lettura, scienze naturali e
risoluzione dei problemi.
Settembre 2004
Selezione delle scuole per il test
preliminare 2005
PISA 2000 – Rapporto sull’attuazione delle misure in materia di
politica dell’istruzione
Aprile – maggio 2005
Svolgimento del test preliminare 2005
Dopo che il 12 giugno 2003 la Conferenza
svizzera dei direttori cantonali della pubblica
educazione (CDPE) ebbe approvato il piano
d’azione contenente provvedimenti conseguenti a PISA 2000,3 i singoli Cantoni hanno
verificato quali misure attuare nel loro ambito sulla base dei piani esistenti e dei progetti in corso. Si sono avviati lavori analoghi
anche a livello nazionale svizzero (CDPE) e
presso le istituzioni e organizzazioni che sostengono il piano di azione.
I risultati di PISA 2000 hanno dato luogo a
vari dibattiti sulla politica dell’istruzione.
Con un rapporto ad hoc si verificherà in
quale misura le conclusioni di politica dell’istruzione abbiano portato a concreti cambiamenti e il grado di attuazione del piano
d’azione relativo ai provvedimenti conseguenti a PISA 2000. A questo scopo è in
corso attualmente un ampio sondaggio tra
i Cantoni. Il rapporto terrà conto anche delle
misure prese a livello nazionale e quelle attuate dalle istituzioni partner. La pubblicazione del rapporto è prevista per l’inizio di
novembre del 2004.
Heinz Rhyn, Segretariato generale della
CDPE, Direttore del settore di coordinamento sviluppo della qualità.
3
Piano d’azione «PISA 2000-Folgemassnahmen»:
http://www.edk.ch/d/EDK/Geschaefte/framesets/
mainMonitoring_d.html
4
Gennaio 2005
Decisione dei Cantoni della Svizzera
tedesca per un campione cantonale
supplementare
Febbraio 2005
Selezione degli allievi per il test
preliminare 2005
Aprile – maggio 2006
Terza indagine PISA
PISA 2006 – Opzioni nazionali
Sono in corso i preparativi per la prossima indagine PISA-OCSE . I test di scienze, matematica e lettura saranno completati da un
questionario destinato agli allievi (di 15 anni
e/o del 9° anno) e da un questionario destinato alle scuole partecipanti.
Gli istituti di ricerca e gli studiosi che desiderano proporre un modulo supplementare
nell’ambito di questa indagine sono pregati
di contattare al più presto la direzione nazionale del progetto ([email protected],
tel. 032 713 66 42).
Per maggiori informazioni, si può consultare
il documento http://www.pisa.admin.ch
>Français >News.
Le domande devono essere presentate entro l’8 ottobre 2004.
Info
Il comunicato stampa del 7 dicembre 2004
sostituisce il bollettino informativo PISA.ch
del gennaio 2005. Il prossimo bollettino
uscirà nell’agosto 2005.
PISA.ch Info
Indirizzi e pagine Web
Direzione nazionale del progetto
Huguette McCluskey
Ufficio federale di statistica
10, Espace de l’Europe
2010 Neuchâtel
Tel. +41 (0) 32 713 62 41
Fax +41 (0) 32 713 68 57
[email protected]
Segretariato:
Tel.: +41 (0) 32 713 66 42
[email protected]
Homepage:
http://www.pisa.admin.ch
Coordinazione Svizzera tedesca (1)
(AI, AR, BE-d, FL, FR-d, GL, GR-d, SG, SH,
TG)
Christian Brühwiler & Horst Biedermann
Alta scuola pedagogica, San Gallo
Servizio della ricerca
Notkerstrasse 27
9000 San Gallo
Tel. +41 (0) 71 243 94 80
Fax +41 (0) 71 243 94 91
[email protected]
[email protected]
http://www.phsg.ch
Agosto 2004
Coordinamento Svizzera italiana
Myrta Mariotta & Manuela Nicoli
Ufficio studi e ricerche
Viale S. Franscini 32
Stabile Torretta
6501 Bellinzona
Tel. ++41 91 814 63 73
Fax ++41 91 814 63 79
[email protected]
[email protected]
http://www.ti.ch/usr
Tutte le pagine Web collegate direttamente a PISA sono accessibili dalla pagina della direzione nazionale
del progetto
http://www.pisa.admin.ch
I vostri contributi e commenti per le prossime edizioni del bollettino PISA saranno
benvenuti. Vogliate rivolgervi direttamente
alla direzione nazionale del progetto.
Questo bollettino è disponibile anche in
tedesco e francese.
Editore:
Direzione nazionale del progetto PISA.ch
Coordinazione Svizzera tedesca (2)
(AG, BL, BS, LU, NW, OW, SO, SZ, UR, VS-d,
ZG, ZH)
Urs Moser & Simone Berweger
Kompetenzzentrum f. Bildungsevaluation
und Leistungsmessung (KBL)
Wilfriedstrasse 15
8032 Zurigo
Tel. +41 (0) 43 268 39 61
Fax +41 (0) 43 268 39 67
[email protected]
[email protected]
http://www.kbl.unizh.ch
Coordinamento Svizzera francese
Christian Nidegger
Consortium romand PISA
Servizio della ricerca in educazuione
Quai du Rhône 12
1205 Ginevra
Tel. +41 (0) 22 327 74 19
Fax +41 (0) 22 327 57 18
[email protected]
http://www.geneve.ch/sred
5
Scarica

PISA.ch