FISICA/MENTE

 

 

 

http://www.funzioniobiettivo.it/News/PISA/Rapporto%20PISA/Sintesi%20dell%27indagine%20PISA.htm 

SINTESI DELL'INDAGINE PISA

 

INTRODUZIONE
di Tiziana Pedrizzi
ricercatrice IRRE Lombardia

PISA è un’ indagine campionaria internazionale che dal 2000 coinvolge 32 paesi europei ed extraeuropei  e che mira a valutare in quale misura gli studenti di 15 anni, al termine della scuola dell’obbligo, possiedano le conoscenze e le competenze  necessarie per inserirsi in modo attivo nella società. Questa valutazione viene attuata attraverso la verifica dei  livelli raggiunti nelle abilità di lettura, matematica e scienze. Ogni tre anni, a rotazione, il focus dell’indagine viene posto su una delle tre aree e i risultati sono messi in correlazione con altre informazioni relative ad alcune caratteristiche della scuola e degli studenti  esaminati (genere, background familiare e sociale ecc..).

 I risultati di PISA 2000, resi noti nel dicembre 2001, hanno rivelato una situazione seriamente preoccupante per gli adolescenti italiani.

Alcuni dati per orientarci.

L’OCSE azzarda un’individuazione dei fattori che maggiormente influenzano il rendimento scolastico: l’autonomia scolastica, il grado di autonomia dei presidi, l’importanza che gli insegnanti assegnano al successo scolastico, le alte aspettative che esprimono nei confronti dei loro studenti, l’impegno e il livello di soddisfazione che traggono dal loro lavoro, la relazione che hanno con i loro studenti, la disciplina in classe.

Di tutti questi elementi non c’è, a nostro avviso, adeguata consapevolezza nelle scuole e fra gli insegnanti. Per questo condividiamo il giudizio espresso da Norberto Bottani a conclusione del suo articolo “Le competenze scolastiche dei quindicenni” (Il Mulino, n.2, 2002): “ Fatalismo e rassegnazione non sono scusabili: questo mi sembra il messaggio pcipale del PISA. Prima di scaricare le responsabilità dei pessimi risultati sulle spalle di altri, dunque, sarebbe bene ponderare quale sia il peso e la responsabilità della scuola. “

Un colpevole disinteresse

 Mentre molti Paesi, venuti in possesso dei risultati fin  dal luglio 2001, si sono subito attivati per analizzarli e hanno redatto su di essi significativi rapporti ( presentati, come da protocollo, nel dicembre dello stesso anno), in Italia tutto tace.

Soltanto il 28 Maggio 2002 si è avuta una presentazione pubblica dei risultati a cura  dell’Associazione TREELLE. Prima, solo qualche notizia di stampa in dicembre, pochissimi articoli su riviste specializzate, e un’ interessante, ma non riprodotta, comunicazione al Convegno di Milano di Liberal dell’aprile 2002.

Assuefazione ad esiti  mediocri del nostro sistema formativo ormai costantemente evidenziati dalle indagini internazionali? Mitridatizzazione alimentata dallo scetticismo sulla attendibilità di valutazioni derivanti da indagini giudicate troppo quantitative e “fredde” ( prima ancora di conoscerle)? Autismo e riaffermazione di orgoglio nazionale in chiave anti-modernizzazione ?

C’è da domandarsi se questi atteggiamenti siano così profondi e diffusi nel ventre molle della scuola italiana da far sì che il livello istituzionale ed accademico debba ad essi conformarsi.

Eppure non mancano negli ultimi tempi  segnali in controtendenza: la disponibilità ampia della scuole al Progetto Pilota di Valutazione dell’ Invalsi (2800 volontarie e molte in fila su un totale di circa 10.000) e l’interesse vivace e persino eccessivo (perché non ben orientato) sui temi dell’accreditamento regionale e della certificazione di qualità.

Un nuovo ruolo per le Regioni

E’ importante sottolineare che  ora la partecipazione a questo tipo di indagine internazionale si sta aprendo anche per le singole Regioni italiane. Tutte le regioni sono state infatti recentemente invitate a seguire l’esempio di alcune singole regioni e Lander europei che avevano già avviato nel 2000 tale esperienza, affiancandosi ai campioni nazionali. Infatti solo una partecipazione quantitativamente significativa permette un’ analisi attendibile dei dati per i singoli territori dei diversi paesi.

Anche in funzione di questa nuova prospettiva, riteniamo che  oggi sia molto importante che gli insegnanti  italiani conoscano a fondo questo tipo di indagine.

L’importanza di superare antichi pregiudizi

Solo la diretta conoscenza può consentire di superare molti dei pregiudizi che vengono solitamente espressi dagli insegnanti su queste ricerche.

PISA è infatti interessante anche per la sua impostazione.

I posti cui siamo relegati non derivano da risultati di test chiusi di tipo nozionistico, ma al contrario -come dimostrano gli esempi di alcune prove qui tradotte-  da domande che potremmo definire di analisi,  di collegamento e di approfondimento, secondo un’ impostazione che è sempre stata  il cavallo di battaglia, almeno dichiarato, della scuola italiana.

Per tutto questo pensiamo che questo dossier possa essere di grande utilità per i  colleghi e per tutti coloro che si interessano di scuola, un dossier che risulta particolarmente prezioso per il contributo di analisi e di approfondimento fornitoci da uno dei massimi esperti internazionali in materia, Norberto Bottani, al quale va il ringraziamento di tutti noi.


 

Il programma per la valutazione internazionale degli studenti

(Programma PISA dell’OCSE)

Norberto Bottani
Direttore SRED, Dipartimento della pubblica istruzione,
Cantone Ginevra (Svizzera)

LE CARATTERISTICHE DEL PISA

Nella primavera del 2000, 265.000 studenti quindicenni di 32 paesi hanno partecipato ad un’indagine internazionale, PISA, organizzata dall’Organizzazione di cooperazione e sviluppo economici sulle competenze in lettura, matematica e scienze. I risultati di quest’indagine sono stati resi noti nel dicembre 2001, mentre una nuova indagine dello stesso tipo è in cantiere per la primavera del 2003.

Questo ambizioso programma mira ad accertare il livello di competenza nella comprensione di testi scritti e nell’uso di concetti matematici e scientifici alla fine della scuola dell’obbligo. Nel 2000, l’accento è stato posto prevalentemente sulla lettura; nel 2003 sarà sulla matematica e nel 2006 sulla cultura scientifica. Questo vuol dire che in due ore e più di test, ogni volta si riserva la maggior parte delle domande ad uno di questi settori. Le prove mirano ad appurare non tanto quel che si è imparato a scuola, ma come si utilizzano le conoscenze e le competenze apprese a scuola per affrontare, nella vita quotidiana, problemi di natura non scolastica.

L’indagine è molto più complicata di questa descrizione sommaria, ma questo basta per dire che il PISA è senza ombra di dubbio l’operazione scientifica più importante in corso oggigiorno nel settore delle scienze dell’educazione sul piano internazionale. Essa è stata resa possibile grazie all’accordo intercorso tra i paesi dell’OCSE che hanno fornito i fondi necessari per concepire, pianificare, sperimentare, elaborare e condurre una prova su vasta scala, con l’ambizione di raccogliere dati tra loro comparabili.
Questa realizzazione presuppone la creazione di un’infrastruttura efficiente per la raccolta e la verifica dei dati nonché di centri di calcolo potenti per trattarli. Essa soprattutto coinvolge  centinaia di esperti e di ricercatori per la messa a punto dei test e dei questionari e poi per interpretare i dati e scriverne le analisi. I pedagogisti non costituiscono il nucleo prevalente degli specialisti coinvolti in questo lavoro, se al termine “pedagogisti”  assegniamo l’accezione in voga in Italia. Ai lavori partecipano specialisti di varie discipline: economisti, sociologi, psicologi, specialisti di didattica, di statistica, di psicometria, di psicologia sociale, di didattica delle discipline.

A scanso di equivoci, bisogna ribadire che il PISA non è uno sfizio di alcuni comparativisti ma un progetto di ricerca internazionale, comparabile soltanto, per l’ampiezza dei mezzi e per l’ambizione che lo guida, per esempio  ai grandi progetti di ricerca internazionale organizzati nel settore dell’epidemiologia, della sanità, della farmaceutica, della biogenetica.La caratteristica principale del PISA, che lo contraddistingue rispetto ad altre operazioni intraprese negli anni precedenti in questo campo,  é il finanziamento pubblico: il PISA è stato voluto e deciso dai ministeri della pubblica istruzione (uso questa denominazione per convenienza, pur sapendo che le etichette cambiano da un paese all’altro), è finanziato esclusivamente con mezzi pubblici ed è condotto da un gruppo i cui membri sono stati designati dai ministeri. Mai, in precedenza, i ministeri della pubblica istruzione avevano ipotizzato ed accettato di cooperare tra loro nel campo della ricerca pedagogica, poiché tutti ritenevano che i i sistemi scolastici nazionali fossero per natura unici e quindi incomparabili tra loro.

I PRECEDENTI INTERNAZIONALI

       Il progetto INES

Il PISA è un prodotto del progetto dell’OCSE sugli indicatori internazionali dell’istruzione, di cui si celebra quest’anno il decennale. Nell’autunno del 1992, l’OCSE pubblicò il primo insieme d’indicatori internazionali dell’istruzione. La produzione di questo documento fu ostacolata in tutti i modi dai pedagogisti ma conobbe subito un grandissimo successo  e divenne un best seller della pubblicistica internazionale sulla scuola. Per la prima volta fu possibile comparare alcune variabili chiave della scuola nei vari Paesi misurate con criteri comuni.  Questo colpo di mano ( è proprio il caso di utilizzare questa espressione, talmente forte era la coalizione degli interessi che voleva impedire una realizzazione del genere) sfatò il mito della superiorità della scuola di ogni Paese rispetto a quella degli altri e vanificò qualsiasi sentimento di disprezzo e diffidenza nei confronti delle scuole degli altri. Quella pubblicazione decretò la fine dell’isolazionismo scolastico. Questo era appunto il risultato che molti ministeri volevano evitare a tutti i costi per impedire di essere tacciati, presto o tardi, d’incompetenza, di inefficienza o superficialità da chi conosce questi dati. Non è quindi un caso se in taluni Paesi, dopo la pubblicazione di queste informazioni, si faccia di  tutto per  ignorarli.

Quando nel 1992 fu prodotto il primo insieme d’indicatori internazionali del celebre progetto INES dell’OCSE, fu immediatamente denunciata l’assenza d’indicatori sui risultati, in particolare sulle conoscenze e competenze che si insegnano e che si dovrebbero imparare a scuola, a norma di programmi. Gli indicatori davano informazioni sul numero dei diplomati, dei laureati, degli occupati o dei disoccupati in funzione dei titoli di studio, ma non comprendevano nessun riferimento a quel che gli studenti imparavano. Sul piano internazionale non esistevano cioè fonti d’informazione in grado di fornire con regolarità dati attendibili sugli output della scuola. Si sapeva che le intenzioni non corrispondevano alle realizzazioni, che il curricolo ufficiale non era che una pallida copia non solo del curricolo realmente realizzato ma anche e soprattutto di quello appreso, ma non esistevano modalità d’accertamento sistematiche di questi iatus.

Le indagini dell’ IEA

Dagli inizi degli anni Sessanta, l’IEA, l’associazione internazionale per la valutazione dei risultati scolastici (International Association for the Evaluation of Educational Achievement) costituita da una rete di ricercatori che si occupavano del rendimento dei sistemi scolastici, aveva messo in evidenza questo problema e tentava di identificare il sistema scolastico che garantisse un innalzamento dei livelli d’istruzione di tutti gli studenti e una minore disparitàdei risultati tra scuole e tra ceti sociali. L’IEA riuscì a realizzare notevolissime indagini internazionali a tappeto : per esempio, la prima indagine sulle conoscenze in matematica del 1964 coinvolse 130.000 studenti di tredici anni ripartiti in 5.000 scuole di 12 paesi. Purtroppo, i risultati di questi lavori restavano confidenziali e circolavano solo in un cerchia ristretta di persone. I responsabili politici, i docenti, l’opinione pubblica ne ignoravano completamente gli esiti. Occorre anche dire che i ricercatori avanzavano con grande cautela in un campo minato, del tutto nuovo per la ricerca scientifica, e che mancavano le attrezzature tecniche necessarie per trattare in modo rapido la massa di dati raccolta. Ci volevano anni prima di giungere alla pubblicazione dei risultati. Le indagini dell’IEA rimasero quindi un prodotto per addetti ai lavori, ma permisero anche di mettere a punto metodi d’indagine e  tecniche statistiche di trattamento dei dati che divennero d'uso corrente solo più tardi.

Le indagini dell’IAEP

Alla fine degli anni Ottanta, quando ormai ovunque nel mondo si parlava di crisi della qualità dell’istruzione, le difficoltà  dell’IEA  a produrre in modo tempestivo informazioni sugli apprendimenti scolastici indussero il governo americano, che non riusciva a controllare l’IEA, a promuovere un programma concorrenziale in grado di comparare senza ritardi il livello d’istruzione degli studenti americani con quello di altri paesi.

Con un forte finanziamento americano, l’ETS (Educational Testing Service) di Princeton, un’agenzia senza fini di lucro specializzata nella fabbricazione di test, realizzò nel 1989 e nel 1991 due indagini internazionali sulle competenze degli studenti, l’IAEP (International Assessment of Educational Progress), allo scopo di dimostrare che era possibile condurre valutazioni comparate con tecniche meno pesanti di quelle adottate dall’IEA, ma ugualmente rispettose dei  criteri riconosciuti scientificamente validi a livello internazionale.  

La regione Emilia-Romagna  partecipò a quell’indagine e chi  voglia ora avere un’idea del livello al quale si collocavano dieci anni fa gli studenti di questa  regione italiana rispetto a quelli di altri Paesi può consultare quei risultati.

L’esperienza dell’IAEP non fu però totalmente convincente soprattutto perché molti items dei test provenivano da prove strutturate americane e non erano stati convalidati in altri paesi e in altre culture scolastiche.  Agli inizi degli anni Novanta, né l’IEA né l’ETS erano dunque in grado di fornire con tempestività dati sicuri e tra loro comparabili sul profitto degli studenti. Questi due organismi non possedevano l’infrastruttura e l’organizzazione necessarie per gestire operazioni di questo tipo, ma il problema non era tanto di ordine tecnico quanto di natura pedagogica: mancava infatti un forte  consenso su quanto si dovesse misurare e sulle conseguenze, a media e lunga scadenza, di simili valutazioni sui docenti, sui programmi d’insegnamento, sulle politiche scolastiche. Queste erano incognite serie a cui nessuno sapeva rispondere e alle quali non si sa per altro dare una risposta nemmeno ora.

IL FRANGENTE  IN CUI È NATO IL PISA

Il PISA è nato nel frangente sopra descritto,  caratterizzato da :

Gli Stati Uniti non rinunciarono al loro progetto egemonico e si pagarono l’IEA, con un finanziamento straordinario dell’indagine sulle conoscenze in matematica e nelle scienze di tre gruppi d’età diversi (9 anni [terzo e quarto anno di scolarità], 13 anni [settimo e ottavo anno di scolarità], e ultimo anno delle superiori), allo scopo di dimostrare che nell’anno 2000 gli studenti americani sarebbero stati  i migliori al mondo in matematica.

Il progetto TIMSS (Third International Mathematics and Science Study) al quale parteciparono 42 paesi confermò il persistente ritardo degli studenti americani, ma suscitò una serie di indagini satelliti stupende per cercare di capire le ragioni di questo ritardo (per esempio la ricerca sui manuali e sui programmi di matematica dell’Università del Michigan) oppure la ricerca video sull’insegnamento della matematica in classe ( per una analisi dei risultati italiani si veda l’articolo di Angela Martini nel numero speciale degli Annali dell’istruzione pubblicato in occasione degli stati generali dell’istruzione nel dicembre 2001).Il programma PISA deciso e finanziato dai governi degli stati membri dell’ OCSE fu concepito per dare una base solida e almeno in parte neutra a queste valutazioni.
A metà degli anni Novanta, grazie all’IEA e all’IAEP, il terreno era ormai pronto per compiere questo passo e per attingere con regolarità ad una fonte di dati  sulle competenze degli studenti. Nel corso dei lavori preparatori i vari gruppi d’esperti s’imbatterono beninteso negli analoghi problemi e nelle stesse difficoltà incontrati dagli specialisti di psicometria alla testa dell'IEA. La decisione di puntare non più su un’indagine imperniata sulla verifica degli apprendimenti scolastici ma sulla misura della “literacy”, ovverosia sui livelli di competenza nell’uso degli strumenti essenziali della cultura alfa-numerica e scientifica, fu salvifica poiché ha permesso d'inoltrarsi  su nuovi binari, andando però incontro ad un nuovo tipo di problemi mentre se ne evitavano degli altri.     

LE PRIME INDICAZIONI CHE EMERGONO dal PISA

I risultati prodotti dal PISA sono talmente abbondanti che ogni Paese dovrebbe fare la sua propria analisi, in funzione del contesto politico-amministrativo che costituisce l’humus  particolare del suo sistema scolastico. Qui ci limitiamo a mettere in evidenza alcune osservazioni o constatazioni che si possono formulare ad una lettura trasversale dei dati,  attenta a reperire  quei fenomeni comuni che a prima vista si scorgono nei risultati di tutti i Paesi. Prima di giungere a conclusioni definitive, occorrerà però verificare, con analisi dettagliate - per ora non ancora messe in cantiere- la validità e la solidità delle constatazioni rilevate, tra cui:

Una media elevata dei punteggi di un Paese può coesistere con una debole disparità dei risultati. Questo vuol dire che si possono conseguire risultati buoni o eccellenti con tutti, e non solo con i migliori studenti. In altri termini, la selezione non è la sola via per conseguire risultati eccellenti ed inversamente, la non selezione non penalizza l’eccellenza. E’ la prima volta che si riesce a dimostrare la validità di questa asserzione. Se ciò fosse vero, se cioè si riuscirà a comprovare con altre verifiche, altri dati in altri contesti, la giustezza di questa osservazione, allora si dovranno modificare tutte le politiche scolastiche e i metodi di valutazioni che pretendono di selezionare i migliori studenti e di scartare quelli deboli. Per altro, il calcolo delle variazioni dei risultati in funzione del gradiente socio-economico mostra che a gradiente socio-economico uguale i risultati variano da un paese all’altro e da una scuola all’altra, smentendo dunque quella che era ritenuta una legge ferrea del rendimento scolastico, ossia la stretta correlazione tra risultati scolastici eccellenti, selezione scolastica e categoria socio-economica. Il PISA fornisce dati strabilianti in merito che obbligano a riesaminare le teorie sociologiche sulla disuguaglianza scolastica.

Nei Paesi con i risultati migliori, le politiche scolastiche e le scuole presentano le seguenti caratteristiche:

All’interno di uno stesso Paese coesistono  grandi divari tra le scuole.
Quest’informazione, che conferma osservazioni analoghe fatte in altre indagini internazionali dello stesso tipo, è preoccupante perché dimostra l’incapacità dei sistemi scolastici di fornire un’istruzione equivalente su tutto il territorio di propria competenza. Meritevole d’attenzione è poi il fatto che le variazioni tra Paesi sono meno forti di quelle constatate all’interno dei singoli Paesi. Questo significa, per esempio, che è più grave il divario che esiste tra le scuole esistenti in Italia che non tra la media dei risultati degli studenti italiani e quella degli studenti degli altri Paesi.

LE RISPOSTE CHE PISA NON FORNISCE

Per completare il quadro, bisogna anche ribadire che il PISA non fornisce risposte a tutta una serie di domande di natura politica sullo statuto, l’organizzazione, le finalità della scuola.
Per esempio, non si possono usare i dati del PISA per  trattare i temi seguenti :

Questa non è che una lista molto limitata di questioni centrali per le politiche scolastiche alle quali il PISA non fornisce nessuna risposta. Bisogna anche dire che il PISA non è stato concepito per questo scopo, ma solo per raccogliere dati su quel che gli studenti sanno o non sanno alla fine della scuola d’obbligo. Questo obiettivo di per sé è già molto complicato da conseguire.

Non si può pretendere dal PISA  quel che non può dare.  E’ comprensibile che i fautori del PISA siano tentati di valorizzare al massimo l’indagine  e di sfruttarne i dati per dimostrarne le potenzialità, ma da un punto di vista scientifico si corre il rischio di commettere gravi errori quando dai dati raccolti per un certo scopo si estrapolano conclusioni che riguardano problemi di tutt’altra natura.

Come è stato utilizzato il PISA IN ITALIA E IN ALTRI PAESI

La pubblicazione dei risultati del PISA all’inizio di dicembre del 2001 ha suscitato un grande interesse nei ministeri della pubblica istruzione e nella stampa. In molti Paesi, i ministri dell’istruzione hanno tenuto delle conferenze stampa per commentare i risultati nazionali. A questa prima reazione a caldo è seguita nei mesi successivi  tutta una serie di analisi dettagliate pubblicate sotto forma di rapporti nazionali o di studi particolareggiati sulle varie componenti dell’indagine.

·         Il caso Italia
In Italia non è successo nulla di tutto ciò: ad un anno di distanza dalla pubblicazione dei risultati del PISA non è stato pubblicato nessun rapporto sui risultati italiani.
In Svizzera, Germania, Inghilterra, Francia, Stati Uniti si moltiplicano i seminari e i colloqui sui risultati del PISA. In Italia è stata  una fondazione privata, la Treellle, ad organizzare la sola giornata sul PISA, peraltro non una giornata di studio ma un happening promozionale.

 La responsabilità della partecipazione italiana al PISA  era stata affidata al Servizio nazionale di valutazione dell’istruzione, ora INVALSI, diretto dal Prof. Benedetto Vertecchi. La direzione del PISA in Italia era stata assunta dalla Prof.ssa Emma Nardi. Al momento della ricezione dei risultati, nel giugno del 2001, in Italia è cambiata la maggioranza politica : da un governo di centro sinistra si è passati ad uno di centro destra, con un nuovo ministro, Letizia Moratti, che scopre nel corso dell’estate i risultati italiani, mentre “dimissiona” il prof. Vertecchi  dalla direzione del centro di Frascati.

Mancanza di coordinamento, comunicazione insufficiente, conflitti d’interesse,  pregiudizi e prevenzioni di ogni genere, sia a destra che a sinistra,  hanno ostacolato lo sfruttamento del PISA .
Per l’ennesima volta, non è la prima volta che capita in Italia,  la connessione tra ricerca e politica viene meno, proprio nel momento in cui si sarebbero dovuti interpretare i risultati, sfruttarli al meglio, suscitare un dibattito nazionale, allarmare l’opinione pubblica, lavorare con le associazioni dei docenti per capire la mediocrità della prestazione degli studenti italiani.

I dirigenti della scuola italiana manifestamente non erano stati avvertiti del cambiamento di rotta rappresentato dall’indagine PISA. Prevale l’impressione che l’amministrazione centrale abbia lasciato le mani libere al  servizio di valutazione, come si era fatto in precedenza con tutte le indagini IEA alla quale l’Italia aveva partecipato.

·         I casi di Germania, Svizzera, Canada e Spagna
Orbene, con il PISA le indagini internazionali sul rendimento delle scuole non sono più un appannaggio esclusivo dei ricercatori ma sono operazioni di natura politica che mirano ad informare i responsabili della scuola sullo stato dell’istruzione del Paese. 

Il PISA esige dunque una strategia di pilotaggio del tutto diversa da quella  che era  in auge all’epoca delle indagini IEA.
Vorremmo qui soffermarci su quattro casi diversi che ci consentono di capire gli effetti del sisma pedagogico-politico che è stato il PISA .
I Paesi avevano dovuto decidere se partecipare al PISA o meno nel 1998, quando era stato loro richiesto di sottoscrivere l’impegno finanziario derivante dall’organizzazione dell’indagine. In molti Paesi questa è stata l’occasione per cogliere due piccioni con una fava: in primo luogo, sfruttare l’ operazione scientifica per acquisire o sviluppare il “know how” psicometrico necessario per svolgere indagini su vasta scala sul rendimento degli studenti; in secondo luogo, andare oltre le esigenze imposte dal programma minimo internazionale, estendere il piano di raccolta di dati e beneficiare dell’infrastruttura internazionale del programma per trattarli.
Queste decisioni dovettero essere prese nel 1997-98, prima che si pianificassero tutte le fasi dell’indagine. Mancano le informazioni su quanto è successo a Roma: non si sa  cioè se tra l’ex-CEDE e il ministero (il ministro d’allora era Luigi Berlinguer) ci siano state discussioni sulle modalità della partecipazione italiana.

L’Italia  per finire ha comperato solo il pacchetto di base del PISA, mentre invece la Germania, la Svizzera, il Canada hanno preso un’opzione più ambiziosa e quindi necessariamente più costosa. La Germania chiese di testare non solo un campionamento rappresentativo dei quindicenni del Paese, ma anche un campionamento per ognuno dei sedici Länder. Va notato che mai in Germania si era prima d’allora proceduto ad uno studio comparato di quest’ampiezza tra i sedici Länder, inclusi quindi anche quelli che appartenevano al territorio dell’ex Germania dell’est. 

Stessa cosa, in Svizzera : qui il dibattito fu più virulento, perché i cantoni tedeschi rifiutarono la raccolta di dati rappresentativi per Cantoni. Non fu il caso invece nella Svizzera francese dove i ministri della scuola dei sette cantoni romandi decisero di finanziare l’estensione del campionamento per avere un campione rappresentativo per ogni cantone. La stessa scelta fu fatta dal cantone elvetico di lingua italiana, il Ticino, e da tre cantoni tedeschi : Zurigo, Berna e San Gallo. Gli Svizzeri si complicarono poi l’esistenza perché furono i soli, con i Giapponesi, a sdoppiare il campionamento, ossia a testare non solo i quindicenni, indipendentemente dalle classi frequentate (ci sono quindicenni in prima e seconda media, in prima liceo oppure nelle prime degli istituti tecnici), ma anche tutta la popolazione che frequentava l’ultimo anno della scuola dell’obbligo, indipendentemente dall’età. Il caso elvetico dimostra che il PISA non è un programma a scatola chiusa, da prendere o lasciare in toto, ma un programma flessibile, che permette ai Paesi d’impostare una partecipazione, in un certo senso, su misura, una volta rispettate le condizioni minime richieste dal programma a tutti i partecipanti. Dopo tutto, il programma è finanziato dai Paesi: senza i soldi dei governi, il PISA non si sarebbe potuto fare.

Il caso del Canada è analogo a quello della Germania, con un campionamento nazionale, che corrisponde ai criteri minimi di partecipazione al PISA, e con campionamenti per ognuna delle province. In questo modo i Canadesi possono per la prima volta verificare le perfomances delle scuole delle varie province, ed  in particolare comparare i risultati del Quebec francofono con quelli delle province anglofone. 

In Spagna, il servizio nazionale per la valutazione della qualità della scuola non è stato invece autorizzato a raccogliere dati comparabili per ognuna delle comunità autonome (o a pubblicarli: le nostre informazioni sono imprecise su questo punto). Questa è stata una decisione politica imposta ai ricercatori; tuttavia, altra decisione politica, la Catalogna fu autorizzata a partecipare al PISA per cui ora, alla resa dei risultati, i catalani possono comparare le prestazioni del proprio sistema scolastico con quelli del resto della Spagna.  Nel 2003, il Paese basco seguirà l’esempio della Catalogna e raccoglierà dati sulla propria popolazione scolastica di quindicenni.

·         Un nuovo approccio in Italia? Il possibile coinvolgimento delle regioni
In Italia sembra che l’approccio al PISA stia cambiando: secondo notizie di quest’estate, le regioni sono state informate della possibilità di raccogliere dati rappresentativi per ogni regione.
Sappiamo che il Piemonte si è già mosso in questa direzione e che la Lombardia probabilmente si aggregherà al Piemonte.

Si compirebbe un passo avanti rilevante se si giungesse a coinvolgere più regioni in occasione del prossimo round di PISA, ancorché le infrastrutture universitarie e scientifiche per sfruttare l’operazione non siano in Italia ideali, ma sarebbe proprio auspicabile costruire entro il 2006 una collaborazione regione-INVALSI in grado di trattare e analizzare i dati nazionali ripartiti per regioni, come lo si è fatto in Germania con i 16 Länder.

·         L’effetto in Germania della scomposizione per Länder dei dati PISA
Il 26 giugno di quest’anno, sei mesi dopo la presentazione dei risultati del PISA a livello internazionale, sono stati pubblicati in Germania, in una conferenza stampa apposita,  i risultati dettagliati del PISA per ognuno dei Länder: lo stupore è stato ancora più grande della sorpresa provocata dai dati internazionali che piazzavano la Germania al ventunesimo rango in lettura e al ventesimo in matematica. Questi dati hanno aperto, in piena campagna elettorale, uno scontro durissimo tra maggioranza e opposizione, sui mali della scuola tedesca. Scontro per nulla previsto dalla maggioranza di centro sinistra.   Il sud cattolico, con Länder a maggioranza conservatrice, declassa il nord protestante dominato da maggioranze socialdemocratiche, dove si sono sperimentate tutte le innovazioni scolastiche da più di un trentennio, mentre le scuole del sud sono rimaste piuttosto restie alle novità. Campione in tutte le categorie, la Baviera, che batte la Svizzera e rivalizza con la Svezia, ma è battuta dalla Finlandia, dall’Australia, dalla Gran Bretagna e dal Giappone. Alla sua altezza si situa il Bade-Wurtemberg e la Saxe (il migliore Land dei territori dell’est). Questi tre stati sono guidati da tempo da maggioranze conservatrici (democristiane). In coda ai Länder tedeschi, arriva la città anseatica di Brema e il Brandeburgo (altro stato dell’est) che non fanno meglio del Messico. Brema, che passa per un centro d’avanguardia in educazione, è un bastione della sinistra progressista tedesca. A detta di tutti è a Brema che l’educazione progressiva è stata applicata con maggiore impegno in Germania.

I risultati del PISA, a prima vista, sembrano essere una smentita tremenda della bontà delle innovazioni pedagogiche dell’ultimo ventennio. Va anche però  detto che queste sono battaglie di campanile, perché in generale i risultati di tutti i Länder sono mediocri, come ricorda giustamente il Zeit, un quotidiano di indirizzo liberale. Questa polemica sulla scuola è comunque una prova dell’interesse di queste indagini, che hanno un senso solo se generano ricerche e verifiche dettagliate di quanto si constata, cosa che  implica la presenza di centri di ricerca attrezzati e di laboratori universitari competitivi.

Infatti, di fronte a questi risultati occorre chiedersi:

La risposta a queste domande è cruciale per evitare interpretazioni  mistificanti e pericolose per il futuro della scuola.

Il PISA e gli insegnanti

Il programma internazionale di ricerca sulle competenze e gli apprendimenti acquisiti alla fine della scuola dell’obbligo è un’operazione di vertice, che riguarda essenzialmente i ministri, gli altri funzionari della scuola e pochi centri privilegiati di ricerca.

La base della scuola è assente dal dibattito, come pure dall’elaborazione delle prove. Presidi e insegnanti non sono nient’altro che esecutori invitati a collaborare alla realizzazione dell’indagine. In certi Paesi, presidi e docenti marciano al passo, non si pongono troppe domande ed eseguono coscienziosamente le istruzioni che arrivano dall’alto. In questo caso non c’è bisogno di spiegare il PISA e di chiedere a presidi e insegnanti di collaborare all’indagine.

In altri Paesi invece, dove vige una tradizione pedagogica imperniata sulla professionalità dei docenti oppure dove si pratica su larga scala una pedagogia progressiva nella quale si  contesta la validità e l’utilità delle  valutazioni imposte dall’esterno che non rispettano i ritmi di crescita degli studenti, la realizzazione del PISA  nelle scuole ha incontrato opposizioni e resistenze di ogni genere. In taluni casi, la somministrazione dei test è stata anche boicottata. Da qui la necessità di spiegare a fondo il programma d’indagine per convincere la base della sua utilità e ottenere quindi le condizioni migliori d’attuazione delle prove.

Poiché il PISA è un’indagine campionaria, il numero di insegnanti e di scuole che vi partecipano non è che una piccola frazione del totale, ma questo non è un argomento accettabile per rinunciare a spiegare agli insegnanti e alle loro organizzazioni l’indagine, i suoi scopi, l’uso che se ne può fare, tanto più che le conclusioni si applicano a tutta la scuola e producono apprezzamenti estesi all'intero sistema scolastico.
Tre fattori militano a favore di un forte coinvolgimento dei docenti :

L’ultimo punto è ovvio: senza il consenso e il sostegno delle scuole, le prove non potrebbero svolgersi in buone condizioni, gli studenti non sarebbero motivati a parteciparvi e i risultati ne risentirebbero. Quindi, almeno per una semplice ragione pratica è indispensabile spiegare agli insegnanti le ragioni e le finalità delle prove.

Il secondo punto è nell’interesse delle autorità scolastiche che devono spiegare all’opinione pubblica o ai parlamenti i risultati. Sono molteplici i parametri che influenzano le risposte degli studenti ai test e, di conseguenza, la media dei risultati e la disparità fra i risultati : per esempio, la composizione delle classi, il grado di selezione, il numero di ore d’insegnamento, le qualifiche dei docenti, la loro esperienza professionale, l’organizzazione delle scuole, e via dicendo. L’identificazione delle cause probabili che spiegano per esempio l’alta percentuale di studenti con un basso livello di competenza in lettura oppure la verifica delle probabili correlazioni esistenti tra un fattore o l’altro esigono l’intervento di specialisti che conoscono benissimo il terreno, ossia la scuola dall’interno. Questo lavoro non può essere fatto dagli esperti internazionali che spesso prendono cantonate solenni, vuoi per presunzione vuoi per mancanza di prudenza nella lettura dei dati. Spesso non può nemmeno essere fatto dai centri nazionali che pilotano l’indagine in un Paese.

Per capire per esempio la percentuale elevata di assenteismo constatata a Ginevra, che è un minuscolo stato dove tutti pensano di conoscere tutto di tutti, si sono dovuti interrogare i presidi delle scuole nelle quali si sono svolte le prove. Certi misteri nei risultati --per esempio la percentuale elevata di errori negli items  semplici e invece la buona percentuale di risposte esatte negli items difficili -- non si possono capire senza la collaborazione dei docenti.

Infine, il primo punto: il PISA può rappresentare uno strumento straordinario d’aggiornamento degli insegnanti. Gli items delle prove standardizzate provengono da tutte le parti del mondo, sono stati pensati ed elaborati da specialisti all’avanguardia nella ricerca, riproducono elaborazioni concettuali raffinate e per finire sono stati convalidati statisticamente nei pre-test. Essi sono però anche il frutto di compromessi aspramente combattuti e possono rappresentare scelte poco innovative o coraggiose. Gli insegnanti potrebbero ispirarsi a queste prove per rinnovare l’insegnamento, per riflettere sul proprio lavoro, ma anche per esaminare criticamente i test, discuterli, contestarne la pertinenza, segnalare ai ricercatori i rischi di devianze nascosti nelle formulazioni, che i costruttori delle prove non possono vedere ma che invece gli insegnanti  riescono a reperire perché sono vicini agli studenti che passano le prove.

Purtroppo, si sa ben poco di quel che  i Paesi hanno fatto per spiegare il PISA ai docenti.
L’OCSE si è limitata ad organizzare quest’anno in maggio un incontro con i sindacati dei docenti che a  detta di un partecipante anglosassone da noi interpellato è stato piuttosto banale. Non siamo riusciti a sapere se c’è stata una presenza italiana.
A detta di molti, il lavoro con la base è il punto debole del PISA. In Inghilterra , le TU ( ossia i sindacati dei docenti britannici) sono stati invitati ad un incontro con il ministero per discutere i risultati del PISA, ma la riunione è stata un flop.
E’ andata un po’ meglio nella Svizzera Romanda dove il massimo sindacato dei docenti, il SER, è stato subito informato della decisione di costruire un campione per ogni cantone ed ha ricevuto tutta la documentazione sull’indagine. I contatti tra il servizio di ricerca ed il sindacato non sono mai stati interrotti nel corso della preparazione, dello svolgimento e della presentazione dei risultati. Il sindacato ha così organizzato per proprio conto un seminario interno di formazione sul PISA prima della pubblicazione dei risultati. Quando questi sono stati disponibili, il sindacato è stato invitato a commentarli ed ha potuto presentare il proprio punto di vista nel corso della conferenza stampa organizzata dai sette ministri cantonali dell’istruzione.
La “carta sulla trasparenza” ha permesso di attenuare la diffidenza e l’ostilità di una parte del corpo insegnante nei confronti del PISA. Inizialmente l’indagine fu percepita come l’avvio di un’operazione voluta da un’istituzione, l’OCSE, ligia agli interessi delle forze neoliberali, sostenitrice dell’economia di mercato, per  squalificare la scuola pubblica e prepararne la privatizzazione. Il lavoro del sindacato è stato da questo punto di vista esemplare: ha accettato la sfida, è entrato in una logica d’aggiornamento e formazione ed ha infine concorso a spiegare agli aderenti il senso e i limiti dell’indagine, neutralizzando le tentazioni di una lettura settaria e stereotipata del programma.

GLI APPUNTAMENTI DEL 2003 E DEL 2006

Nell'aprile del 2003 campioni di alunni di quindici anni parteciperanno al secondo ciclo del programma PISA che, come abbiamo detto in apertura, verterà principalmente sulla matematica. Il pretest che è servito per mettere a punto gli items è stato condotto nella primavera di quest'anno. Alcune regioni italiane si sono mosse per partecipare al PISA con campioni rappresentativi propri. E' quel che occorre fare nel quadro della ridistribuzione delle competenze tra Stato e regioni, imposta dalle norme costituzionali, nonché dalla decantata legge sull'autonomia.

Questo però non basta.
Sono infatti già in corso i lavori preparatori del terzo ciclo che si terrà nel 2006 e che  verteràsulla cultura scientifica, un tema molto scottante, delicato, sensibile dal punto di vista politico. La battaglia sulla costruzione dei test è già iniziata.

Gli indirizzi generali per la costruzione delle prove saranno fissati tra poco. Non abbiamo proprio nulla da dire in merito?


 

LE COMPETENZE SCOLASTICHE DEI QUINDICENNI

di Norberto Bottani

("il Mulino", n. 400 (LI), 2/2002, pp. 293-296.)

 

Dalle indagini IEA a PISA: un importante salto di qualità

Nella primavera del 2000, l'OCSE ha organizzato un'indagine sui livelli di comprensione della lettura e sui livelli di cultura matematica e scientifica dei ragazzi di quindici anni che erano a scuola a quell'età in 32 Paesi e alla quale hanno partecipato circa 250.000 studenti. A un anno e mezzo di distanza, nel dicembre dello scorso anno, l'OCSE ha pubblicato i primi risultati di questo studio in un rapporto di grande qualità e di elevato livello scientifico. Questa gigantesca operazione, denominata PISA ( Programme for International Student Assessment, ovverossia Programma per la valutazione internazionale del profitto degli studenti) non ha paragone con i primi studi comparati internazionali condotti dall'IEA
( International Association for the Evaluation of Educational Achievement) a decorrere dal lontano 1960 ed ai quali partecipavano una dozzina di Paesi. Con l'indagine del PISA si è senza dubbio fatto un salto di qualità nel campo degli studi comparati sul rendimento delle scuole e sugli apprendimenti. L'Italia, è giusto segnalarlo, è stato uno dei Paesi che ha partecipato a quasi tutte le indagini IEA grazie alla lungimiranza di Aldo Visalberghi, ma purtroppo questa tradizione non ha suscitato in Italia una scuola di specialisti nelle indagini sulla valutazione degli studenti e delle scuole. La partecipazione dell'Italia al PISA è stata diretta da Emma Nardi che ha pilotato lo studio in Italia avvalendosi del sostegno dell'Istituto Nazionale per la Valutazione del Sistema d'Istruzione. I dati riguardanti le prestazioni degli studenti italiani si possono reperire nel rapporto pubblicato dall'OCSE ( in inglese ed in francese) nonché nel sito web dell'OCSE (www.pisa.oecd.org) e solo in parte, ma in modo poco didattico anzi quasi illeggibile per il lettore non avvertito, nel sito http://www.cede.it/ricerche-internazionali/ocse-pisa-ccc/documenti/fasi.pdf. Emma Nardi ne ha fatto un breve commento nel numero degli Annali dell'Istruzione, 1-2 ( 2001), pubblicato in occasione degli Stati Generali dell'Istruzione.


I preoccupanti risultati italiani

I risultati degli studenti italiani sono preoccupanti da tutti i punti di vista. Sia in lettura, che in matematica e scienze i giovani italiani si situano al di sotto della media dell'OCSE. In lettura, nella scala internazionale, l'Italia è nel gruppo dei paesi i cui risultati sono significativamente al di sotto della media internazionale (487 punti rispetto a 500). In questo gruppo si trova pure la Germania, l'Ungheria e la Polonia, mentre la Spagna e la Svizzera sono nella media OCSE. In matematica, che era una componente minore dell'indagine, il livello raggiunto dalla media degli studenti italiani è invece bassissimo e significativamente inferiore alla media dei paesi (457 punti rispetto a 500). Qui l'Italia è in compagnia della Spagna, della Polonia, del Portogallo e della Grecia. Infine, nelle scienze, il livello raggiunto dalla media degli studenti italiani è pure significativamente inferiore alla media dei paesi dell'OCSE (478 punti rispetto a 500), pari a quello della Polonia, della Danimarca e della Grecia, inferiore a quello della Spagna, ma assai meglio del Portogallo.

Tavola 1:
Risultati della valutazione internazionale delle competenze dei quindicenni, 2000

Punteggio

Comprensione dello scritto

Cultura matematica

Cultura scientifica

557

 

Giappone

 

552

   

Corea

547

 

Corea

Giapppone

546

Finlandia

   

537

 

Nuova Zelanda

 

536

 

Finlandia

 

534

Canada

   

533

 

Australia; Canada

 

529

Nuova Zelanda

Svizzera

Canada

528

Australia

 

Australia

527

Irlanda

   

523

Regno Unito

   

522

Giappone

   

517

 

Francia

 

516

Svezia

   

507

Austria

   

507

Belgio

   

505

Norvegia

   

505

Francia

   

500

   

Francia; Stati Uniti (499)

504

Stati Uniti

   

497

Danimarca

 

Belgio (496); Ungheria (496); Svizzera (496)

494

Svizzera

   

493

Spagna

Stati Uniti

 

492

Repubblica Ceca

   

487

Italia

 

Germania

484

Germania

 

Polonia (483)

480

Ungheria

 

Danimarca (481)

479

Polonia

 

Italia (478)

474

Grecia

   

461

   

Grecia

457

 

Italia

 

470

Portogallo

   

441

Lussemburgo

 

Lussemburgo (443)

422

Messico

 

Messico

Non tutti i paesi sono inseriti nella tavola

Un dato significativo: l'atteggiamento dei giovani verso la scuola


Dall'insieme delle tavole e dei grafici presentati nel rapporto, una vera e propria miniera d'informazioni a disposizione dei ricercatori che vogliano analizzare lo stato dell'istruzione nei paesi con i sistemi scolastici più avanzati all'inizio del nuovo secolo, si evince che solo il 10 per cento dei quindicenni dei paesi dell'OCSE sono buoni lettori e che ben un quinto dei giovani non sa svolgere che i compiti più facili previsti dalle prove, come per esempio individuare un' informazione contenuta in un testo semplice, oppure fare collegamenti elementari tra un messaggio inserito in un testo e la vita quotidiana. Questo significa che alla fine della scuola dell'obbligo ci sono più lettori pessimi che buoni. Assocerei questa informazione ad un'altra estratta dalle risposte fornite dagli studenti alla sezione del questionario che li interrogava sul loro modo di imparare. Una proporzione significativa di giovani di 15 anni ha un'attitudine negativa rispetto alla scuola e all'apprendimento (Tavola 2): più di un quarto degli studenti di quindici anni non ha già più nessuna voglia d'andare a scuola. Tra i Paesi che riescono meglio a disgustare i giovani dall'apprendere ci sono il Belgio e l'Italia. E' interessante notare che i quindicenni dei Paesi più poveri ( il Messico e il Portogallo) sono quelli che invece hanno ancora fiducia nell'insegnamento.

Tavola 2:
La mia scuola è un luogo dove non ho voglia d'andare:

 

D’accordo

Totalmente d’accordo

Totale

 

Belgio

25,5

16,5

42,0

Italia

27,7

10,3

38,0

Ungheria

25,4

12,3

37,7

Francia

24,0

13,0

37,0

Canada

24,5

12,1

36,6

Stati Uniti

24,9

10,6

35,5

Irlanda

23,7

10,8

34,5

Nuova Zelanda

24,7

9,4

34,1

Australia

24,3

9,4

33,7

Spagna

20,0

10,4

30,4

Corea

20,7

9,4

30,1

Lussemburgo

17,0

13,1

30,1

Austria

15,4

13,6

29,0

Polonia

19,6

8,7

28,3

Media OCSE

18,6

9,4

28,0

Regno Unito

19,6

8,2

27,8

Svizzera

16,0

11,5

27,5

Finlandia

17,8

8,1

25,9

Germania

14,8

10,4

25,2

Giappone

16,3

8,2

24,5

Islanda

13,2

10,1

23,3

Norvegia

13,6

9,4

23,0

Grecia

14,3

8,0

22,3

Svezia

14,9

4,9

19,8

Danimarca

12,6

6,0

18,6

Portogallo

9,5

33,

12,8

Messico

6,4

2,5

8,9

Fonte OCSE: (www.pisa.oecd.org)

I costi per l'istruzione: l'Italia non spende poco
Il costo globale per l'istruzione di uno studente della scuola dell'obbligo ( il calcolo comprende le spese del settore pubblico e privato) mostra che l'Italia non è un Paese che spende poco per l'istruzione, tutt'altro. Però, queste risorse sono male utilizzate perché l'Italia è tra i Paesi che ottengono nei tre settori della prova del PISA risultati inferiori rispetto a quelli che ci si possono aspettare in funzione del livello della spesa pro capite. Gli altri paesi nei quali le prestazioni sono inferiori al livello al quale dovrebbero collocarsi rispetto agli stanziamenti per l'istruzione sono la Danimarca, la Grecia, il Messico, il Portogallo e gli Stati Uniti ( tavola 3).

Tavola 3:
Costo globale di uno studente dall'inizio della scuola elementare fino all'età di quindici anni, in dollari degli Stati Uniti, equiparati con il tasso della parità del potere d'acquisto, 1998

Paesi

Costo globale per studente

   

Austria

71 387

Stati Uniti

67 313

Danimarca

65 794

Svizzera

64 266

Norvegia

61 677

Italia

60 824

Svezia

53 386

Giappone

53 255

Francia

50 481

Belgio

46 338

Finlandia

45 363

Australia

44 623

Regno Unito

42 793

Germania

41 978

Spagna

36 699

Portogallo

36 521

Irlanda

31 015

Corea

30 844

Grecia

27 356

Repubblica Ceca

21 384

Ungheria

20 277

Polonia

16 154

Messico

11 239

Sfatati i luoghi comuni: occorrono ricerche rigorose

Questa breve nota mostra che molti dati del PISA sfatano tutta una serie di dicerie sulla scuola che circolano in Italia. A questo punto sarebbe indispensabile procedere ad analisi dettagliate delle risposte degli studenti italiani a ciascun quesito, per capire meglio lo sbando constatato nei risultati italiani globali. Emma Nardi offre nel suo breve articolo apparso negli " Annali dell'istruzione " alcune anticipazioni di questo lavoro di analisi sui punteggi quando fornisce una prima chiave di lettura dei pessimi risultati italiani in matematica alla fine della scuola dell'obbligo: " I quesiti che richiedevano agli studenti di spiegare, di verbalizzare, di dimostrare o di giustificare sono stati omessi in percentuali maggiori rispetto ad altri Paesi. Gli studenti italiani sono quindi stati meno pronti nell'esprimere e nell'argomentare le proprie opinioni utilizzando concetti e processi matematici. Le omissioni possono dipendere anche da una minore motivazione a fornire risposte corrette, anche quelle più impegnative e faticose. La stessa motivazione a rispondere, accettando la sfida che proviene da un problema matematico impegnativo e imprevisto, lo stesso impegno nel fornire una risposta " ricca " ed argomentata sono un connotato importante del valore e della " produttività " di competenze ben interiorizzate e proiettate verso la vita ".

Le responsabilità della scuola


I risultati del PISA trascendono il valore che si può attribuire ai punteggi conseguiti in una prova internazionale. Essi rivelano infatti la presenza di problemi di fondo, direi anzi di malattie gravi, che affliggono la scuola e che sono di portata generale, culturale, e che forse la scuola da sola non può risolvere. A questo proposito vale la pena segnalare il capitolo quarto del rapporto OCSE dedicato alle motivazioni all'apprendimento e alle strategie d'apprendimento usate dagli studenti (impegno e perseveranza nello studio, interesse per la lettura, interesse per la matematica, preferenza per l'apprendimento competitivo o in gruppo) in correlazione con i punteggi conseguiti nelle prove, oppure il capitolo ottavo nel quale si analizzano le correlazioni tra i risultati conseguiti dagli studenti e l'influenza sulle scuole e sugli studenti dell'ambiente da cui provengono gli studenti. La comprensione di questa correlazione è il punto di partenza per un'analisi della ripartizione delle opportunità educative. I dati del PISA dimostrano che l'ambiente socio-economico non è determinante: molti studenti che provengono da ambienti svantaggiati ottengono risultati nettamente superiori alle previsioni basate sugli indici internazionali. Ci sono Paesi in cui gli scarti tra la media dei risultati degli studenti migliori dei ceti superiori e dei ceti bassi è esigua ( in Corea, Giappone, Islanda, e Finlandia) ed altri invece dove la differenza è molto pronunciata ( in Svizzera ed in Germania per esempio). La scuola quindi conta: ci sono sistemi scolastici in cui una media elevata nei risultati non va di pari passo con grandi disuguaglianze. In Italia, succede il contrario: la disuguaglianza nei risultati è relativamente piccola (il doppio però che non in Corea e Giappone) ma la media è bassa. Questo è un sistema scolastico in cui prevale la mediocrità : la prestazione media degli studenti italiani è significativamente al di sotto della media dei Paesi dell'OCSE, ma l'Italia è tra i Paesi in cui l'impatto del contesto socio-economico sulle prestazioni degli studenti è pure inferiore alla media. Il sistema è un po' più giusto degli altri, ma è penalizzante, perché i risultati sono bassi. L'esempio di Paesi che invece sono altrettanto giusti ma con livelli di prestazioni elevati per tutti (ricchi e poveri) dimostra che si può fare meglio e diversamente senza penalizzare l'obiettivo dell'uguaglianza di trattamento. Le scuole possono cambiare le carte in tavola.
Fatalismo e rassegnazione non sono scusabili: questo mi sembra il messaggio principale del PISA. Prima di scaricare le responsabilità dei pessimi risultati sulle spalle di altri, dunque, sarebbe bene ponderare quale sia il peso e la responsabilità della scuola.


 

CHE COS'È PISA
( Program for International Student Assessment)
Programma per la valutazione internazionale degli studenti

Una nuova indagine triennale sulle conoscenze e abilità degli studenti di quindici anni nei principali paesi industrializzati.

PISA ha valutato la capacità dei giovani di usare le loro conoscenze e abilità per risolvere problemi reali piuttosto che limitarsi semplicemente a determinare il loro grado di preparazione nelle singole discipline scolastiche.

Una collaborazione unica tra paesi per monitorare i livelli di apprendimento.

  • PISA è stato coordinato dai governi dei paesi partecipanti, attraverso l'Organizzazione per la Co-operazione e lo Sviluppo Economico (OCSE).
  • Esperti internazionali hanno elaborato un sistema di valutazione che permettesse di confrontare risultati provenienti da contesti culturali ed educativi diversi.
  • PISA contribuisce a migliorare il livello di informazione sui livelli di apprendimento degli studenti, stabilendo criteri di paragone tra paesi diversi e fornendo regolari aggiornamenti sulla prestazione che gli studenti hanno fornito rispetto a tali criteri
 



I PAESI PARTECIPANTI

Grafico sui paesi partecipanti

Nel 2000, ventotto paesi dell'OCSE ed altri quattro paesi hanno partecipato alla prima indagine PISA: altri 13 paesi condurranno la stessa inchiesta nel 2002 e i due paesi dell'OCSE che non hanno partecipato all'indagine del 2000 prenderanno parte ad una seconda indagine nel 2003.

Paesi che hanno partecipato all'indagine del 2000:

Paesi che conduranno la stessa indagine nel 2002:

Albania, Argentina, Bulgaria, Cile, Cina, Hong Kong, Indonesia, Israele, Lituania, Macedonia, Perù, Romania, Tailandia.

Paesi membri dell'OCSE che condurranno l'indagine nel 2003:

Repubblica Slovacca, Turchia.

RISULTATI - CHE COSA CI DICE PISA

Sono qui riassunti i risultati di PISA 2000 sulle prestazioni degli studenti e fornite spiegazioni sulle ragioni che hanno determinato tali risultati. Il testo completo del rapporto, "Conoscenze e abilità per la vita - primi risultati di PISA 2000", è qui disponibile in francese (Connaisances et compétences: des atout pour la vie), può essere ottenuto anche in inglese e tedesco rivolgendosi all'OCSE http://www.pisa.oecd.org/.

         … sulla literacy di lettura …

PISA 2000 ha valutato la capacità degli studenti di applicare conoscenze e abilità alla lettura in generale e in particolare all'abilità di leggere testi di natura matematica e scientifica. Queste capacità vengono definite come abilità di lettura di testi di natura non specialistica o "reading literacy", abilità di lettura di testi matematici o "literacy matematica" e capacità di lettura di testi di natura scientifica o "literacy scientifica" e sono considerate prerequisiti essenziali che tutti gli studenti devono avere per poter affrontare la vita adulta.
PISA non misura l'abilità di lettura applicando un insieme di conoscenze e abilità del tipo "tutto o niente". Ogni studente viene invece valutato usando una scala continua. Il punteggio ottenuto da ciascun studente indica il più difficile tipo di compito che lo studente è probabilmente in grado di portare a termine in maniera corretta. Ciascun compito di PISA è associato ad un punteggio di questa scala.
La scala di PISA per ciascuna area di literacy è stata elaborata in modo che in tutti i paesi OCSE il punteggio medio fosse di 500 punti e circa i due terzi degli studenti ottenessero tra 400 e 600 punti.
Per quello che riguarda la reading literacy, vengono descritti cinque livelli di literacy di cui 5 è il più alto. I risultati che si riferiscono alla reading literacy, alla literacy matematica, alla literacy scientifica sono di seguito riassunti negli appositi capitoletti.

          … sugli stili di apprendimento …

I giovani d'oggi non potranno mai smettere di imparare. PISA ha esaminato alcuni aspetti dei loro stili di apprendimento all'età di 15 anni a ha analizzato fattori quali la loro motivazione, il loro impegno scolastico e le loro strategie di apprendimento.
I risultati relativi agli stili di apprendimento degli studenti sono successivamente riassunti nell'apposito capitoletto.

          … sulle differenze di prestazione e impegno fra ragazzi e ragazze …

I risultati di PISA indicano che ci sono differenze nella prestazione, nell'impegno scolastico e nelle strategie di apprendimento di ragazzi e ragazze. I risultati relativi a queste differenze sono successivamente riassunti nell'apposito capitoletto.

          … sul rapporto tra prestazione degli studenti e background familiare ...

Gli studenti che vengono da famiglie abbienti tendono ad ottenere risultati migliori a scuola. PISA analizza in dettaglio la portata di questo rapporto e indica come esso vari a seconda dei programmi scolastici e in paesi diversi. I risultati relativi al background familiare sono riassunti successivamente nell'apposito capitoletto.

           … sul rapporto tra differenze tra scuole e background familiare ...

Le scuole possono contribuire a moderare l'effetto del background familiare? La risposta dipende dal tipo di scuola che studenti con caratteristiche diverse frequentano e da quanto i risultati di queste scuole differiscono. I risultati relativi alle differenze evidenziate tra le scuole sono riassunti successivamente nell'apposito capitoletto


        … sulle caratteristiche delle scuole frequentate dagli studenti che hanno ottenuto          buoni risultati …

Le scuole differiscono in termini di risorse, politiche e attività didattiche. PISA 2000 ha riscontrato che gli studenti di diversi paesi ottengono risultati migliori in scuole che hanno certe caratteristiche.
I risultati relativi agli effetti che le scuole hanno sugli studenti sono riassunti successivamente nell'apposito capitoletto.

RISULTATI RELATIVI ALLA LITERACY DI LETTURA

Le prestazioni degli studenti nell'ambito della literacy di lettura.

Gli studenti che hanno preso parte all'indagine PISA hanno dovuto rispondere a domande su testi scritti di diversa natura, tra cui brevi storie, messaggi su Internet e informazioni presentate in forma grafica. Gli studenti sono stati valutati in relazione alla loro capacità di individuare determinate informazioni, di interpretare quanto avevano letto e sul modo di riflettere su queste informazioni e di valutarle avvelendosi delle conoscenze da loro già acquisite. Per ciascuno di questi tre aspetti è stato attribuito un punteggio basato sulla difficoltà del compito che gli studenti dovevano portare a termine. I punteggi così ottenuti sono stati poi sommati in modo da ottenere un unico risultato relativo alla loro abilità di lettura.
Sulla base di questi punteggi, è stato assegnato a ciascun studente un livello di lettura da uno a cinque (vedi tabella a apag 5). Le pagine successive riportano esempi di compiti di diversi livelli.

LIVELLI E RELATIVI PUNTEGGI
LIVELLO 5
oltre 625 punti
LIVELLO 4
da 553 a 625 punti
LIVELLO 3
da 481 a 552 punti
LIVELLO 2
da 408 a 480 punti
LIVELLO 1
da 335 a 407 punti
SOTTO AL LIVELLO 1
sotto i 335 punti

La tabella qui sotto indica la percentuale degli studenti che hanno raggiunto ciascun livello nel totale dei paesi dell'area OCSE ed in ciascun specifico paese. In questa tabella i diversi paesi sono stati classificati in base alla percentuale di studenti che hanno raggiunto il Livello 3 o livelli superiori al 3. Circa il 60% degli studenti di 15 anni dell'area OCSE è riuscito a completare questi compiti (vedi pagina 7 per esempi di questi compiti), ma i risultati variano in maniera significati dai tre quarti degli studenti in Finlandia e Corea a meno della metà in Brasile, Lettonia, Lussemburgo, Portogallo e Federazione Russa.

Percentuale degli studenti che hanno raggiunto ciascun livello nel totale dei Paesi dell'Ocse
LIVELLO 5
10%
LIVELLO 4
22%
LIVELLO 3
29%
LIVELLO 2
22%
LIVELLO 1
12%
SOTTO AL LIVELLO 1
6%


Nessun singolo indicatore può riassumere in maniera adeguata la prestazione di studenti appartenenti a paesi diversi. Le cifre date nelle pagine seguenti indicano parti diverse della distribuzione della prestazione degli studenti.
In generale, non si sono evidenziate grandi differenze nelle prestazioni di studenti appartenenti a paesi diversi per quello che riguarda I diversi aspetti della reading literacy - individuare, interpretare, riflettere e valutare - anche se in alcuni paesi esistono differenze significative tra le prestazioni degli studenti in compiti che richiedevano di identificare e interpretare informazioni e in quelli che richiedevano attività di riflessione e valutazione (vedi Tabelle 2.1b, c e d nel testo completo del rapporto).

    

... uno su dieci studenti ha completato i compiti più difficili di PISA …

Alcuni esempi delle prove più difficili:

  1. Agli studenti sono stati mostrati un grafico della popolazione in età lavorativa di un paese e descrizioni dello status lavorativo di questi lavoratori. Gli studenti dovevano decidere a quale categoria del grafico appartenesse ciascun lavoratore: per far ciò dovevano desumere dalla struttura e dal contenuto del grafico i criteri da usare per classificare i lavoratori e attingere ad informazioni date in note a piè di pagina e quindi non in modo evidente. A questo compito è stato associato un punteggio di 727 punti sulla scala relativa alla capacità di interpretare informazioni.
  2. Agli studenti è stato mostrato un avviso prepararto dall'ufficio personale che dava informazioni su un servizio che avrebbe potuto facilitare la mobilità dei lavoratori. Gli studenti dovevano identificare i due modi in cui questo servizio avrebbe potuto aiutare persone che avevano perso il loro posto di lavoro - informazione che era stata data in modo indiretto e doveva essere distinta da altre informazioni simili che avrebbero potuto facilmente essere scambiate per l'informazione che si richiedeva. Punteggio associato al compito: 655 punti sulla scala relativa alla capacità di individuare informazioni.
  3. Dopo aver letto una storia di tre pagine sulle avventure di una donna, agli studenti è stato chiesto di indicare se ritenessero la fine della storia appropriata spiegando il motivo della loro risposta. Per ottenere il punteggio massimo, gli studenti dovevano dimostrare di aver valutato la fine della storia in termini della sua completezza tematica stabilendo relazioni tra l'ultima frase e relazioni centrali, questioni o metafore presentate nella storia. Punteggio associato al compito: 652 sulla scala relativa alla capacità di riflettere e valutare.

Testi integrali degli esempi si trovano nel Rapporto completo

Gli studenti che sono riusciti a raggiungere il Livello 5 sulla scala che combina i vari risultati ottenuti nei compiti relativi alla reading literacy, capacità di lettura, sono capaci di completare compiti di lettura sofisticati quali:

Solo il 10% dei quindicenni nei paesi di area OCSE hanno raggiunto un Livello 5. La percentuale varia da oltre il 15% in Australia, Canada, Finlandia, Nuova Zelanda e Regno Unito a meno del 5% in Brasile, Lettonia, Lussemburgo, Spagna e Federazione Russa

Paese
Percentuale livello 5
Nuova Zelanda
19%
Finlandia
18%
Australia
18%
Canada
17%
Regno Unito
16%
Irlanda
14%
Stati Uniti
12%
Belgio
12%
Norvegia
11%
Svezia
11%
Giappone
10%

media OECD

9%
Svizzera
9%
Islanda
9%
Austria
9%

Germania

9%
Francia
8%
Danimarca
8%
Repubblica Ceca
7%
Polonia
6%
Corea
6%
Italia
5%
Ungheria
5%
Liechtenstein
5%
Grecia
5%
Spagna
4%
Portogallo
4%
Lituania
4%
Federazione Russa
3%
Lussemburgo
2%
Messico
1%
Brasile
1%

Solo il 5% dei quindicenni italiani raggiunge il livello 5 (n.d.r.)


... uno studente su sei è riuscito a completare solo i compiti più semplici ...

Alcuni esempi dei compiti più facili

    1. Agli studenti è stato mostrato l'articolo di una rivista per giovani che spiegava il processo e lo scopo dei test sul DNA. Un questionario a scelta multipla richiedeva agli studenti di riconoscere semplicemente che lo scopo principale dell'autore dell'articolo era quello di informare, piuttosto che di divertire, convincere o mettere in guardia i lettori contro questa pratica. Punteggio associato al compito: 406 sulla scale che misura la capacità di interpretazione.
    2. Agli studenti è stata posta una domanda relativa ad una frase in un articolo su delle scarpe sportive in cui venivano discusse caratteristiche della scarpa che potevano prevenire danni ai piedi. Un questionario a scelta multipla richiedeva agli studenti di identificare il rapporto tra due parti della frase, cioè se la seconda parte della frase forniva la soluzione al problema indicato nella prima parte (piuttosto che illustrarla, riferirla o contraddirla). Punteggio associato al compito: 402 punti sulla scala che misura la capacità di riflessione e valutazione.
    3. Dopo aver letto una breve storia di avventura, agli studenti è stato dato un questionario a scelta multipla in cui si chiedeva loro di indicare che cosa era avvenuto dopo una certa parte della storia che veniva riportata. La risposta era indicata in maniera esplicita nella storia ed era facile da individuare sulla base delle informazioni fornite nel compito. Punteggio associato al compito: 367 punti sulla scala relativa alla capacità di trovare informazioni.

Testi integrali degli esempi si trovano nel Rapporto completo

La reading literacy così come è definita in PISA si focalizza sulle conoscenze e abilità di applicare "la lettura all'apprendimento" piuttosto che ad abilità tecniche acquisite nell' "apprendimento della lettura". In pieno accordo con le più recenti teorie sulla lettura, PISA si focalizza sulla misurazione di quanto ciascun individuo sia in grado di costruire, espandere e riflettere sul significato di quanto ha letto in un'ampia gamma di testi di contenuto scolastico ed extra-scolastico. I compiti del Livello 1 sono i compiti più semplici che possono venir associati a questa nozione di reading literacy. Gli studenti che hanno raggiunto questo livello sono in grado di completare solo i compiti meno complessi elaborati da Pisa, per esempio localizzare un'informazione, identificare il tema principale di un testo o stabilire una semplice connessione tra conoscenze di tutti i giorni.

In media nei paesi dell'area OCSE il 12% dei quindicenni sono riusciti a raggiungere solo questo livello. Un ulteriore 6% non si è dimostrato capace di portare a termine neppure questi semplici compiti. Ciò non significa che questi studenti non siano capaci di leggere, ma che hanno gravi difficoltà nell'usare l'abilità di lettura come strumento efficace per avanzare e estendere le loro conoscenze e abilità ad altre aree (vedi Tabella 2.1a del testo completo del rapporto).

Complessivamente, solo uno studente su sei (18%) non è riuscito a progredire al di là del Livello 1, ma la percentuale varia in maniera significativa da paese a paese ed è importante sottolineare che in ogni paese ci sono degli studenti che sono solo riusciti a completare compiti di questo livello. Genitori, educatori e politici nei paesi in cui questa percentuale è alta devono riconoscere che un numero significativo di studenti non stanno traendo beneficio dalle opportunità educative loro offerte e non stanno acquisendo le conoscenze e le abilità per poterlo fare in futuro. Solamente in quattro paesi, Canada, Finlandia, Giappone e Corea, solo il 10% o meno dei quindicenni legge a Livello 1 o al di sotto di questo livello. In tre paesi OCSE, Lussemburgo, Messico e Portogallo, più del 25% degli studenti cade in questa categoria.

Grafico: Percentuale degli studenti a Livello 1 o al di sotto del Livello 1



Classificati a seconda della percentuale di studenti a Livello 1 o al di sotto del Livello 1.


… la maggior parte degli studenti non ha abilità di lettura né molto alte né molto basse …

Alcuni esempi di media difficoltà

  1. Agli studenti è stato chiesto di leggere due lettere inviate via Internet che esprimevano opinioni contradditorie riguardo ai graffiti e di indicare quale delle due lettere fosse stata scritta meglio analizzando lo stile di scrittura e la struttura argomentativa piuttosto che il loro contentuto. Per fare ciò, gli studenti dovevano far riferimento alla loro idea di ciò che costituisce lo scrivere bene. Punteggio associato a questo compito: 581 punti sulla scala che misura l'abilità di riflessione e valutazione.
  2. Gli studenti dovevano usare informazioni contenute in due grafici, uno sui livelli d'acqua del lago Chad in diversi periodi storici e l'altro sul periodo in cui alcune specie di animali avevano cominciato a venir rappresentate in dipinti trovati in caverne vicine al lago, al fine di determinare che certi animali erano scomparsi dopo un periodo in cui i livelli di acqua erano diminuiti. Gli studenti dovevano combinare le informazioni date in due modi diversi. Punteggio associato a questo compito: 508 punti sulla scala che misura la capacità di interpretare informazioni.
  3. Dopo aver letto un breve brano di un'opera teatrale di Jean Anouilh, gli studenti dovevano decidere quale fosse il tema dell'opera: un personaggio sta facendo uno scherzo ad un altro. Un questionario a scelta multipla chiedeva loro di determinare lo scopo dello scherzo. Ciò richiedeva un basso livello di inferenza per determinare l'idea centrale del testo. Punteggio associato a questo compito: 423 punti sulla scala che misura la capacità di interpretare informazioni.

Testi integrali degli esempi si trovano nel Rapporto completo

In media nei paesi dell'area OCSE, circa tre quarti dei quindicenni hanno raggiunto i Livelli 2, 3 o 4, ma in alcuni paesi la percentiuale scende ad appena la metà ed in altri è superiore a otto studenti su dieci (vedi Tabella 2.1a del testo completo del rapporto).

    1. Gli studenti che hanno raggiunto il Livello 4 sono in grado di risolvere compiti complessi, per esempio individuare informazioni non facilmente reperibili, analizzare le sfumature di significato del languaggio usato e valutare criticamente un testo.
    2. Gli studenti che hanno raggiunto il Livello 3 sono in grado di risolvere compiti di moderata complessità, per esempio individuare un certo numero di informazioni, stabilire collegamenti tra parti diverse di un testo e ricollegarle a conoscenze a loro familiari.
    3. Gli studenti che hanno raggiunto il Livello 2 sono in grado di risolvere compiti semplici, per esempio individuare informazioni fornite in maniera chiara, operare inferenze di vario tipo ma di basso livello, determinare il significato di una parte ben definita di un testo e usare conoscenze esterne per comprenderla.

Il grafico dato qui sotto presenta i paesi classificati sulla base della percentuale di studenti che hanno raggiunto questi livelli intermedi. Non prendendo in considerazione quei paesi in cui più di un quarto degli studenti ha raggiunto livelli inferiori al Livello 2 (Brasile, Lussemburgo, Lettonia, Messico, Portogallo e Federazione Russa), ciò dà indicazioni su come siano distribuiti i livelli di prestazione nei vari paesi. Prendendo l'esempio della Corea, si può vedere che l'89% dei quindicenni ha raggiunto livelli medi, mentre pochissimi studenti hanno raggiunto livelli molto alti o molto bassi. In Nuova Zelanda, invece, solo due terzi degli studenti si sono attestati su posizioni intermedie, mentre il restante terzo è diviso tra studenti a Livello 5 (il triplo che in Corea) e studenti a Livello 1 o al di sotto del Livello 1 (più del doppio che in Corea).

Grafico Percentuale degli studenti a Livello 1, 2, 3 e 4
Classificati a seconda della percentuale di studenti a Livello 2,3 e 4



Media dei punteggi relativi alla reading literacy, capacità di lettura

Le cifre date qui sotto mostrano il punteggio medio registrato da ciascun paese sulla scala PISA relativa alla reading literacy. Poichè PISA è un'indagine che usa metodi statistici semplici, le stime ottenute sono associate ad un certo grado di incertezza. Le barre attorno alla media indicano la gamma entro cui cade la media con il 95% di certezza. Ulteriori dettagli sulla comparazione dei punteggi medi sono forniti dalla Figura 2.4 nel testo completo del rapporto.

E' chiaro che poichè i punteggi medi di molti Paesi sono piuttosto simili, la classificazione dei Paesi non può sempre essere determinata in maniera precisa: c'è infatti una sovrapposizione nelle barre che indicano la gamma entro cui si può dire con una certa sicurezza che cadano i punteggi medi di ciascun Paese.


Grafico: Media dei punteggi relativi alla reading literacy: differenze e similarità



La stima della media di ciascun Paese è indicata dalla linea centrale

La gamma in cui si può dire che cada la media (con una certezza del 95%) è indicata dalla barra.
La tabella sotto mostra la gamma delle posizioni di classifica in cui si colloca la media di ciascun Paese con un grado di certezza del 95%.

Media della reading literacy
gamma delle posizioni di classifica di ciascun paese basata su un campione
(con 95% di certezza)

Paese
Posizione
più alta possibile
Posizione
più bassa possibile
Finlandia
1
1
Canada
2
4
Nuova Zelanda
2
8
Australia
2
9
Irlanda
3
9
Corea
4
9
Regno Unito
5
9
Giappone
3
10
Svezia
9
11
Austria
11
16
Belgio
11
16

Islanda

11
15
Norvegia
11
16
Francia
11
16
Stati Uniti
10
20

Danimarca

16
19
Svizzera
16
21
Spagna
17
21
Repubblica Ceca
17
21
Italia
19
24
Germania
21
25
Liechtenstein
20
26
Ungheria
21
26
Polonia
21
27
Grecia
23
28
Portogallo
24
28
Federazione Russa
27
29
Lituania
27
29
Lussemburgo
30
30
Messico
32
32
Brasile
32
32

Un modo per riassumere la prestazione di ciascun paese è di calcolare la media dei punteggi degli studenti. Le cifre date indicano i punteggi medi di ciascun paese.

Vi sono delle differenze significative nella prestazione media degli studenti dei vari Paesi: 125 punti separano i Paesi OCSE che hanno raggiunto i livelli più bassi da quelli che hanno raggiunto i livelli più alti. Se si presuppone che queste differenze possano determinare in futuro le carriere che questi studenti intraprenderanno, si pone il problema della futura competitività di quei paesi in cui un numero elevato di studenti hanno raggiunto solo i livelli più bassi (Tabella 2.3 del testo completo del rapporto).

La differenza nella prestazione media di alcuni paesi è grande, ma la variazione nella prestazione degli studenti all'interno dei singoli Paesi è ancora più grande. Ciò può essere notato osservando la gamma dei punteggi raggiunti dalla metà centrale della popolazione, cioè il divario tra il venticinquesimo e il settantacinquesimo studente in un gruppo di cento studenti classificati a secondo della loro prestazione. Più grande è il divario e più sono diversi i risultati all'interno di quel paese.

In tutti i paesi, la gamma di prestazioni tra il 50% centrale degli studenti supera la grandezza di un livello di prestazione (73 punti) e in Belgio, Germania e Nuova Zelanda il doppio di tale differenza (livelli medi di prestazione OCSE: 1,8) (vedi Tabella 2.3a del testo completo del rapporto).

PISA mostra che una prestazione media alta può accompagnarsi a differenze di bassa entità. I tre paesi con la gamma più piccola nella fascia centrale della popolazione, Finlandia, Giappone e Corea, sono tra i paesi con la più alta prestazione media in reading literacy, mentre la Germania, uno dei tre paesi con la più alta variazione interna di prestazioni, raggiunge punteggi al di sotto della media OCSE.

Questo dimostra che è possibile evitare ampie disparità e che comunque queste disparità non impediscono necessariamente che determinati paesi raggiungano alti livelli di prestazione. Al contrario i risultati suggeriscono che politiche pubbliche possono promuovere pari opportunità e risultati equi di apprendimento per tutti gli studenti.


RISULTATI RELATIVI ALLA LITERACY MATEMATICA

Le prestazioni degli studenti nell'ambito della literacy matematica

Il grafico dato sotto mostra il punteggio medio ottenuto da ciascun paese usando la scala PISA relativa alla capacità di lettura di testi matematici. Poichè PISA è un'indagine che usa metodi statistici semplici, le stime ottenute sono associate ad un certo grado di incertezza. Le barre attorno alla media indicano la gamma entro cui cade la media con il 95% di certezza. Ulteriori dettagli sulla comparazione dei punteggi medi sono forniti dalla Figura 3.2 nel testo completo del rapporto.

E' chiaro che poichè i punteggi medi di molti paesi sono piuttosto simili, la classificazione dei paesi non può sempre essere determinata in maniera precisa: c'è infatti una sovrapposizione nelle barre che indicano la gamma entro cui si può dire con una certa sicurezza che cadano i punteggi medi di ciascun paese.


Grafico: Media dei punteggi relativi alla literacy matematica: differenze e similarità



La stima della media di ciascun paese è indicata dalla linea centrale

La tabella sotto mostra la gamma delle posizioni di classifica in cui si colloca la media di ciascun paese con un grado di certezza del 95%.

Media della literacy matematica
gamma delle posizioni di classifica di ciascun paese basata su un campione
(con 95% di certezza)

Paese
Posizione
più alta possibile
Posizione
più bassa possibile
Giappone
1
3
Corea
2
3
Nuova Zelanda
4
8
Finlandia
4
7
Australia
4
9
Canada
5
8
Svizzera
4
10
Regno Unito
6
10
Belgio
9
15
Francia
10
15

Austria

10
16

Danimarca

10
16
Islanda
11
16
Liechtenstein
9
18
Svezia
13
17
Irlanda
16
19
Norvegia
17
20
Repubblica Ceca
17
20

Stati Uniti

16
23
Germania
20
22
Ungheria
20
23
Federazione Russa
21
25
Spagna
23
25
Polonia
23
26
Lituania
25
28
Italia
26
28
Portogallo
26
29
Grecia
27
30
Lussemburgo
29
30
Messico
31
31
Brasile
32
32

L'abilità di leggere testi matematici e scientifici è importante per capire questioni mediche, economiche e ambientali e altre questioni che regolano aspetti importanti delle società moderne che dipendono grandemente dai progressi tecnologici e scientifici. PISA 2000 fornisce indicazioni sulle prestazioni degli studenti nella lettura di testi matematici e scientifici, ma esamina questa abilità in modo meno dettagliato di quanto fatto per la reading literacy. Ogni studente è stato valutato usando una sola scala, senza l'indicazione di distinti livelli di abilità di lettura, con un punteggio medio di 500 punti come in precedenza.

PISA ha considerato la matematica in relazione ai suoi usi più ampi nella vita quotidiana delle persone.
PISA misura l'abilità degli studenti di leggere testi matematici sulla base della loro capacità di:

I quindicenni in Giappone hanno dimostrato la più alta abilità di leggere testi matematici, ma la prestazione media del Giappone non si distingue in maniera statisticamente significativa da quella registrata in Corea e Nuova Zelanda. Altri paesi che hanno ottenuti punteggi superiori alla media OCSE sono Australia, Austria, Belgio, Canada, Danimarca, Finlandia, Francia, Islanda, Liechtenstein, Svezia, Svizzera e Regno Unito (vedi Figura 3.2 del testo completo del rapporto).

Un esempio delle prove più difficili di matematica

Un esempio delle prove di matematica di media difficoltà

Un esempio delle prove di matematica facili

Testi integrali degli esempi si trovano nel Rapporto completo

RISULTATI RELATIVI ALLA LITERACY SCIENTIFICA

Il grafico dato sotto mostra il punteggio medio ottenuto da ciascun paese usando la scala PISA relativa alla capacità di lettura di testi scientifici. Poichè PISA è un'indagine che usa metodi statistici semplici, le stime ottenute sono associate ad un certo grado di incertezza. Le barre attorno alla media indicano la gamma entro cui cade la media con il 95% di certezza. Ulteriori dettagli sulla comparazione dei punteggi medi sono forniti dalla Figura 3.5 nel testo completo del rapporto.

E' chiaro che poichè i punteggi medi di molti paesi sono piuttosto simili, la classificazione dei paesi non può sempre essere determinata in maniera precisa: c'è infatti una sovrapposizione nelle barre che indicano la gamma entro cui si può dire con una certa sicurezza che cadano i punteggi medi di ciascun paese. La tabella sulla destra mostra la gamma delle posizioni di classifica in cui cade la media di ciascun paese con un grado di certezza del 95%.

Grafico: Media dei punteggi relativi alla literacy scientifica: differenze e similarità



La stima della media di ciascun paese è indicata dalla linea centrale
La gamma in cui si può dire che cada la media (con una certezza del 95%) è indicata dalla barra.

La tabella sotto mostra la gamma delle posizioni in classifica in cui si colloca la media di ciascun paese, con un grado di certezza del 95%.

Media della literacy scientifica
gamma delle posizioni di classifica di ciascun Paese su un campione
(con 95% di certezza)

Paese
Posizione
più alta possibile
Posizione
più bassa possibile
Corea
1
2
Giappone
1
2
Finlandia
3
4
Regno Unito
3
7
Canada
4
8
Nuova Zelanda
4
8
Australia
4
8
Austria
8
10
Irlanda
9
12
Svezia
9
13

Repubblica Ceca

10
13

Francia

13
18
Norvegia
13
18
Stati Uniti
11
21
Ungheria
13
21
Islanda
14
20
Belgio
13
21
Svizzera
13
21

Spagna

16
22
Germania
19
23
Polonia
19
25
Danimarca
21
25
Italia
22
25
Liechtenstein
20
26
Grecia
25
29
Federazione Russa
26
29
Lituania
29
29
Portogallo
26
29
Lussemburgo
30
30
Messico
31
31
Brasile
32
32


L'abilità di leggere testi scientifici è stata valutata misurando la capacità degli studenti di:

I compiti scientifici di PISA variavano in difficoltà secondo una serie di criteri tra i quali:

Il Giappone e la Corea hanno ottenuto le prestazioni più alte sulla scala che misura l'abilità di leggere testi scientifici. Altri paesi i cui punteggi sono superiori alla media OCSE in maniera statisticamente significativa sono Australia, Austria, Canada, Repubblica Ceca, Finlandia, Irlanda, Nuova Zelanda, Svezia e Regno Unito. (vedi figura 3.5 del testo completo del rapporto).


Esempio di un difficile compito di literacy scientifica

Esempio di un compito di literacy scientifica di media difficoltà

Esempio di un compito facile di literacy scientifica

STILI DI APPRENDIMENTO

Quali sono gli stili di apprendimento dei quindicenni?

Gli studenti devono lasciare la scuola non solo con una buona conoscenza delle materie specifiche studiate e le abilità ad esse relative, ma devono anche essere in grado di continuare nel loro percorso di apprendimento. Per far ciò, devono essere capaci di gestire il proprio apprendimento in maniera autonoma piuttosto che dipendere esclusivamente dai loro insegnanti. Ciò significa che, da un lato, devono essere interessati e motivati ad apprendere e dall'altro devono possedere le strategie necessarie per apprendere in maniera efficace.

PISA ha analizzato quanto detto dagli studenti riguardo a questi due aspetti - motivazione, impegno e strategie di apprendimento. I risultati possono essere correlati alla capacità dimostrata dagli studenti di leggere testi di varia natura al fine di ottenere indicazioni su quale tipo di studente abbia raggiunto prestazioni più elevate all'età di quindici anni.

Risultati più importanti

• Tenendo presente i sostanziali investimenti fatti nel settore dell'istruzione e l'importanza di questo settore sia per la società che per il futuro degli studenti, è stato deludente constatare che un numero ancora significativo, per quanto minoritario, di quindicenni ha dimostrato atteggiamenti negativi nei confronti dell'apprendimento e una mancanza di impegno scolastico. Nella maggior parte dei paesi infatti, più di un quarto degli studenti ha detto che la scuola è un posto in cui non vogliono andare - questo varia da meno del 20% in Danimarca. Messico, Portogallo e Svezia a più del 35% degli studenti in Belgio, Canada, Francia, Ungheria, Italia e Stati Uniti (vedi www.pisa.oecd.org).

• Anche l'interesse dimostrato dagli studenti per la lettura e la matematica varia grandemente ed è strettamente correlato alle loro prestazioni. Circa metà dei quindicenni ha un atteggiamento generalmente positivo nei confronti della lettura. Questo varia da paese a paese, con meno di un terzo degli studenti in Belgio e Corea, ma circa due terzi in Danimarca, Messico e Portogallo: in questi paesi gli studenti concordano nel dire che leggere è un'attivita piacevole a cui non vorrebbero rinunciare. L'interesse nei confronti della matematica varia in maniera ancor più significativa da paese a paese: nella maggior parte dei paesi solo una piccola percentuale di quindicenni pensa che valga la pena continuare a studiare la matematica perchè la considera importante per il suo futuro (vedi Tabella 4.2 del testo completo del rapporto). Non solo la mancanza di interesse verso questa materia tende ad essere associata a basse prestazioni degli studenti (vedi Tabelle 4.1 e 4.2 del testo completo del rapporto), ma altre ricerche condotte in questo campo hanno dimostrato che gli studenti scarsamente motivati allo studio scolastico a questa età probabilmente non saranno motivati a proseguire nel loro percorso di apprendimento, all'interno o al di fuori delle istituzioni scolastiche, in fasi successive della loro vita.

• Gli studenti che leggono più di quanto venga loro richiesto a scuola tendono ad avere migliori strategie di lettura, ma questo rapporto non è sempre necessariamente vero. In alcuni paesi questa correlazione è più forte che in altri e alcuni paesi in cui ci sono meno studenti appassionati alla lettura ottengono comunque buoni risultati di media (vedi Tabella 4.3 del testo completo del rapporto).

Avendo preso in considerazioni diversi aspetti degli stili di apprendimento degli studenti, PISA è giunta alle seguenti conclusioni:

L'aspetto che è più strettamente collegato alle prestazioni è "il controllo del processo di apprendimento".
Agli studenti è stato chiesto fino a che punto:

• In ogni paese, la maggior parte del 25% degli studenti che dice di applicare queste strategie ha raggiunto punteggi significativamente più elevati del 25% degli studenti che dice di adottare queste strategie solo raramente. In alcuni paesi il divario corrisponde ad un intero livello - per esempio, la differenza tra lo studente medio con abilità di lettura a Livello 2 e lo studente medio con abilità di lettura a Livello 3. (vedi Tabella 4.5. del testo completo del rapporto).

• Nell'assimilare nuove conoscenze gli studenti usano sia apprendimento mnemonico che strategie di elaborazione, cioè strategie per assimilare nuove informazioni integrandole alle conoscenze da loro già acquisite. I risultati di PISA 2000 indicano che gli studenti che dicono di privilegiare l'apprendimento mnemonico delle informazioni non ottengono sempre risultati migliori, mentre quelli che elaborano ciò che hanno imparato tendono ad ottenere buoni risultati (vedi Tabelle 4.6 e 4.7 del testo completo del rapporto).

• Sia le strategie di apprendimento che richiedono co-operazione che le strategie basate sulla competitività favoriscono l'apprendimento. Gli studenti che dicono di usare strategie di apprendimento competitive tendono ad ottenere risultati migliori di quelli che non le usano. Allo stesso modo, gli studenti che dicono di imparare in maniera co-operativa ottengono risultati migliori di quelli che non adottano queste strategie. Questo risultato sembra suggerire che entrambi gli approcci possono contribuire all'apprendimento in alcune situazioni: sono strategie complementari piuttosto che alternative (vedi tabelle 4.8 e 4.9 del testo completo del rapporto).

E' difficile affermare senza ulteriore analisi che certe strategie di apprendimento determinino prestazioni migliori: ciò potrebbe semplicemente essere spiegato dal fatto che gli studenti che hanno prestazioni migliori per altri motivi adottino comunque le strategie più efficaci. Ciò nonostante, i risultati indicano quale tipo di apprendimento è assocciato a risultati buoni. Le scuole e i genitori devono cercare di aiutare gli studenti ad adottare tecniche che permettano loro di gestire il proprio apprendimento in maniera efficace.


ABILITÀ DI LETTURA E PIACERE DI LEGGERE

Agli studenti è stato chiesto di indicare quanto leggano per il piacere di leggere. Una percentuale considerevole in ogni paese ha risposto che non legge affatto per piacere. La proporzione varia da una maggioranza di studenti in Giappone a meno del 20% in Brasile, Lettonia, Messico, Portogallo e Federazione Russa, come indicato nella prima colonna della tabella. Tra gli studenti che dicono di leggere per piacere, la maggior parte lo fa per meno di un'ora al giorno. La seconda colonna mostra quanti studenti (l'11% di media nei paesi dell'area OCSE) sono appassionati alla lettura e leggono una o due ore al giorno per piacere.

I ragazzi che amano leggere hanno migliori abilità di lettura? Mediamente in ciascun paese, la risposta è sì. Per esempio, l'ultima colonna della tabella indica che gli studenti australiani che leggono una o due ore al giorno per piacere ottengono di media un punteggio superiori di 92 punti sulla scala che misura l'abilità di lettura rispetto a quelli studenti che non leggono per piacere. Ciò è equivalente a più di un livello - per esempio la differenza tra l'essere in grado di completare compiti di lettura a Livello 3 e compiti di lettura a Livello 4 - vedi esempi a pagina 7.

In ogni caso è importante sottolineare che:

Paese
Percentuale che legge per piacere
Differenze tra punteggi medi di lettura degli studenti in a) e in b)
a) per niente
%
b) 1-2 ore al
giorno %
Australia
33
12
92
Germania
42
9
84
Svizzera
35
8
83
Finlandia
22
18
79
Canada
33
10
77
Nuova Zelanda
30
10
76
Islanda
30
7
73
Svezia
36
9
72
----------
-------------
-------------
-----------------
Regno Unito
29
9
70
Lituania
18
20
67
Francia
30
11
67
Norvegia
35
8
65
Irlanda
33
12
65
Repubblica Ceca
26
13
63
Austria
41
9
63
Portogallo
18
12
62
Stati Uniti
41
8
59
Belgio
42
9
59
Danimarca
27
9
57
Spagna
32
9
54
Ungheria
26
13
53
Federazione Russa
19
17
49
Polonia
24
16
49
Corea
31
12
41
Italia
31
13
41
Paesi Bassi      
-------------
--------------
---------------
--------------
Giappone
55
8
27
Lussemburgo
38
12
25
Brasile
19
17
25
Grecia
22
20
19
Messico
14
12
6
DIFFERENZE DI RISULTATI SULLA BASE DEL SESSO

I politici hanno storicamente attribuito grande importanza alle questioni legate alle pari opportunità, e hanno dato particolare attenzione agli svantaggi che ragazze e donne devono affrontare. I risultati di PISA evidenziano i successi ottenuti da molti paesi in questo campo, ma anche un crescente problema che interessa gli studenti di sesso maschile particolarmente per quello che riguarda l'abilità di lettura di testi di natura non specialistica. In circa metà dei paesi, le studentesse rimangono ancora svantaggiate per quello che riguarda la lettura di testi matematici, mentre non vengono registrate differenze degne di nota nell'abilità di leggere testi di natura scientifica.

Abilità di lettura:
le femmine hanno risultati migliori
in tutti i Paesi
Risultati superiori di
almeno mezzo livello
Punti di vantaggio
nei punteggi medi
Lituania
53
Finlandia
51
Nuova Zelanda
46
Norvegia
43
Islanda
40
Federazione Russa
38
Italia
38
Repubblica Ceca
37
Grecia
37
Svezia
37
Polonia
36
Germania
35
Australia
34
Belgio
33
Canada
32
Ungheria
32
Liechtenstein
31
Svizzera
30
Giappone
30
Paesi Bassi
30
Francia
29
Irlanda
29
Stati Uniti
29
Lussemburgo
27
Austria
26
Regno Unito
26
Danimarca
25
Portogallo
25
Spagna
24
Messico
20
Brasile
17
Corea
14

Matematica:
i maschi ottengono risultati migliori in metà dei paesi (negli altri paesi non c’e differenza statisticamente significativa)
Paesi
Punti di vantaggio
nei punteggi medi
Austria
27
Brasile
27
Corea
27
Portogallo
19
Spagna
18
Lussemburgo
15
Danimarca
15
Germania
15
Svizzera
14
Francia
14
Irlanda
13
Liechtenstein
12
Repubblica Ceca
12
Norvegia
11
Canada
10

Scienze
Le femmine ottengono risultati
migliori in tre paesi
Paesi
Punti di vantaggio
nei punteggi medi
Lituania
23
Federazione Russa
14
Nuova Zelanda
12

Scienze:
I maschi ottengono risultati
migliori in tre paesi
Paesi
Punti di vantaggio
nei punteggi medi
Corea
19
Austria
12
Danimarca
12

I risultati più importanti

• In tutti i Paesi le femmine hanno strategie di lettura migliori dei maschi. La differenza più notevole evidenziata da PISA 2000 è che le femmine ottengono costantemente risultati migliori dei maschi nell'abilità di lettura. Come mostra la tabella, la differenza non è piccola. In Nuova Zelanda per esempio, il punteggio medio dei maschi è di 507 punti, vicino al punteggio medio di tutti gli studenti nei paesi OCSE, ma il punteggio medio delle femmine è di 553 punti, più alto della media di tutti gli studenti di qualunque paese (vedi Tabella 5.1a del testo completo del rapporto). In tutti i Paesi OCSE le femmine ottengono di media 45 punti più dei maschi sulla scala che misura l'abilità di riflessione e valutazione, mentre ottengono 29 punti in più sulla scala che misura l'àbilità di interpretare i testi e 24 punti sulla scala che misura l'abilità di trovare informazioni. Queste differenze possono essere influenzate da differenze negli interessi di lettura: i maschi dicono di leggere più fumetti, giornali e pagine web, le femmine più romanzi (vedi tabella 5.1b del testo completo del rapporto).

• Si registrano differenze più contenute tra l'abilità di leggere testi matematici o scientifici e l'abilità di leggere testi di natura non specialistica. Per quello che riguarda l'abilità di leggere testi matematici, i maschi in tutti i paesi OCSE ottengono di media 11 punti in più, ma la differenza è statisticamente significativa solo in metà dei paesi OCSE. Per quello che riguarda l'abilità di leggere testi scientifici, c'è una differenza significativa in favore o dei maschi o delle femmine solo in sei paesi (vedi tabella 5.1a del testo completo del rapporto).

• E' più probabile che i maschi ottengano punteggi più bassi nella lettura di testi di natura non specialistica, ma non è vero che che le femmine tendano ad ottenere risultati più bassi nella lettura di testi matematici. Un importante fattore da tenere presente nell'ambito delle politiche educative emerge dalle grandi differenze riconducibili al sesso degli studenti che hanno ottenuto i risultati più bassi nella lettura di testi di natura non specialistica. In tutti i paesi che hanno partecipato all'inchiesta, è risultato più probabile che i maschi e non le femmine fossero a Livello 1 o a un livello più basso, per quello che riguarda l'abilità di leggere testi di natura non specialistica: nel caso della Finlandia si è registrata una probabilità tre volte superiore che ciò avvenisse (vedi Tabella 5.2a del testo completo del rapporto). Se è pur vero che i maschi, di media, ottengono risultati migliori delle femmine nella lettura di testi matematici, questo risultato è più riconducibile al fatto che ci sono più maschi che femmine tra gli studenti che hanno ottenuto i risultati migliori e il vantaggio dei maschi scompare quando si prende in esame il numero degli studenti con i punteggi più bassi (vedi Tabella 5.2b del testo completo del rapporto). Questi risultati suggeriscono che il fatto che i maschi non riescano in generale ad ottenere buoni punteggi costituisce un vero problema che le politiche educative devono cercare di risolvere sia in termini di riduzione del divario di prestazione tra i due sessi sia al fine più generale di ridurre la proporzione di studenti che hanno raggiunto solo i livelli più bassi di prestazione.

• Alcuni Paesi mostrano che le grandi differenze tra i due sessi non sono inevitabili. C'è una variazione significativa tra i vari paesi per quello che riguarda le differenze tra i due sessi. I risultati di PISA 2000 suggeriscono infatti che in alcuni paesi entrambi i sessi traggano vantaggio nella stessa maniera dall'ambiente educativo o da un contesto più ampio. Al contrario, le differenze ancora esistenti in alcuni paesi e la diffusa posizione di svantaggio che molti studenti maschi hanno nella reading literacy rendono necessari seri provvedimenti in campo educativo.

• Le femmine tendono ad esprimere un interesse maggiore verso la lettura di testi di natura non specialistica, mentre i maschi mostrano un interesse maggiore per la lettura di testi matematici. Nella media dei paesi OCSE, circa la metà di tutti i maschi, ma solo un quarto delle femmine, dice che legge solo quando è obbligata a farlo (vedi Tabella 5.4 del testo completo del rapporto). Invece le femmine tendono a mostrare un interesse minore dei maschi verso la lettura di testi matematici. La stessa correlazione tra interesse per la materia e prestazione fornita suggerisce che le diverse abitudini e interessi di maschi e femmine possono avere grandi conseguenze sul loro appredimento, conseguenze che le politiche educative devono prendere in esame e risolvere (vedi Tabella 4.1 del testo completo del rapporto).

• Maschi e femmine adottano diverse strategie di apprendimento. E' più probabile che siano le femmine a dire di assumere responsabilità per il proprio apprendimento, strategia che tende ad essere associata al raggiumgimento di un buon livello di apprendimento. Le femmine tendono altresì anche a far più uso di strategie mnemoniche, strategie che non sono di solito associate a buoni livelli di prestazione al contrario di quelle strategie che richiedono di porre in relazione vecchie e nuove conoscenze, strategie che sembrano essere invece preferite dai maschi (vedi Tabelle 4.5, 4.6 e 4.7 del testo completo del rapporto).

L'IMPORTANZA DELLO STATUS DI ORIGINE DELLA FAMIGLIA

E' provato che gli studenti che provengono da famiglie con un background migliore in termini di livello di istruzione e professione dei genitori e di risorse disponibili nell'ambiente familiare tendono a ottenere risultati migliori a scuola. PISA ha analizzato a livello internazionale l'importanza di questo rapporto e il suo peso nello spiegare generali differenze tra le prestazioni degli studenti.

I risultati più importanti

L'associazione tra background familiare e prestazione degli studenti varia grandemente da Paese a Paese. Il grafico sotto illustra le differenze medie nei punteggi relativi all'abilità di lettura a seconda della professione dei genitori. PISA ha classificato le professioni usando una scala riconosciuta a livello internazionale e basata sul valore economico delle professioni. Nel grafico, la parte sinistra di ciascuna barra rappresenta la media del punteggio relativo all'abilità di lettura del 25% degli studenti di ciascun paese che hanno genitori la cui professione è catalogata come "bassa". La parte destra di ogni barra rappresenta la media del punteggio relativo all'abilità di lettura del 25% degli studenti di ciascun paese che hanno genitori la cui professione è catalogata come "alta". In questo modo la lunghezza di ciascuna barra indica la differenza media nell'abilità di lettura tra gli studenti che vengono dalle famiglie meno abbienti e gli studenti che vengono dalle famiglia più abbienti in base alla professione dei genitori. In Corea è stata registrata una differenza relativamente piccola di 33 punti tra i due gruppi, equivalente a meno della metà di un livello, mentre in Germania e in Svizzera, la differenza è di circa 114 punti, equivalente a più di un livello (vedi Tabella 6.1a del testo completo del rapporto).

Non tutti gli studenti che provengono da famiglie non abbienti ottengono risultati bassi. In alcuni Paesi il 25% degli studenti che provengono da famiglie con il reddito più basso raggiunge comunque punteggi di prestazione medi. Ciò avviene per esempio in Canada, Finlandia e Corea dove questo gruppo di studenti ha comunque ottenuto punteggi superiori alla media dei paesi OCSE.

Differenze nei punteggi relativi all'abilità di lettura di testi di natura non specialistica a seconda della professione dei genitori.



Media del gruppo di studenti che provengono dalle famiglie meno abbienti sulla base della professione dei genitori
Media del gruppo di studenti che provengono dalle famiglie più abbienti sulla base della professione dei genitori



PISA ha preso in considerazione gli effetti di diversi aspetti specifici del background familiare. Oltre alla professione dei genitori, è stato riscontrato che:

• Un livello di istruzione più alto dei genitori ed una maggiore comunicazione sociale e culturale tra i genitori e i loro figli sono associati a prestazioni migliori degli studenti. Gli studenti le cui madri non hanno completato gli studi secondari superiori sembrano essere particolarmente svantaggiati e ottengono, come media tra i paesi OCSE, 44 punti meno degli studenti le cui madri hanno completato gli studi di scuola media superiore (vedi Tabella 6.7 del testo completo del rapporto). Il completamento da parte delle madri di studi a livello di educazione terziaria ha un effetto meno rilevante e costante (vedi Tabella 6.7 del testo completo del rapporto). Il livello di istruzione dei genitori è strettamente correlato ad altri aspetti del background familiare, ma, a parità di altri fattori, ogni ulteriore anno di istruzione da parte dei genitori aggiunge quasi 4,7 punti ai punteggi degli studenti (vedi Tabella 8.2 del testo completo del rapporto). PISA ha anche chiesto agli studenti come interagiscono con i loro genitori, per esempio se discutono di libri o mangiano insieme. Gli studenti che hanno un grado di interazione maggiore ottengono di media punteggi più elevati. La comunicazione culturale, per esempio discutere di libri, ha un ruolo ancora più importante (di media tra i paesi OCSE 59 punti tra il 25% degli studenti che ha riportato i punteggi più alti o più bassi) di quello rivestito dalla comunicazione sociale (in media 30 punti, vedi tabella 6.5).

• Gli studenti che provengono da famiglie abbienti tendono ad ottenere risultati migliori e gli studenti le cui famiglie possegggono beni di cultura classica tendono a ottenere risultati ancora più elevati. Agli studenti è stato chiesto che tipo di beni hanno a casa. Gli studenti provenienti dalle famiglie più abbienti generalmente ottengono risultati migliori degli studenti che provengono da famiglie meno abbienti, ma le differenze tra le loro prestazioni sono modeste (vedi Tabella 6.2 del testo completo del rapporto). Un indicatore più forte di prestazione è legato al possesso da parte degli studenti di beni associati alla "cultura classica", per esempio opere di letteratura o arte (vedi Tabella 6.3 del testo completo del rapporto). Mentre il poter godere di questi "vantaggi" è riconducibile ad altre caratteristiche del background familiare, è interessante notare che anche quando questi vantaggi sono presi in considerazione in isolamento il loro effetto sulle prestazioni degli studenti rimane costantemente forte (vedi Tabella 8.2 del testo completo del rapporto) e sembra influenzare in maniera più determinante l'abilità di leggere testi di natura non specialistica piuttosto che testi di natura matematica o scientifica. E' comunque importante sottolineare il beneficio, da un punto di vista educativo, che deriva dalla possibilità di avere accesso a beni letterari o culturali all'interno della propria casa.

• Gli studenti che vivono con solo uno dei genitori tendono ad ottenere risultati inferiori. Nella media dei paesi OCSE, a parità di altri fattori, gli studenti che vivono con un solo genitore ottengono punteggi inferiori di 12 punti nell'abilità di lettura rispetto agli studenti che vivono con entrambi i genitori (vedi Tabella 8.2 del testo completo del rapporto). In alcuni paesi non viene però registrata una differenza significativa tra i due gruppi. E' interessante notare che i due Paesi in cui è stata registrata la differenza più notevole, il Regno Unito e gli Stati Uniti, sono anche i due paesi con il maggior numero di studenti che vivono con un solo genitore (vedi Tabelle 6.9 e 8.2 del testo completo del rapporto).

• I risultati ottenuti da bambini nati all'estero variano grandemente. In molti Paesi, i bambini nati all'estero ottengono risultati molto più bassi nell'abilità di lettura di testi non specialistici degli studenti che sono nati (e i cui genitori sono anche loro nati) nel Paesi in cui abitano. Gli studenti nati all'estero ottengono almeno 71 punti di meno degli studenti nati nel Paese in 10 dei 15 Paesi con più del 3% di studenti immigrati, ma in alcuni Paesi il divario è molto più piccolo. (vedi Tabella 6.10 del testo completo del rapporto). Una differenza significativa, 26 punti di media tra i Paesi OCSE, permane anche quando vengono presi in considerazione altri fattori del background familiare (vedi Tabella 8.2 del testo completo del rapporto). Questi studenti possono essere svantaggiati da un punto di vista accademico sia perchè sono immigrati che entrano in un sistema scolastico nuovo o perchè devono imparare una nuova lingua in un ambiente familiare che non ne favorisce l'apprendimento. In entrambi i casi essi richiedono una speciale attenzione. PISA ha evidenziato un quadro più variegato nel caso di studenti nati nel paese, ma i cui genitori sono immigrati. In alcuni Paesi, questi studenti non ottengono risultati significativamente diversi da quelli dei ragazzi nativi, ma in quattro Paesi - Belgio, Germania, Lussemburgo e Paesi Bassi - vi è un divario superiore ad un livello tra i due gruppi (vedi Tabella 6.10 del testo completo del rapporto).

LE SCUOLE POSSONO COMPENSARE LE DIFFERENZE SOCIO-ECONOMICHE?

I sistemi scolastici mirano a garantire pari opportunità per tutti i bambini indipendentemente dalle circostanze familiari in cui sono nati. In pratica però, bambini con background familiare diverso raggiungono livelli diversi di prestazioni. Fino a che punto questo dipende dall'ambiente familiare e fino a che punto questo è dovuto ad esperienze scolastiche? PISA fornisce alcune indicazioni che possono essere prese in considerazione nell'elaborazione di strategie miranti a migliorare le prestazioni degli studenti con più difficoltà.

I risultati più importanti

In alcuni Paesi, le differenze nelle prestazioni degli studenti sono chiaramente riconducibili a differenze nella prestazione delle scuole. Come indicato nel grafico, ci sono ampie differenze nelle abilità di lettura tra le scuole di paesi come Austria, Belgio, Germania, Ungheria e Polonia: queste differenze influenzano in maniera significativa la prestazione generale degli studenti. Al contrario, in paesi come Nuova Zelanda e Norvegia le differenze sussistono principalmente all'interno delle scuole. I Paesi in cui sono state registrate le maggiori differenze tendono ad essere quei Paesi in cui gli studenti sono avviati a diversi tipi di scuole secondarie, spesso sulla base dei risultati da loro ottenuti in precedenti cicli di scuola (vedi Tabella 2.4 del testo completo del rapporto).

Variazione della prestazione degli studenti nella lettura


Tra Scuole - Entro le Scuole
Indice di variazione (variazione totale media nei paesi OCSE = 100)

• I diversi risultati registrati all'interno delle singole scuole e tra scuole diverse sono associati al background socio-economico. Gli studenti che frequentano le scuole migliori spesso vengono da famiglie benestanti. PISA ha anche trovato che le prestazioni degli studenti sono influenzate dal loro background socio-economico soprattutto in quei sistemi educativi con sistemi scolastici differenziati rispetto a sistemi in cui il curricolo non varia in maniera significativa da scuola a scuola (vedi Tabella 8.3 del testo completo del rapporto).

• La composizione socio-economica della popolazione studentesca di una scuola è un indicatore ancora più forte della prestazione degli studenti che il background familiare. PISA ha rilevato, per esempio, che due studenti provenienti da famiglie simili ma che frequentano scuole diverse - una con un profilo socio- economico più alto e una con un profilo socio-economico più basso - possono presentare differenze più grandi nelle loro prestazione rispetto a due studenti con background familiare diverso, ma che frequentano la stessa scuola. Sebbene questo fenomeno abbia cause complesse, è comunque indicativo del potenziale rapporto esistente tra la segregazione socio-economica di studenti in scuole diverse e la polarizzazione degli studenti sulla base delle loro prestazioni (vedi Tabella 8.4 del testo completo del rapporto).

• Un miglior ambiente scolastico e la disponibilità di buone risorse sono fattori associati, seppure in maniera diversa, a migliori prestazioni da parte degli studenti. In Belgio, Germania e Lussemburgo, per esempio, le scuole con un background socio-economico più favorevole tendono a reclutare una percentuale maggiore di insegnanti specializzati, spesso perchè questi insegnanti sono utilizzati nei corsi più avanzati che preparano all'entrata nel mondo universitario. Le scuole i cui studenti hanno un background socio-economico più elevato sembrano avere anche un ambiente migliore dal punto di vista disciplinare, fatto riportato in particolare dagli studenti in Italia, Giappone, Spagna, Regno Unito e Stati Uniti. Infine, gli studenti che frequentano scuole con status economico, sociale e culturale basso tendono a non usare regolarmente le risorse scolastiche al contrario di ciò che avviene nelle scuole migliori (vedi Tabelle 8.5 e 8.5a del testo completo del rapporto).

Implicazioni per quello che riguarda le politiche educative

• I risultati di PISA hanno importanti implicazioni per le politiche educative. In alcuni Paesi, gli studenti sono fortemente segregati in base a variabili socio-economiche: ciò è dovuto in parte a fattori riconducibili alla segregazione abitativa o a fattori economici, ma anche ad alcune caratteristiche dei sistemi educativi. Questi Paesi dovrebbero promuovere politiche educative miranti a moderare l'impatto del background familiare sulla prestazione degli studenti, per esempio riducendo il livello di segregazione su basi socio-economiche o distribuendo risorse alle scuole in maniera differenziata. In questi Paesi è importante che si capisca come lo stanziamento dei fondi scolastici all'interno del Paese sia collegato al background socio-economico degli studenti che frequentano le scuole. In altri Paesi, c'è relativamente poca segregazione socio-economica, cioè le scuole non registrano forti differenze tra il background socio-economico degli studenti che le frequentano. Le politiche educative di questi Paesi possono mirare a moderare l'impatto del background familiare attraverso misure finalizzate a migliorare le risorse scolastiche e a ridurre, all'interno della scuola stessa, la segregazione in rapporto allo status culturale, economico e sociale degli studenti. Ciò che conta di più è come queste risorse vengano usate.

CHE COSA POSSONO FARE LE SCUOLE PER CAMBIARE LA SITUAZIONE?

Il background familiare influisce sul successo scolastico e lo status socio-economico delle scuole può rafforzare i suoi effetti. PISA ha identificato molte cose che le scuole posso fare per favorire il successo scolastico. Pur avendo identificato un numero di fattori che interagiscono nell'influenzare il successo scolastico, questo primo rapporto non intende stabilire rapporti casuali tra quello che le scuole fanno e le prestazioni dei loro studenti. Ciò nonostante, i risultati iniziali forniscono alcune indicazioni sulle condizioni scolastiche che sono più strettamente collegate al successo scolastico. I seguenti risultati prendono in considerazione l'effetto individuale di ciascun fattore identificato dopo aver preso in considerazione le associazioni con altri fattori osservati a scuola e nel background familiare. I risultati presentati qui a seguito tendono ad essere simili per l'abilità di lettura di testi di natura non specialistica e testi di natura matematica e scientifica.

• L'uso che gli studenti fanno delle risorse della scuola è un fattore più importante nel determinare il livello delle loro prestazioni che le infrastrutture scolastiche. Agli studenti sono state fatte domande relative al loro uso della biblioteca, computer, calcolatori, laboratori e collegamenti internet disponibili nella loro scuola. Nelle scuole in cui l'uso di queste strutture è relativamente alto, i risultati medi tendono ad essere più elevati, anche quando non vengono presi in considerazione altri fattori (vedi Tabella 8.5 del testo completo del rapporto). Deficenze nella qualità delle infrastrutture scolastiche riportate dai presidi tendono ad avere un impatto di minor rilevanza dell'uso che gli studenti fanno di queste risorse (vedi Tabelle 7.10, 7.11 e 8.5 del testo completo del rapporto).

• La presenza di insegnanti qualificati è tra le risorse più preziose della scuola. PISA ha chiesto ai presidi delle scuole di indicare la percentuale dei loro insegnanti con qualifiche a livello universitario nelle discipline che insegnano. Nella media dei paesi OCSE, la presenza di un numero maggiore di questi insegnanti è riconducibile a miglior risultati da parte degli studenti. Per esempio, per quello che riguarda l'abilità di lettura, un aumento del 25% nella percentuale degli insegnanti con qualifiche a livello universitario nelle discipliche che insegnano è associato ad un vantaggio di 9 punti sull'abilità degli studenti di leggere testi di natura non specialistica (vedi Tabella 8.5 del testo completo del rapporto).

• Il rapporto tra numero di studenti e numero di insegnanti assume importanza laddove sia relativamente alto. Nelle scuole con più di 25 studenti per ogni insegnante la prestazione media degli studenti è chiaramente inferiore e i risultati degli studenti diminuiscono con l'aumentare del rapporto numerico studenti-insegnante. Nei casi più tipici in cui il rapporto studenti-insegnante è tra 10 e 25 vi è una correlazione meno forte con la prestazione degli studenti nella lettura di testi di natura non specialistica. Nelle scuole con meno di 10 studenti per insegnante si registrano punteggi leggermente inferiori alla media dei paesi dell'aerea OCSE, ma questo potrebbe essere spiegato dal fatto che molte di queste scuole sono frequentate da studenti con problemi di apprendimento (vedi Tabella 8.5 del testo completo del rapporto).

• Alcuni aspetti delle politiche e delle attività scolastiche tendono ad essere correlate ad una migliore prestazione degli studenti. I presidi delle scuole ritengono che, nella media dei paesi dell'aerea OCSE, tre di questi fattori siano indicativi di una correlazione positiva e statisticamente significativa con i risultati conseguiti dagli studenti. I tre fattori identificati sono:

• Alcuni aspetti delle attività di classe sono correlate a migliori risultati degli studenti. Gli studenti ritengono che tre di questi fattori siano indicativi di una correlazione positiva e statisticamente significativa con i risultati da loro ottenuti. I tre fattori identificati sono:

• Gli studenti che raggiungono risultati positivi tendono a fare i compiti. Un altro fattore direttamente ricollegabile a buoni risultati scolastici è rappresentato dai compiti. All'interno dei singoli paesi, gli studenti che fanno più compiti tendono, di media, a ottenere risultati migliori nella lettura di testi di natura non specialistica. Il 25% degli studenti che fanno il maggior numero di compiti ottengono un punteggio superiore di 44 punti rispetto al 25% degli studenti che fanno il minor numero di compiti. Questa correlazione appare più forte in quei Paesi in cui gli studenti fanno di media più compiti.

E' necessario continuare la ricerca in questo campo

In generale, l'effetto combinato di questa serie di fattori a livello scolastico spiega il 31% delle differenze nella prestazione relativa alla lettura di testi di natura non specialistica tra le scuole all'interno dello stesso Paese e il 21% delle variazioni registrate tra i vari Paesi. Se associati ai fattori legati al background familiare, questi fattori possono spiegare il 72% delle variazioni tra scuole all'interno dello stesso Paese e il 43% delle variazioni registrate tra i vari Paesi (vedi Tabella 8.5 del testo completo del rapporto).

Queste conclusioni danno una prima indicazione dei risultati dell'inchiesta PISA. Sarebbe necessario condurre ulteriore ricerca e analisi per identificare il peso dei diversi fattori scolastici e il modo in cui interagiscono con il background familiare e influenzano la prestazione delle scuole e degli studenti. Le prossime inchieste del 2002 e del 2003 cercheranno di identificare in maggior dettaglio i motivi per cui alcuni paesi e alcune scuole ottengono risultati migliori e raggiungono obbiettivi di apprendimento in maniera più equa di altri.



La scuola e la famiglia 

Daniele Checchi

lavoce.info  14-02-2005

La recente pubblicazione dei risultati dell’indagine Pisa (Programme for International Student Assessment) relativi al 2003 ha riportato all’attenzione del dibattito il basso livello di competenze conseguite dagli studenti italiani quindicenni.
Nel 2000 il focus dell’indagine era sulle competenze linguistiche: a fronte di un punteggio medio di tutti i paesi fissato convenzionalmente pari a 500, la media del punteggio degli studenti italiani era 486. Tuttavia, quel punteggio risultava da 539 punti per gli studenti iscritti nei licei, 479 negli istituti tecnici e 435 nelle scuole professionali.

Le competenze nel 2000 e nel 2003

Nel 2003 il focus era invece rivolto alle competenze matematiche, ma la situazione è, se possibile, peggiorata.
Il punteggio medio degli studenti italiani è 466, sempre contro una media convenzionale di 500. Il punteggio medio nei licei (per le capacità di problem solving, l’unica pubblicata nel sito italiano dell’Invalsi: http://www.invalsi.it/ri2003/pisa2003) è 513. Scende a 474 negli istituti tecnici e 406 nelle scuole professionali. Altrettanto preoccupanti sono le variazioni territoriali: nel 2000 si oscillava tra 519 nelle scuole del Nord-ovest e 458 nel Sud e nelle isole (vedi tabella sottostante). Sfortunatamente, non è possibile fornire analoga disaggregazione per i dati relativi al 2003, in quanto nei dati ufficiali non vengono fornite queste informazioni.

Punteggio mediano conseguito – Italia – indagine PISA 2000

 

nord ovest

nord est

centro

sud

isole

Totale

scuola media inferiore

367.05

451.09

450.17

---

276.01

276.90

scuola professionale

477.84

460.61

456.98

392.65

399.79

441.61

istituto tecnico

512.28

535.04

464.50

450.63

441.61

480.49

licei

573.39

565.76

533.84

531.67

501.27

540.26

Totale

519.49

526.08

496.11

471.95

458.42

492.67

 

 

La sicurezza del liceo

Il problema della bassa competenza degli studenti italiani non è quindi un problema generalizzato o generalizzabile. Se si abita in una grande città del Nord e si mandano i propri figli in un liceo, i risultati dell’indagine Pisa non dovrebbero preoccupare: i figli conseguono obiettivi che non hanno nulla da invidiare a quelli di finlandesi e coreani. Chi invece deve preoccuparsi sono i genitori delle regioni meridionali, che iscrivono i propri figli in scuole tecniche o professionali, perché il livello medio delle competenze registrato in quelle scuole occupa gli ultimi posti in classifica.
Dal punto di vista delle politiche scolastiche, la questione è individuare le determinanti del livello di competenze di uno studente, per riuscire a capire se e in che misura i divari siano correggibili. L’indagine Pisa rappresenta un’occasione formidabile perché contiene una grande varietà di dati sia sull’ambiente familiare (dall’istruzione dei genitori al numero di libri presenti in casa, fino ad arrivare alla frequenza di discussioni su temi di carattere culturale) sia sull’ambiente scolastico di riferimento (grado di disciplina morale degli insegnanti, misurato sulla dichiarazione degli studenti e dei dirigenti scolastici; carenza di spazi e di strutture).
Dall’analisi dei dati relativi alle determinanti delle competenze linguistiche acquisite nel 2000 (vedi figura), si nota come l’iscrizione a un liceo rappresenti il fattore a più elevato impatto. Esso raccoglie e "sintetizza" l’insieme dell’impatto dei fattori socio-ambientali: quando infatti si tiene conto del tipo di scuola secondaria tutte le altre caratteristiche dell’ambiente familiare (istruzione e prestigio sociale) perdono di significatività statistica.

Il ruolo della famiglia

L’impatto del background familiare sembra quindi esaurirsi con la scelta di una specifica scuola secondaria. È interessante notare che a parità di altre, l’unica caratteristica familiare che sopravvive è la scelta di una scuola privata, cui è però associato un premio negativo, a conferma probabilmente del fatto che gli istituti privati in Italia svolgono un ruolo di scuole di recupero per i figli meno capaci delle famiglie più ricche. Dalla stessa analisi si nota altresì che le risorse materiali hanno scarso impatto, così come poco importanti sono i fattori di scala (dimensione della scuola, rapporto studenti/insegnanti, carenze degli edifici e comportamento degli insegnanti). Resta invece molto forte la determinante associata al comportamento disciplinare degli studenti, unica variabile che mantiene un effetto molto più forte e significativo della corrispondente variabile associata al comportamento dei docenti. La diversa tipologia delle scuole secondarie disponibili in Italia permette alle famiglie di autoselezionarsi secondo la propria collocazione sociale, e questo è uno dei fattori principali che spiega il mantenimento di una bassa mobilità intergenerazionale. Se ogni studente avesse la stessa probabilità di accedere a un liceo indipendentemente dalla famiglia di provenienza, l’esistenza di percorsi scolastici differenziati non costituirebbe motivo di preoccupazione: gli studenti più brillanti accederebbero alle carriere scolastiche più prestigiose (e successivamente più remunerate nel mercato del lavoro), mentre quelli più scarsi potrebbero accontentarsi di carriere più brevi, con un ingresso più veloce nell’occupazione. Ma quando le carriere dipendono dalla famiglia e dal luogo di nascita, viene negata alla radice l’uguaglianza delle opportunità, e occorrono interventi correttivi. In questa situazione, la scuola dovrebbe operare come meccanismo compensativo, facendo leva sui meccanismi di apprendimento e sulle risorse umane e finanziarie di cui dispone. Ma per fare questo occorre conoscere nel dettaglio quali elementi contribuiscono a potenziare l’acquisizione di competenze da parte dei quindicenni.

 

Determinanti delle capacità di lettura basate sulle caratteristiche della scuola – Italia – Pisa 2000

Nota: coefficienti Beta provenienti da stime con metodo dei minimi quadrati ordinari – pesi campionari – errori robusti all’eteroschedasticità – Pisa 2000 – 150 scuole - R²=0.80



Studi comparativi e studi televisivi  

Victor de l’Aveyron


 lavoce.info 27-04-2004

Nel corso di alcune trasmissioni radiotelevisive, tra le quali "Porta a porta" e "Ballarò", il ministro Letizia Moratti ha fatto riferimento ai risultati di alcune indagini sulle prestazioni scolastiche degli studenti italiani per giustificare la necessità di riformare la nostra scuola di base. Purtroppo, il ministro non ha citato la fonte preferendo ricorrere alla formula, tanto generica quanto comoda, "recenti studi hanno dimostrato che…".

Un principio condivisibile

Poiché non abbiamo nulla da eccepire sul principio di far scaturire le scelte di politica educativa dalla riflessione sui risultati delle indagini valutative, vogliamo approfondire la questione cercando di dare una risposta ad alcune domande: a) a quali studi si riferisce il ministro? b) che cosa dicono esattamente i risultati di tali studi? c) esistono altre indagini che forniscono dati utili alla riflessione sull'argomento?
Le indagini internazionali che si rivolgono a una popolazione di allievi con un'età corrispondente alla nostra scuola di base (elementare o media) o immediatamente successiva alla conclusione di questo ciclo di istruzione sono Iea Pirls (International Association for the Evaluation of Educational Achievement, Progress in International Reading Literacy Study, 2001, risultati diffusi nel 2003) e Ocse Pisa (Organizzazione per la cooperazione e lo sviluppo economico, Programme for International Student Assessment, 2000, risultati diffusi nel 2001).

La prima si è basata su una popolazione di nove-dieci anni, la seconda su una popolazione di quindicenni.

 

Cosa dice la ricerca Pisa

Nella graduatoria della ricerca Pisa, che ha coinvolto trenta paesi, l'Italia occupa la ventesima posizione. Dunque, quando il ministro ha accennato a risultati deludenti intendeva riferirsi all'indagine Ocse. Considerato il disinteresse che le autorità italiane hanno riservato a questa ricerca quando l'Ocse ne ha diffuso i risultati (4 dicembre 2001), è un fatto positivo che finalmente, anche se indirettamente, se ne cominci a parlare a livello istituzionale.
L'indagine Pisa aveva come obiettivo principale (1) la valutazione della competenza funzionale nella comprensione della lettura tra i quindicenni (250mila soggetti coinvolti).
Le cinque scale di competenza funzionale di lettura sono state costruite sulla base di tre processi: individuare informazioni, interpretare il testo, riflettere sul testo e valutarlo.

Nonostante il non brillante ventesimo posto dei quindicenni italiani (media paesi Ocse 500, Italia 487), la lettura dei dati consente di evidenziare alcuni aspetti interessanti dal punto di vista delle politiche educative. Gli studenti quindicenni italiani sono quasi totalmente scolarizzati (98,36 per cento). La deviazione standard relativa ai punteggi italiani è pari a 91 (Ocse 100), il che significa che i punteggi dei quindicenni italiani, se confrontati con quelli dei colleghi degli altri paesi, sono più vicini alla media.
In altre parole, le distanze tra gli allievi più bravi e quelli meno bravi in Italia sono più contenute rispetto a quanto accade in paesi che in graduatoria occupano una posizione migliore della nostra (ben quindici dei diciannove paesi che ci precedono hanno una dispersione maggiore della nostra).
Se si scompongono le variazioni delle prestazioni degli allievi in differenze tra le scuole e differenze all'interno delle scuole si ottiene un altro dato interessante. Per l'Italia i valori sono: 50,9 per la variazione tra le scuole e 43,4 per la variazione all'interno delle scuole, totale 94,3. Per comprendere il dato, si tenga presente che le cifre evidenziano una situazione critica rispetto alla media dei paesi Ocse quando il totale delle due variazioni è superiore a 100.

Il sistema dell'istruzione italiano, quindi, produce risultati più omogenei rispetto alla media dei paesi Ocse e pertanto può essere considerato, dal punto di vista sociale, più equo di altri.
Tuttavia, il ventesimo posto indica la necessità di innalzare il livello medio delle prestazioni, in particolare migliorando i livelli di prestazione delle fasce alte (eccellenza). I dati mostrano come in Italia solo il 5,3 per cento degli studenti raggiunga il livello di profitto più alto nella scala di competenze funzionali di lettura (livello 5), contro il 9,4 per cento dei paesi Ocse.

Il problema consiste dunque nel mettere a punto azioni che consentano di aumentare la percentuale degli studenti con risultati eccellenti, senza diminuire l'omogeneità complessiva dei risultati.

E i risultati di Pirls

I risultati della ricerca Iea Pirls (2001) si riferiscono invece a una popolazione con un'età compresa tra i nove e i dieci anni (quarto anno della scuola elementare italiana). Trentacinque i paesi europei ed extraeuropei (in Italia è stata realizzata dall'Invalsi) che vi hanno partecipato.
Le competenze valutate sono ancora una volta di tipo linguistico, per la precisione quelle relative alle strategie e ai processi di lettura (testo narrativo e testo informativo).
I rendimenti degli allievi italiani, decimi in graduatoria, sono significativamente al di sopra della media internazionale. Infatti, l'Italia ha un punteggio medio pari a 541, contro una media internazionale pari a 500. Se si disaggrega il dato relativo al testo narrativo da quello relativo al testo informativo, i valori sono rispettivamente 543 e 537.

Anche in questo caso è elevato livello di omogeneità dei risultati: l'Italia è il paese che in assoluto presenta la differenza più bassa di prestazione tra maschi e femmine. Non solo, a parità di anni di scolarità, i bambini italiani hanno un'età media nettamente inferiore rispetto a quella dei bambini degli altri paesi. Gli scolari italiani, inoltre, sono in testa alla graduatoria internazionale per un alto indice di stima di sé come buoni lettori. Infine, l'indice di atteggiamento verso la lettura dei bambini italiani è al di sopra della media internazionale.

Ammesso che sia legittimo ricavare indicazioni generali dai dati di una singola indagine (ma questo vale anche per l'indagine Pisa), si potrebbe dire che la scuola elementare italiana ha funzionato e anche bene, come del resto è noto da tempo. (2)

Squadra che vince si cambia. Perché?

Le due indagini comparative autorizzano alcune domande. Se i risultati sono così positivi per i nove-decenni e piuttosto deludenti per i quindicenni, che cosa accade nel segmento di istruzione che va da un'età all'altra? Di conseguenza, quale grado dell'istruzione merita una maggiore attenzione riformatrice, quello che corrisponde alla scuola elementare o quello che corrisponde alla scuola media di primo grado? Se si vogliono utilizzare i risultati della ricerca per orientare le politiche educative, perché gli interventi normativi dell'ultimo anno (legge 53/2003, decreto legislativo 59/2004) investono la scuola elementare non meno che la scuola media?

Sembra che per la scuola italiana non valga il detto "squadra che vince non si cambia".

Gli interventi di riforma vanno infatti a toccare in modo sensibile proprio i due gradi dell'istruzione nei quali il nostro paese ha sempre retto con onore il confronto internazionale: la scuola dell'infanzia e la scuola elementare. Perché?

Per saperne di più

Emma Nardi, Come leggono i quindicenni. Riflessioni sulla ricerca Ocse-Pisa, Milano, Franco Angeli, 2002.
Maria Teresa Siniscalco, La valutazione della competenza di lettura dei quindicenni italiani nell'indagine internazionale Ocse-Pisa, in N. Bottani e A. Cenerini, Una pagella per la scuola, Trento, Erikson in collaborazione con Adi, 2003. Nello stesso volume compare un contributo di Gabriella Pavan De Gregorio sullo studio Iea Pirls.
Associazione TreeLLLe, Moratti-Morris. Due ministri commentano la presentazione dell'indagine Pisa-Ocse, I Seminari, Genova, 2003. (Il fascicolo è aperto da una presentazione dei risultati Pisa di A. Schleicher, responsabile Dipartimento di statistica dell'Ocse).

www.pisa.oecd.org/knowledge/summary/intro.htm
www.invalsi.it/ricerche-internazionali/index.htm
http://isc.bc.edu/pirls2001.html
www.invalsi.it/ricerche-internazionali/iea-icona/
www.istruzione.it/riforma/index.shtml


NOTE

(1) Nelle prove di Pisa 2000 erano presenti, ma in misura minore, quesiti di matematica e di scienze. Nelle edizioni 2003 e 2006 l'indagine Pisa è centrata, rispettivamente, sulla matematica e sulle scienze.

(2) I risultati di Pirls 2001 confermano i dati di un'analoga indagine del 1991. Vedi M. O. Martin, I. V. S. Mullis, E. J. Gonzales, A. M. Kennedy, Trends in Children's Reading Literacy Achievement 1991-2001, Iea, Boston College, 2003.


 

Fare i conti con la scuola 

Marta Foresti Aline Pennisi

da lavoce.info  24-10-2005

I risultati dell’indagine Pisa 2003, pubblicati dall’Ocse in Learning for Tomorrow's World – First Results from Pisa 2003", confermano quanto già era emerso - e analizzato da alcuni contributi su lavoce.info - dall’indagine condotta nel 2000: il livello di competenze degli studenti delle scuole secondarie italiane è (molto) più basso rispetto alla media dei paesi Ocse. (1)
Le valutazioni di Pisa sulle competenze dei quindicenni vengono misurate tramite un punteggio, con riferimento a una media convenzionale Ocse di 500 punti, e per livelli di competenza. (2)
Nel 2003 il focus specifico dell’indagine era la matematica. Nell’ambito Ocse l’Italia si è posizionata al venticinquesimo posto in termini di punteggio medio (466), al pari del Portogallo e appena prima della Grecia (445). Gli studenti con capacità matematiche tali da risolvere problemi complessi sono in media il 34 per cento nell’Ocse, in Italia solo il 20 per cento. (3)

Le differenze tra aree

Ma questa è solo una parte della storia. Grazie a un ampliamento del campione nell’indagine del 2003, si evince che a Trento (547) e Bolzano (536) gli studenti raggiungono in media risultati attorno a quello della Finlandia (544) - in cima alla classifica Pisa 2003 con la Corea (542) - e in Lombardia (519) e Veneto (511) superano la media Ocse. Mentre nelle regioni del Mezzogiorno (426), i risultati sono simili a quelli medi della Turchia (423) e dell’Uruguay (422), tra gli ultimi nella graduatoria.

Tabella 1: Punteggio medio e quota di studenti con competenze in matematica tali da risolvere problemi complessi

 

Macro-aree

Punteggio medio

errore standard.

% studenti oltre il livello 3

Nord-Ovest

510

(5,1)

35,0

Nord-Est

511

(7,7)

35,8

Centro

472

(5,6)

19,3

Sud-Ovest

428

(8,2)

10,2

Sud-Est e Isole

423

(6,1)

6,8

 

Se, poi, si considera la quota di studenti che non superano nemmeno il primo livello, il diventa ancor più allarmante. (4) In media nell’Ocse sono l’8 per cento i quindicenni sotto il primo livello di competenza in matematica. In Italia, al Nord sono meno del 5 per cento, al Centro sono appena il 9 per cento. A Sud, invece, sono oltre il 20 per cento: uno studente su cinque non può essere considerato competente in matematica, nemmeno al livello più basso.

Grafico 1 – Quota di studenti con competenze in matematica inferiori al livello 1

La situazione è particolarmente grave nelle scuole professionali e, in misura minore, negli istituti tecnici. Tuttavia, il divario tra le aree del paese non è dovuto a un effetto di composizione, dal momento che le diverse tipologie di scuola sono distribuite in maniera omogenea in tutte le aree del paese.

E quelle tra scuole

La forte differenza di performance tra i licei, i tecnici e i professionali e le forti differenze territoriali concorrono a determinare una varianza nei risultati tra studenti fra le più alte dei paesi Ocse, denotando un sistema nel suo complesso meno equo, senza che peraltro questo sia compensato da un risultato medio più alto come accade in Germania o in Giappone (dove la varianza tra le competenze degli studenti è alta, ma i risultati complessivamente migliori che in Italia).
Analizzando la varianza tra gli studenti italiani più in dettaglio, si evince che mentre quella tra gli studenti che frequentano la stessa scuola è in linea con gli altri paesi, la varianza tra le scuole è particolarmente alta, quasi il doppio della corrispondente quota Ocse. (5) Questo conferma che la probabilità di raggiungere buone competenze matematiche varia molto a seconda della scuola frequentata. Un ulteriore segnale preoccupante in termini di equità del sistema, che non solo offre servizi al di sotto degli standard minimi di qualità, ma anche non omogenei.
La situazione è ancor più grave se si considera che la varianza tra scuole è spiegata non tanto dal background socio-economico dei singoli studenti, quando da quello complessivo della scuola: ciò segnala quanto conta il contesto e i rischi di una scuola che riflette la segmentazione sociale esistente. (6)
È interessante notare che, come prevedibile, l’influenza del contesto socio-economico e culturale è un po’ più rilevante al Sud (circa 3,5 per cento in più rispetto alla media Ocse) rispetto al Centro Nord, ma non sufficiente a spiegare le forti differenze dei risultati tra gli studenti del Centro Nord e del Mezzogiorno.
Ma allora cos’altro spiega una performance così bassa degli studenti del Mezzogiorno?
Nel seminario organizzato dal dipartimento delle Politiche di sviluppo e di coesione del ministero dell’Economia e della finanze e dal ministero dell’Istruzione, dell’università e della ricerca lo scorso luglio (7), è emersa la conferma dell’ipotesi che i risultati del Sud sono in larga misura spiegati dal "contesto". L’attesa della società, dei genitori, degli stessi studenti; la soddisfazione e la motivazione degli insegnanti; l’organizzazione degli istituti: questi fattori volgono al negativo e si influenzano gli uni con gli altri. L’indagine Pisa permette non solo di valutare i risultati "oggettivi" dei test somministrati agli studenti del campione, ma anche di analizzarne le percezioni rispetto alla loro esperienza a scuola, e in particolare rispetto alle competenze matematiche acquisite.
Sulla base di un indice che sintetizza il giudizio dei quindicenni sulle proprie competenze matematiche, si evince che la percezione media degli studenti italiani, ancora una volta, nasconde forti differenze territoriali. (8) La percezione degli studenti del Sud è decisamente positiva, rispetto alla percezione media Ocse, nonostante la cattiva performance; l’esatto contrario di quanto avviene al Centro-Nord.Grafico 2 – Indice medio della percezione della propria competenza in matematica e punteggio medio

 

L’indice è pari a 0 (valore che coincide con la media Ocse). A valori positivi più alti corrispondono gli studenti che dichiarano una buona familiarità e bravura in matematica, mentre assumono valori negativi gli studenti per cui questa materia è guardata con maggiore problematicità.

Anche la discrepanza tra la percezione degli studenti sulle proprie competenze rispetto ai risultati effettivamente ottenuti conferma che il primo passo necessario per migliorare le performance future (anche, perché no, in vista di Pisa 2006) è forse quello di rendere noto quanto fino ad oggi abbiamo appreso da Pisa 2000 e 2003, diffondendo in maniera molto più ampia, a livello territoriale, i risultati e avviando un dibattito a livello nazionale, che coinvolga non solo gli esperti ma anche le amministrazioni centrali e locali, le scuole, gli insegnanti, i genitori. E soprattutto gli studenti.
Non solo. Le scelte di policy per il futuro dovranno concentrarsi su altri due aspetti fondamentali: in primo luogo, migliorare le competenze di base degli studenti, e in generale la qualità dell’apprendimento, soprattutto nelle aree che registrano i maggiori ritardi, sia tramite azioni dirette alle scuole, sia attraverso interventi sul contesto economico, sociale e culturale dei territori. Inoltre, è necessario intensificare l’integrazione tra scuole e territorio, incoraggiando una collaborazione più intensa tra istituti, università, imprese e più in generale i cittadini, promuovendo un ruolo più ampio della scuola come luogo di incontro e aggregazione sociale.
Senza aspettare ulteriori conferme nel 2006, è venuto il tempo di iniziare a fare i conti con la scuola, specialmente al Sud.

NOTE

*Unità di valutazione degli investimenti pubblici – Dipartimento delle politiche di sviluppo e coesione (Dps), ministero dell’Economia e delle Finanze.

 

(1) Programme for International Student Assesment (Pisa) è una delle indagini più ampie e articolate dell’Ocse, avviata nel 2000 a cadenza triennale e con la partecipazione di oltre quarantacinque paesi. I test di Pisa, che nel 2003 sono stati somministrati a oltre 11mila quindicenni italiani, forniscono valutazioni statisticamente rappresentative non solo per le cinque macro-aree del paese e i tre tipi di scuola secondaria (licei, istituti tecnici, istituti professionali), ma anche per sei regioni singole (tutte del Centro-Nord) che hanno contribuito all’indagine con un ampliamento del campione. In Italia l’indagine è condotta dal Miur e dall’Invalsi. Per maggiori informazioni su Pisa http://www.pisa.oecd.org/.


(2) Nella scala della matematica sono sei i livelli di competenza. In termini statistici, uno studente appartiene a un dato livello se ci si può aspettare che risponda correttamente, in media, al 62 per cento delle domande di quel livello. Il minimo livello di competenza è il primo e parte dal punteggio 358: coloro che hanno avuto assegnato un punteggio inferiore sono classificati "sotto il livello 1" e sono stati incapaci di utilizzare le loro limitate conoscenze in matematica per risolvere anche i più facili quesiti di Pisa.


(3) Gli studenti capaci di risolvere problemi complessi in matematica sono quelli con un livello di competenza superiore al livello 3.


(4) Nella scala Pisa della matematica: "Gli studenti del primo livello sono in grado di rispondere a domande che riguardano contesti loro familiari nelle quali siano fornite tutte le informazioni pertinenti e sia chiaramente definito il quesito. Essi sono in grado inoltre di individuare informazioni e di mettere in atto procedimenti di routine all’interno di situazioni esplicitamente definite e seguendo precise indicazioni. Queste studenti sono anche capaci di compiere azioni ovvie che procedono direttamente dallo stimolo fornito". (dal Rapporto nazionale di Pisa 2003).


(5) La varianza tra scuole rappresenta circa il 56,8 per cento della varianza totale in Italia, mentre è non oltre il 34 per cento in media nell’Ocse. Esemplare è la differenza tra il 4 per cento di varianza osservata tra le scuole in Finlandia (dove quindi ogni scuola si trova a essere rappresentativa della popolazione complessiva e non conta in quale scuola si sceglie di studiare) e l’oltre 60 per cento del Giappone (dove il sistema scolastico è molto selettivo).


(6) Circa un terzo della varianza tra scuole (31 per cento) è spiegata dal background socio-economico e culturale complessivo della scuola (ovvero di tutti gli studenti). La corrispondente media Ocse è 23 per cento.


(7) "Conoscenza per lo sviluppo: il ruolo della scuola e dei processi di apprendimento nelle politiche di sviluppo", tenutosi a Roma il 7 luglio 2005. Per consultare la relativa documentazione cliccare su: http://www.dps.mef.gov.it/quadro_strategico_nazionale_seminari.asp#scuola


(8) L’indice è costruito su una selezione di variabili che includono: quanto ci si sente bravi in matematica, quanto sono buoni i voti, se si impara rapidamente la matematica e quanto si riesce a capire in classe.


http://www2.polito.it/didattica/polymath/htmlS/Interventi/Articoli/NumeriCheContano/NumeriCheContano.htm 

I risultati dei test TIMSS E PISA 2003

Il caso vuole che escano contemporaneamente i risultati delle indagini svolte da TIMSS e PISA, sul grado di apprendimento della matematica degli studenti. TIMSS, acronimo di Trend in International Mathematics and Science Study, è quadriennale e il primo rilevamento era stato effettuato nel 1995, il secondo nel 1999 e il terzo nel 2003. PISA, Programme for International Student Assessment, è invece triennale e il primo rilevamento è stato fatto nel 2000, il secondo nel 2003. Soltanto nel 2015 le due istituzioni torneranno a dare contemporaneamente i loro risultati. Si tratta quindi di un’occasione speciale per verificare la preparazione dei nostri studenti a confronto con quelli degli altri paesi.
TIMSS è un progetto di ricerca promosso dalla IEA, International Association for the Evaluation of Educational Achievement, una associazione di centri di ricerca educativa. Ne fanno parte 53 paesi e la sua sede attuale è Amsterdam. Le sue rilevazioni riguardano gli studenti del quarto e dell’ottavo anno di scolarità, rispettivamente la IV classe della primaria e la III classe della secondaria di I grado. Hanno partecipato all’indagine più di 360.000 studenti di 49 paesi del mondo e per l’Italia sono stati valutati circa 4300 studenti.
Vediamo la situazione partendo dagli studenti più giovani. Per il quarto anno di scolarità i livelli variano dai 594 punti Singapore ai 339 della Tunisia. L’Italia si colloca poco al di sopra della media, 495, con 503 punti, vicino a Cipro, Repubblica Moldava, Australia, Nuova Zelanda e Scozia.
Per l’ottavo anno di scolarità i livelli variano fra Singapore, 605 punti, e il Sudafrica, 264. La media internazionale è di 467; 26 paesi si collocano al di sopra di tale media e 19 al di sotto. Anche qui l’Italia si colloca poco al di sopra della media, con 484 punti, e il suo livello è simile a quello di Nuova Zelanda, Armenia, Serbia, Bulgaria e Romania. Si noti che l’Italia, con pochi altri paesi, ha un’età media inferiore ai 14 anni, per l’ottavo anno di scolarità.

Risultati del test di matematica TIMSS al quarto anno di scolarità.

Risultati del test di matematica TIMSS all’ottavo anno di scolarità.

E passiamo all’indagine PISA, di cui tanto si è già parlato in questo periodo, e che quest’anno era dedicata proprio alla matematica. Riguardava gli studenti di 15 anni e i paesi che hanno partecipato all’indagine sono stati 40. Dalla tabella che riportiamo, emerge la situazione disastrosa dei nostri studenti: 466 punti, decisamente sotto la media di 500 punti. Dopo di noi, dei paesi OCSE, troviamo soltanto la Grecia, la Turchia e il Messico.

I risultati del test PISA

L’INVALSI, Istituto Nazionale per la Valutazione del Sistema dell’Istruzione, ha scorporato i dati italiani dell’indagine e queste sono le sue osservazioni:
“Il Nord Ovest e il Nord Est hanno punteggi analoghi a quelli di Francia e Svezia (510), il Centro ha un punteggio che coincide con quello medio dell’Italia (472), mentre il Sud (428) e il Sud Isole (423) hanno un punteggio analogo a quello della Turchia, superiore solo, tra i paesi dell’OCSE, a quello del Messico” (e i dati sono identici anche per l’indagine TIMSS).
La tabella che riportiamo, elaborata dall’INVALSI, sottolinea la poco invidiabile situazione del nostro paese rispetto agli altri paesi OCSE.

I risultati del test PISA in una rielaborazione dell’INVALSI, che tiene conto anche della percentuale di popolazione adulta con un titolo di istruzione secondaria superiore.

Sempre l’INVALSI, che rileva le scarse conoscenze in geometria dei nostri studenti, sottolinea le differenze vistose fra i risultati ottenuti dagli studenti dei licei che hanno un punteggio medio di 503 sulla scala complessiva della matematica, gli istituti tecnici con un punteggio di 472 e gli istituti professionali con un punteggio di 408. La differenza tra licei e istituti professionali risulta quindi circa di 100 punti!
Da queste indagini, oltre ai risultati sconfortanti dell’Italia rispetto agli altri paesi, emerge un progressivo decadimento nella preparazione degli studenti italiani via via che si sale di livello. Mentre nella scuola primaria e nelle medie inferiori i risultati sono ancora sopra la media, alle superiori c’è il crollo agli ultimi posti. Sembra che la nostra scuola, salendo di livello, abbandoni progressivamente ragionamenti e problemi reali, per limitarsi soltanto più a formule e calcoli. D’altra parte è sufficiente dare un’occhiata ai testi più adottati nelle superiori per avere una conferma di questo blocco mentale per la matematica.
“Siamo al catechismo di Papa Pio Decimo, formule imparate a memoria, esercizi ripetitivi e inutili, un insegnamento che non ha alcun fondamento nella storia delle idee matematiche, nel loro valore sociale o culturale – afferma Ferdinando Arzarello, docente di Matematica all’Università di Torino e presidente dell’UMI – CIIM, la Commissione per l’insegnamento della Matematica che fa capo all’Unione Matematica Italiana – ed è vero che c’è maggior vivacità nell’insegnamento delle elementari. Le conseguenze di questa situazione sono drammatiche: la matematica imposta come formulario e puro calcolo, da svolgere in modo totalmente acritico, allontana sempre più lo studente dalla studio della matematica”.
Converrà fare una seria riflessione sui dati del PISA e di TIMSS per capire che cosa non funzioni nel nostro sistema educativo e chi ne abbia la responsabilità. “Nell’autunno del prossimo anno ci sarà un convegno UMI- CIIM per valutare questi risultati – ci preannuncia Arzarello – dobbiamo in ogni caso tener conto del valore relativo di questi dati. Non sono infatti prove curriculari e quindi non possono dare una vera idea della preparazione dello studente, inoltre sono influenzate da fattori culturali almeno in parte estranei al nostro ambiente. A parziale giustificazione, infine, dobbiamo ancora dire che gli argomenti affrontati nei test non sempre sono già stati affrontati in classe, ma possono essere approfonditi in momenti successivi al momento del test”.
Certo l’insegnamento della matematica nelle nostre scuole (e non solo della matematica) non funziona. Questo è il commento finale dell’INVALSI, al quale toccherà l’impegno di studiare test adeguati al nostro paese: “Il dato medio nazionale medio inferiore alla media OCSE e le marcate differenze rilevate, all’interno del nostro Paese, tra aree geografiche e tra tipi di istruzione indicano che un livello accettabile di competenza per tutti e prestazioni eccellenti per una fascia sufficientemente estesa di studenti costituiscono obiettivi non ancora raggiunti”.
Il futuro di un paese dipende dal suo sistema scolastico e, in questo momento, per quanto riguarda l’Italia, sembra che stiamo scivolando verso il terzo mondo, allontanandoci dai paesi industrializzati.

Quale problemi sono stati sottoposti agli studenti? I responsabili del PISA precisano che non si tratta di problemi scolastici, ma di problemi della vita reale, quelli noti come “problem solving”, che uno studente può incontrare e che dovrebbe saper risolvere al termine della scuola dell’obbligo.
Si tratta di problemi molto semplici. Vediamo alcuni esempi dei problemi del PISA.

Scala

In figura è disegnata una scala di 14 gradini, alta 252 centimetri e con una profondità di 400 centimetri.
Qual è l’altezza in centimetri di ciascuno dei 14 scalini?

Dadi
Nella figura qui accanto sono disegnati due dadi. Un dado è un cubo su ogni faccia del quale sono rappresentati dei numeri in modo che la somma dei punti su due facce opposte sia sempre uguale a 7.

Si può fare un semplice dado tagliando, piegando e incollando un cartone.
Nella figura che segue ci sono quattro sviluppi di possibili dadi con punti diversi sulle loro facce.
Quali degli sviluppi proposti può essere piegato in modo da formare un dado che rispetti la regola della somma costante e uguale a 7 sulle facce opposte? Per ogni sviluppo segnare in tabella il “No” o il “Sì”.

La fotografia riporta le impronte di un uomo che cammina. La lunghezza di un passo è uguale alla distanza P fra le parti posteriori di due passi successivi.

La formula n/P = 140 dà approssimativamente, per un uomo, il rapporto tra n, numero di passi al minuto e P, lunghezza del passo in metri.

  • Bernardo sa che la lunghezza del suo passo è di 0,80 metri. Calcola la velocità della sua camminata in metri al minuto e in chilometri all’ora. Illustra la tua risposta.
  • Se si applica la formula alla camminata di Heiko si ottiene 70 passi al minuto. Quant’è lungo il passo di Heiko? Illustra la tua risposta.

Tasso di cambio

Mei-Ling di Singapore si stava preparando per andare tre mesi in Sud Africa per uno scambio di studenti fra i due paesi.
E doveva per questo cambiare dei dollari di Singapore (SGD) in rand sudafricani (ZAR).

  • Durante questi tre mesi il tasso di cambio passò da 4,2 a 4,0 ZAR per SGD. Era a favore di Mei-Ling che il tasso di cambio fosse ora di 4,0 ZAR invece di 4,2, quando alla fine cambiò nuovamente i suoi rand sudafricani in dollari di Singapore? Spiega la tua risposta.
  • Al suo ritorno a Singapore, dopo i tre mesi, Mei.Ling aveva 3900 ZAR che cambiò in dollari di Singapore, osservando che il tasso di cambio era cambiato: 1 SGD = 4,0 ZAR
    Quanto denaro ottenne Mei-Ling in dollari di Singapore?
  • Mei-Ling scoprì poi che il tasso di cambio tra dollari di Singapore e rand sudafricani era diventato: 1 SGD = 4,2 ZAR

Mei-Ling cambiò 3000 dollari di Singapore in rand sudafricani a questo tasso di cambio. Quanto denaro in rand sudafricani ottenne?


Federico Peiretti
LA STAMPA, TuttoScienze, 19/1/2005

 

 

Il sito dell’INVALSI:
http://www.cede.it/

L’indagine TIMSS:
http://nces.ed.gov/timss/

L’indagine PISA:
http://nces.ed.gov/surveys/pisa/

Un articolo della REPUBBLICA:
Scuola, la Cina batte gli Usa americani costretti a copiare
di Federico Rampini


 

Torna alla pagina principale