Vol. 6, n. 1, aprile 2020

Teorie e modelli della valutazione

I Test TECO sulle competenze in università: problemi e prospettive

Cristiano Corsini1

Sommario

L’articolo, ponendo in relazione il costrutto di competenza con le proprietà dei test, analizza i punti di forza e di debolezza di TECO, un progetto messo a punto dall’ANVUR per valutare, attraverso i test, le competenze sviluppate da studentesse e studenti in università.

Parole chiave

Valutazione, competenze, TECO.

THEORIES AND MODELS OF EVALUATION

TECO tests on competencies in universities: problems and prospects

Cristiano Corsini2

Abstract

The article, relating the construct of competence to the properties of tests, analyses strengths and weaknesses of TECO, a project set-up by ANVUR in order to assess, through tests, the competencies developed by students in universities.

Keywords

Assessment, competencies, TECO.

Il contributo analizza prospettive e aspetti problematici del progetto TECO (TEst sulle COmpetenze) realizzato dall’ANVUR. Il lavoro, nel primo paragrafo, ricostruisce le principali linee di sviluppo dell’indagine TECO. Nel secondo paragrafo le caratteristiche essenziali del costrutto di competenza sono messe in relazione coi punti di forza e i limiti dei test, strumenti che TECO impiega per misurare livelli di competenza, integrando — non diversamente dall’INVALSI — finalità autovalutative e rendicontative. Infine, negli ultimi due paragrafi vengono discusse le condizioni di utilizzabilità dei test all’interno di percorsi di valutazione delle competenze diretti al miglioramento della didattica.

Il progetto TECO

TECO è un progetto avviato dall’ANVUR nel 2012 allo scopo di valutare le competenze sviluppate dalla popolazione universitaria. Il progetto è inquadrato nel sistema AVA (Autovalutazione, Valutazione periodica, Accreditamento) finalizzato a verificare se un ateneo è in possesso dei requisiti che lo rendono idoneo allo svolgimento delle proprie funzioni istituzionali. In AVA, TECO è chiamato a fornire informazioni sulla coerenza tra gli obiettivi dei corsi universitari e le competenze effettivamente sviluppate da studentesse e studenti. Non diversamente dalle prove INVALSI, i test TECO assommano due funzioni. La prima, sul fronte interno, è autovalutativa e di sviluppo. Da questo punto di vista, TECO si inserisce con coerenza all’interno del discorso che, nel dibattito educativo, si contraddistingue per il ricorso al concetto di competenza. I lavori pubblicati da soggetti coinvolti a vario titolo nel progetto sono concordi nel ritenere che questo, attraverso la valutazione delle competenze, incoraggi rilevanti innovazioni nel mondo universitario: l’uso sistematico degli esiti degli apprendimenti come elemento informativo delle scelte educative; la messa in discussione di metodi didattici tradizionali, prevalentemente trasmissivi; la riduzione della distanza tra insegnamento accademico ed esigenze del mondo lavorativo e professionale. Sul fronte esterno, TECO ha, più prosaicamente, una funzione rendicontativa, finalizzata alla realizzazione di indicatori da impiegare nei processi di accreditamento (decreto ministeriale n. 6 del 7 gennaio 2019) delle università.

Il progetto ha attraversato due fasi di sviluppo. La prima, avviata nel 2012 e conclusasi tre anni dopo, ha visto la somministrazione di prove semistrutturate finalizzate alla valutazione delle competenze generaliste e trasversali sviluppate da studentesse e studenti in uscita dagli atenei italiani (ANVUR, 2015). Come rileva la stessa ANVUR (2018), questa prima fase evidenzia due criticità. In primo luogo, l’indagine è contrassegnata dalla totale autoselezione da parte di università, studentesse e studenti, raggiungendo una ridotta quota di partecipanti. In secondo luogo, la valutazione delle risposte alle domande aperte comporta risultati scadenti dal punto di vista della coerenza interna.

Nel 2016 il progetto subisce sostanziali modifiche. Mantenendo la volontarietà dell’adesione e dunque il carattere non probabilistico del campionamento, la scelta di rivolgersi all’insieme della popolazione iscritta ai corsi triennali e a ciclo unico amplia la platea dei partecipanti. Inoltre, somministrando longitudinalmente le prove, questa seconda fase di TECO consente il calcolo del valore aggiunto, un indicatore che secondo l’ANVUR (2018) rileva l’impatto dell’insegnamento universitario sul livello degli apprendimenti, consentendo di misurare la qualità di ciascun corso (Rumiati et al., 2018). Un’altra novità riguarda l’eliminazione delle domande a risposta aperta a causa delle difficoltà di gestione che queste comportano (Rumiati et al., 2019).

L’innovazione più rilevante della seconda fase di TECO è rappresentata dalla suddivisione dell’indagine in due progetti paralleli: TECO trasversale (TECO-T) e TECO disciplinare (TECO-D). TECO-T segue un approccio verticistico (le prove sono definite dall’agenzia) e rileva il livello di padronanza in ambiti che rimandano a «competenze generali» come la literacy, definita attraverso gli stessi tre processi che caratterizzano l’ambito nelle indagini OCSE PISA e PIAAC: individuare informazioni, interpretare il testo, riflettere e valutare.

Il TECO-D è basato su una logica orizzontale: l’agenzia supporta il lavoro (Torlone, 2018) di gruppi disciplinari di docenti che, una volta scelto di aderire al progetto, predispongono i test con un certo grado di autonomia, tenendo conto dei vincoli già stabiliti (si tratta di prove oggettive e le domande aperte, come accennato, sono escluse) e delle indicazioni fornite dall’ANVUR. Il lavoro dei gruppi, potenzialmente utile dal punto di vista progettuale e autovalutativo (Asquini, Refrigeri, Squarzoni e Turri, 2019; Fabbri, 2018), prevede l’esplicitazione condivisa di Obiettivi Formativi Finali, ovvero delle conoscenze e delle competenze perseguite, definite a partire da un’analisi delle schede SUA (Scheda Unica Annuale) di ciascun corso. In seguito, ciascun gruppo individua gli Obiettivi Formativi Specifici (declinandoli secondo i Descrittori di Dublino) che rappresentano la base per la costruzione di prove disciplinari.

La valutazione delle competenze e i test: sei gradi di separazione

Il ricorso al concetto di competenza è spesso impiegato in funzione oppositiva rispetto al verbalismo di un insegnamento meramente trasmissivo che concepisce i contenuti del sapere come fine in sé. Dal punto di vista pedagogico (Benadusi e Molina, 2018; Baldacci, 2010), la struttura della competenza recepisce la critica deweyana a una didattica che separa sapere, saper fare e saper pensare perseguendoli separatamente. D’altro canto, la competenza è definita nel Quadro Europeo delle Qualifiche come comprovata capacità di usare conoscenze, abilità e capacità personali, sociali e/o metodologiche, in situazioni di lavoro o di studio e nello sviluppo professionale e/o personale. Si tratta di far agire risorse cognitive o affettive per affrontare situazioni complesse: la competenza non consiste nel mero possesso di risorse (cognitive, metacognitive, attitudinali, affettive), ma nella capacità di saperle mobilizzare quando il contesto lo richiede.

Siamo di fronte a un costrutto complesso e pluridimensionale, all’interno del quale Baldacci (2010) individua quattro tratti fondamentali tra loro interconnessi ma isolabili in funzione espositiva. In primo luogo, alla competenza è collegato sia un aspetto esterno, una prestazione osservabile, sia uno interno, ovvero la padronanza dei processi mentali correlati alla performance. La competenza implica la capacità di produrre «una molteplicità di prestazioni imprevedibili entro un certo campo di attività», e non è identificabile con la produzione di una singola prestazione. In secondo luogo, la competenza implica un rapporto dialettico tra sapere e saper fare, e quest’ultimo è rappresentabile in un formato attivo. In terzo luogo, la competenza ha una dimensione metacognitiva, che rimanda alla consapevole padronanza delle proprie risorse cognitive come mezzi per raggiungere determinati scopi. Come quarto aspetto, Baldacci richiama la dimensione affettiva, decisiva nello sviluppo di competenze, dato che si tratta di un processo che richiede perseveranza e, dunque, una motivazione adeguata. Gli aspetti della competenza sopra evidenziati sono attraversati da altri elementi che hanno importanti implicazioni in sede valutativa. Ci riferiamo tanto al carattere dinamico e progressivo, che richiede un accertamento longitudinale, in grado di rendere conto del miglioramento e valorizzarlo (Benadusi, 2019), quanto alla dimensione sociale e situata, che rinvia a dispositivi valutativi e autovalutativi di tipo cooperativo e autentico (Batini e Corsini, 2016).

Una tappa fondamentale nella riflessione educativa sulla valutazione delle competenze è rappresentata dalle critiche di Wiggins (1998) alla valutazione tradizionale (nella quale rientra il testing), ritenuta strumento insufficiente a verificare quel che chi apprende «sa fare con ciò che sa». Wiggins, coerentemente con la visione di Resnick indirizzata allo sviluppo di competenze da attivare in contesti reali e in una dimensione sociale, oppone alla valutazione tradizionale la valutazione autentica. Si tratta di una valutazione che non esige prestazioni meramente individuali, incentrate sul riconoscimento (come nel caso del test) o sulla produzione (come nel caso delle interrogazioni) della risposta esatta. La valutazione autentica richiede l’elaborazione, anche cooperativa, di prodotti legati a situazioni problematiche, caratterizzate da ineditezza e complessità, che esigono soluzioni aperte, implicano la mobilizzazione di risorse cognitive, metacognitive e socioemotive, e acquisiscono significato al di là della dimensione didattica.

Appare chiaro che i test, a causa della loro natura standardizzata, tendenzialmente chiusa (riproduttiva o riconoscitiva più che produttiva e creativa), individuale, istantanea e generalmente disinteressata alle dimensioni metacognitive e affettive, se pure possono fornire affidabili indicazioni su specifici elementi — alcune conoscenze, alcune abilità — da tenere in debito conto in un più ampio processo di valutazione delle competenze, non costituiscono una misura di per sé sufficientemente valida di un costrutto tanto complesso e multiforme.

Rispetto alla visione contestualizzata, attiva, sociale, dinamica, metacognitiva e affettiva che caratterizza le competenze, i test accusano dunque sei gradi di separazione. Nondimeno, lo stesso progetto TECO reca già nel nome una aperta sfida a queste considerazioni. D’altro canto, il progetto dell’ANVUR segue la stessa traiettoria che ha caratterizzato l’esperienza delle prove INVALSI, chiamate a operare con compiti non dissimili, dovendo valutare competenze entro un sistema di accountability finalizzato tanto a promuovere processi di miglioramento e autovalutazione quanto a verificare, attraverso la misurazione del valore aggiunto, l’efficacia di ciascun istituto. Le prove INVALSI, al pari delle prove OCSE, sono considerate, da fonti istituzionali e opinione pubblica, strumenti di valutazione delle competenze. Ed è proprio a indagini su vasta scala come PISA e PIAAC che Rumiati et al. (2019) fanno riferimento per accreditare TECO come dispositivo di valutazione delle competenze.

La contraddizione è in parte spiegabile considerando la funzione di termine ombrello che le competenze hanno assunto nell’ultimo ventennio nel dibattito educativo. Come rileva, tra le altre, la lettura che ne dà Benadusi (2019), il termine veicola una molteplicità di significati, elemento che costituisce a un tempo un punto di forza e un punto di debolezza. Tale polisemia consente una sintesi potenzialmente efficace di sfumature diverse dello stesso costrutto o di costrutti confrontabili, gettando le basi per riferimenti a prassi più o meno assimilabili. Ne risulta una «monosemia assolutizzata» che favorisce, all’interno del discorso educativo, l’insorgere di dualismi banalizzanti e produce una cristallizzazione di posizioni: «in favore del significante “competenze” si convoglia da un lato l’accordo entusiasta di quanti vi leggono un catartico cambiamento di paradigma, dall’altro la riprovazione sdegnata di quanti vi leggono una snaturante involuzione, entrambe le parti estraendo ad libitum dalla polisemia il significato adatto a dare forza alle proprie convinzioni. In tal modo si opera una forzata riduzione della complessità, comprimendola in termini dicotomici anziché ordinarla in modo razionale, così da individuare fra i vari significati tanto tensioni e incompatibilità quanto possibili combinazioni e compromessi» (Benadusi, 2019, p. 42).

Nel caso delle competenze valutate attraverso i test, la riduzione di complessità è accentuata dal regime di accountability, che attraverso una retorica incentrata su quella che possiamo definire «trasparenza opaca» (Cappa, 2020) scioglie l’agire educativo nel rapporto tra input e output e ne definisce il valore in termini misurabili e standardizzati (Biesta, 2010; D’Ascanio, 2017; Landri, 2018). Va detto che tale riduzionismo insiste su una delle sovrapposizioni (Baldacci, 2010; Benadusi, 2019) che caratterizzano il costrutto di riferimento, spingendosi a identificare le competenze con le abilità. Come accennato, TECO (al pari dell’INVALSI), richiama esplicitamente le operazionalizzazioni condotte dall’OCSE. Le riduzioni operative che guidano la costruzione delle prove PISA tentano, anche attraverso il ricorso a elementi semistrutturati (per mezzo di quesiti che richiedono risposte aperte e articolate), di rendere conto, assieme alla dimensione cognitiva, della dimensione attiva del loro oggetto di misura, stante l’esclusione della dimensione sociale, di quella situata (vista la natura standardizzata dell’indagine) e di quelle metacognitiva e affettiva (queste ultime due, quando vengono rilevate, sono in ogni caso disconnesse dalla prestazione). Si tratta tuttavia di sforzi, rilevano Giancola e Viteritti (2019, p. 25), che «dal punto di vista nominale insistono per la verità sul termine literacy (o literacy e numeracy) più che esplicitamente sul termine “competenza”, e quando lo impiegano la sua relazione semantica con termini prossimi quali conoscenza e skills presenta non poche incertezze, ambivalenze e sovrapposizioni». Nei rapporti OCSE skills e competencies sono impiegate come sinonimi e la confusione che si determina si rivela del tutto funzionale all’assimilazione delle competenze con le abilità rilevate nel test. Un’assimilazione che l’opinione pubblica recepisce anche in virtù della tendenza a presentare le competenze, sottolineano Giancola e Viteritti, in maniera univoca e a-problematica, attivando un processo di neutralizzazione che le attesta come elemento cardine nella valutazione oggettiva dell’efficacia dei processi educativi.

L’equiparazione dei risultati dei test PISA, INVALSI e TECO con la misura di competenze è incentrata, piuttosto che nella validazione delle misure e dei dispositivi, in un discorso che elude sia i problemi legati alla scelta di integrare nello stesso percorso finalità formative (la cosiddetta autovalutazione) e sommative (la rendicontazione per l’accreditamento o la distribuzione di fondi), sia i problemi imposti dalla complessità delle competenze. D’altro canto, le procedure di validazione degli strumenti, implicando il confronto tra un concetto di competenza sostenibile dal punto di vista della letteratura di riferimento e la natura delle prove (validità di contenuto), attesterebbero l’inaccuratezza di tale equiparazione, accertando come la riduzione operativa del concetto teorico, implicita in ogni misurazione, si spinga in questo caso fino alla rimozione di elementi essenziali dello stesso.

Prima condizione di utilizzabilità dei test nel processo di valutazione delle competenze: non scambiare la parte col tutto

Come accennato, i test, benché non siano validi strumenti di misura delle competenze, possono contribuire a fornire indicazioni utili alla loro valutazione. Va in primo luogo considerato, a difesa del testing, che non esiste «uno» strumento di valutazione delle competenze (Batini e Corsini, 2016), dato che la raccolta di evidenze sullo sviluppo di capacità tanto complesse richiede diverse forme di accertamento, tutte inevitabilmente parziali ma potenzialmente utili.

D’altro canto, la potenziale utilità di un uso accorto di dispositivi quantitativi in funzione dell’accertamento di apprendimenti complessi non è certo una novità in campo educativo: proponendo il testing come prassi didattica, Visalberghi già negli anni Cinquanta è ben consapevole (Corsini, 2018) tanto dei punti di forza quanto dei limiti delle prove oggettive. Se i secondi riguardano l’impossibilità di accertare lo sviluppo delle dimensioni creative e sociali degli apprendimenti, i primi riposano proprio sull’opportunità, assicurata dall’impiego degli stessi strumenti, di liberare tempo per attività produttive, creative e cooperative. Lo stesso Wiggins (1998) non nega che i test possano essere validi o utili, e si limita piuttosto a porre due condizioni riguardo a un loro impiego educativo: non scambiare, in primo luogo, la parte con il tutto e, in seconda istanza, i mezzi con i fini. Rimandando al paragrafo successivo le riflessioni sull’inosservanza della seconda condizione (una violazione che rientra nella tendenza a considerare la valutazione un obiettivo del processo di apprendimento-insegnamento, piuttosto che un suo mezzo di regolazione), appare qui utile concentrarsi sulla prima, rilevando come anche prove impiegate in indagini su larga scala possano consentire di raccogliere indicazioni — ancorché parziali — su elementi che caratterizzano processi cognitivi complessi.

A titolo d’esempio, prendiamo in esame un quesito tratto dalle prove PISA di comprensione della lettura. Si tratta di un item volto alla rilevazione dei processi di riflessione e valutazione, elementi che, come abbiamo visto, costituiscono la literacy sia nelle indagini OCSE sia in TECO-T. Il quesito, preceduto da due lettere di ragazze che esprimono pareri discordi su alcuni graffiti apparsi sul muro di una scuola, chiede: «Con quale delle due autrici delle lettere sei d’accordo? Spiega la risposta con parole tue, facendo riferimento a quanto affermato in una o in entrambe le lettere». La domanda è a risposta aperta complessa: richiede di produrre attivamente una soluzione, prevede un numero potenzialmente infinito di possibili risposte esatte, esclude una valutazione automatizzata delle risposte fornite e, da questo punto di vista, impone costi elevati e tempi dilatati. Nonostante ciò, i test PISA presentano un numero considerevole di quesiti simili, in particolare quelli finalizzati alla rilevazione dei processi di riflessione e valutazione. Quanto alla rilevazione degli altri processi alla base della literacy come l’individuazione di informazioni o il compimento di inferenze più o meno complesse, gli item a risposta chiusa o aperta univoca possono essere considerati sufficientemente adeguati.

In sintesi, il ricorso a prove strutturate e semistrutturate può avere un ruolo di rilievo all’interno di un più ampio processo di valutazione delle competenze, purché, per raccogliere la prima raccomandazione di Wiggins, relativa alla necessità di non confondere la parte col tutto, nel misurare si preservi quel senso della misura che impedisce di considerare tali rilevazioni misure delle competenze e non — più modestamente — di alcune abilità o conoscenze che ne condizionano positivamente lo sviluppo.

Seconda condizione: non scambiare i mezzi coi fini

Torniamo ora alla seconda raccomandazione di Wiggins, relativa all’importanza di non scambiare i mezzi coi fini. Come noto, ogni misurazione comporta una riduzione operativa di concetti astratti. In campo educativo, la perdita di complessità che questo processo inevitabilmente implica viene compensata quando le misure ottenute arricchiscono il quadro che abbiamo sul livello degli apprendimenti. Nel caso del testing, tale arricchimento è legato alla maggiore affidabilità che le prove oggettive comportano rispetto ad altre forme di accertamento, forme che non vanno sostituite coi test, ma da questi integrate (Batini e Corsini, 2016). Si tratta di una dinamica che ha però maggiori possibilità di realizzarsi quando la misurazione è considerata un mezzo di autoregolazione del processo di apprendimento e insegnamento, e non un obiettivo dello stesso. In caso contrario, sorgono due problemi tra loro interconnessi.

In primo luogo, se quello di ottenere misure affidabili viene assunto come fine primario, quel che tende a prodursi è una compromissione della validità delle misure. Un esempio di questa dinamica è rappresentato da quanto avvenuto con le prove INVALSI di comprensione della lettura. Anche queste, esattamente come le prove TECO, fanno esplicito riferimento al quadro teorico dei test PISA, prevedendo, tra gli elementi del costrutto di literacy da sottoporre a rilevazione, la riflessione su un testo e la valutazione del suo contenuto. Tuttavia, prendendo in considerazione i test somministrati dall’INVALSI tra il 2010 e il 2017 e rilasciati, riscontriamo come le domande relative a questo processo siano assenti nella quasi totalità delle prove (Corsini, 2018). Si tratta di un classico problema di sottorappresentazione del costrutto nello strumento (Messick, 1989). Non ci riferiamo al fatto che le prove, essendo standardizzate e su ampia scala, non raccolgono informazioni rispetto alle sei dimensioni che caratterizzano trasversalmente il costrutto di competenza, come rilevato nei paragrafi precedenti. In questo caso siamo di fronte a una macroscopica mancanza di validità di contenuto in relazione a un costrutto già semplificato. Tale mancanza di validità è riconducibile alla funzione delle somministrazioni INVALSI, chiamate sia ad arricchire i processi autovalutativi delle scuole sia a fornire misure del valore aggiunto allo scopo di rendicontare l’efficacia di ciascun istituto. Dovendo operare su una vasta popolazione, l’INVALSI — esattamente come TECO — rinuncia all’inserimento di un numero adeguato di domande a risposta aperta complessa, un’operazione che consentirebbe sì una valida raccolta di informazioni sui processi oggetto di misurazione, ma farebbe lievitare tempi e costi della rilevazione.

Le esigenze autovalutative e di sviluppo sono così subordinate a quelle di accountability e di controllo. Va considerato come, sin dalla sua introduzione in ambito educativo, l’accountability, assumendo il mercato come paradigma e, successivamente, la customer satisfaction come riferimento per l’accertamento della qualità, è improntata a istanze di confrontabilità e oggettività. Già Glass (1972, p. 636) stabilisce che «an accountable relationship between seller and buyer involves three elements: 1) disclosure concerning the product or service being sold, 2) product or perfomance testing, 3) redress in the event of false disclosure or poor performance». Questi vincoli, che attraversano intatti lo sviluppo dei sistemi di accountability educativa, impongono alla valutazione condizioni di fattibilità che comportano un ulteriore impoverimento dei costrutti oggetto di rilevazione. Non stupisce allora, come evidenzia Wiliam (2010), che il regime di accountability mal si accordi con valutazioni autentiche. Queste infatti, facendosi carico della complessità, della multiformità e del carattere sociale, situato e progressivo delle competenze, consentono la raccolta di informazioni ricche ma caratterizzate da un’affidabilità e da una validità (Wiggins, 1998) commisurate alla necessità di offrire riscontri criteriali e contestuali, agli antipodi rispetto a quelli, normativi e standardizzati, erogati dai sistemi di accountability.

Un secondo problema legato all’assunzione delle misure come obiettivi è la tendenza a curvare i processi educativi sulla forma e sul contenuto delle prove. Se la posta in palio della valutazione delle competenze è di tipo rendicontativo e gioca un ruolo nell’accreditamento di un corso, è presumibile che vi saranno pressioni affinché la progettazione e la conduzione di attività didattiche si conformino al formato valutativo degli esiti. Questo aspetto assume tratti paradossali se si considera che il progetto TECO è finalizzato anche al miglioramento della didattica universitaria, in direzione del superamento del suo carattere meramente trasmissivo. Prescindiamo qui da considerazioni sulla sensatezza di scelte come quella di stimolare modifiche nell’insegnamento partendo da cambiamenti valutativi, o di improntare un sistema rendicontativo sul valore aggiunto, a dispetto delle perplessità sulla validità di questo indicatore (Corsini, 2012) o, infine, di definire «autovalutazione» un percorso di accertamento interno nel quale tempi e finalità sono stabiliti dall’esterno, col rischio di burocratizzare e rendere estrinseche prassi che si vorrebbero intrinsecamente motivate e genuinamente finalizzate al miglioramento (Corsini e Zanazzi, 2015). In questa sede ci limitiamo a osservare che se le prove non prevedono la possibilità di impiegare attivamente e creativamente conoscenze e abilità, non si vede come esse possano sollecitare la trasformazione didattica enfaticamente preannunciata. L’impressione è che si sottovaluti quanto la didattica per competenze, pur richiamando la pedagogia per obiettivi, se ne distanzi nel momento in cui assume i contenuti del sapere non come fini ma in qualità di strumenti di interpretazione e azione sull’esperienza (Castoldi, 2017). Da questo punto di vista la posta in gioco è il percorso di un costrutto (la «competenza») che origina sì dal campo economico e dalla formazione e selezione professionale (Giancola e Viteritti, 2019), ma che è suscettibile di acquisire un significato pedagogicamente difendibile se riallacciato, come proposto da Baldacci (2010; 2019), all’urgenza, già chiara in Dewey, di sviluppare apprendimenti collaterali, abiti mentali di osservazione e di giudizio critico. Come gli abiti mentali, le competenze per Baldacci sono di ordine superiore rispetto agli obiettivi. Questi ultimi si riferiscono ad apprendimenti diretti e a breve termine e sono funzionali allo sviluppo di competenze indirette e a lungo termine. Il rischio è che metodi didattici meramente trasmissivi continuino a essere considerati funzionali in un sistema che premia il raggiungimento di obiettivi a breve termine come quelli rilevati attraverso il test.

Se le finalità rendicontative del progetto TECO non sono rimesse in discussione, le potenzialità insite nel processo di condivisione degli obiettivi e di accertamento dei livelli di apprendimento rischiano di non svilupparsi nella direzione auspicata. Si tratterebbe di un’occasione mancata, considerata l’urgenza di un rinnovamento degli approcci valutativi nella didattica universitaria (Coggi e Pizzorno, 2017; Corsini e Zanazzi, 2018) e della diffusione di prassi basate sull’impiego partecipato e formativo dell’accertamento (Grion e Serbati, 2019). TECO è però del tutto coerente con una «cultura della valutazione» definita dal ricorso a strumenti oggettivi in vista della rendicontazione dell’efficacia, e non dall’impiego dell’accertamento con finalità autoregolative e formative (Corsini, 2018).

Considerazioni conclusive

I processi valutativi, anche quando costretti nel letto di Procuste di un sistema di accountability, tendono a liberare energie potenzialmente utili. Un esempio in tal senso è costituito dal progetto TECO-D che, promuovendo un confronto all’interno di gruppi disciplinari costituiti da docenti di diverse università, può giocare un ruolo significativo a supporto dei processi di progettazione e autovalutazione. Gli stessi test TECO, nonostante non siano considerabili misure valide delle competenze, possono consentire la raccolta di informazioni utili a monitorarne lo sviluppo.

Nondimeno, la pedagogia, in questo contesto, è chiamata a esercitare una duplice vigilanza critica, per contrastare tendenze che rischiano di impoverire teorizzazioni e prassi educative. In primo luogo, le istanze di accertamento imposte dall’accountability allontanano le competenze da una prospettiva pedagogica — che le riorienterebbe nei termini deweyani di abiti critici essenziali allo sviluppo di una società democratica — per ricacciarle entro un approccio economicistico, subordinandole all’erogazione di classifiche finalizzate alla definizione del tasso di competitività di individui, istituzioni e Paesi. In secondo luogo, la stessa valutazione educativa, se ridotta a rendicontazione, finisce per farsi mera misura di efficacia, tradendo sia la sua identità di giudizio che arricchisce i processi sottoposti a verifica, sia la sua funzione di analisi critica tanto dei dati quanto degli strumenti, dei dispositivi, delle ipotesi, dei costrutti, delle teorie e dei paradigmi che li hanno prodotti. Da questo punto di vista, è significativa, nella letteratura riguardante il progetto TECO, la penuria di valutazioni critiche — tra le eccezioni, ricordiamo i contributi di Coggi, Giovannini e Lucisano pubblicati nel 2016 dal «Giornale Italiano di Ricerca Educativa» — relative sia alla cornice teorica e istituzionale entro cui l’indagine inquadra finalità, dispositivi e strumenti, sia alla scelta di accertare competenze attraverso le sole prove oggettive. Altrettanto significativa — e, considerato il posizionamento di TECO in AVA, decisamente inquietante — è la disinvoltura con la quale i dati prodotti dall’indagine sono assunti dal committente istituzionale come elementi che informano riflessioni — peraltro audaci — sul livello degli apprendimenti, nonostante tali dati rimandino a chiari limiti di validità esterna e coerenza interna. Così, secondo l’ANVUR (2015, p. 81), i risultati del primo TECO, frutto di un campione non rappresentativo, attestano «una debolezza solo italiana: la dissociazione nei nostri studenti tra la logica letteraria e quella scientifica, che va ricomposta e superata in una sorta di nuovo Rinascimento». Quanto alla seconda fase di TECO, si rileva come il contraddittorio dato relativo al decremento nei punteggi nelle prove di numeracy tra il secondo e il terzo anno di corso non rimandi — come sarebbe lecito attendersi — ad alcuna riconsiderazione della validità di costrutto dello strumento (ANVUR, 2018).

La duplice vigilanza alla quale abbiamo fatto riferimento non agisce da ostacolo all’avvio di processi autovalutativi sullo sviluppo delle competenze nelle università: piuttosto, dovrebbe essere un auspicabile antidoto all’accettazione acritica — in relazione a tali percorsi — di fini e vincoli metodologici attesi o imposti da soggetti esterni.

Bibliografia

ANVUR (2015), Le competenze effettive di carattere generalista dei laureati italiani 2014, http://www.anvur.it/wp-content/uploads/2014/12/Rapporto%20TECO%202014.pdf (consultato il 3 marzo 2020).

ANVUR (2018), Rapporto biennale sullo stato del sistema universitario e della ricerca 2018, https://www.anvur.it/rapporto-biennale/rapporto-biennale-2018/ (consultato il 3 marzo 2020).

Asquini G., Refrigeri L., Squarzoni A. e Turri M. (2019), Percorsi universitari e competenze trasversali. Sfide e potenzialità, «Scuola Democratica», n. 1, pp. 209-224.

Baldacci M. (2010), Curricolo e competenze, Milano, Mondadori.

Baldacci M. (2019), La scuola al bivio. Mercato o democrazia?, Milano, FrancoAngeli.

Batini F. e Corsini C. (2016), Insegnare e valutare per competenze. In Batini F., Insegnare e valutare per competenze, Torino, Loescher, pp. 79-98.

Benadusi L. (2019), Le molte interpretazioni del concetto di competenze. Una maionese impazzita o ben assortita?, «Scuola Democratica», n. 1, pp. 41-61.

Benadusi L. e Molina S. (a cura di) (2018), Le competenze. Una mappa per orientarsi, Bologna, Il Mulino.

Biesta G.J.J. (2010), Good Education in an Age of Measurement, London-New York, Routledge.

Cappa C. (2020), The Opaque Transparency, in corso di pubblicazione su «Comparative and International Education Review».

Castoldi M. (2017), Costruire unità di apprendimento, Roma, Carocci.

Coggi C. (2016), Modelli teorici e strumenti di valutazione degli esiti in università, «Giornale Italiano di Ricerca Educativa», vol. 9, n. 16, pp. 23-35.

Coggi C. e Pizzorno M. C. (2017), La valutazione formativa in università. Trasparente, condivisa, regolativa, sostenibile. In A.M. Notti (a cura di), La funzione educativa della valutazione. Teoria e pratiche della valutazione educativa, Lecce, Pensa Multimedia, pp. 37-58

Corsini C. (2012), La lezione americana, «Scuola Democratica», n. 3, pp. 108-116.

Corsini C. (2018), Sull’utilità e il danno di “misurazione e valutazione”in educazione. In Corsini C. (a cura di), Rileggere Visalberghi, Roma, Nuova Cultura, pp. 13-28.

Corsini C. e Zanazzi S. (2015), Valutare scuola e università: approccio emergente, interventi e criticità, «I problemi della pedagogia», vol. 2, pp. 305-334.

Corsini C. e Zanazzi S. (2018), Gli esami all’università: il punto di vista di chi apprende, «I problemi della pedagogia», vol. 1, pp. 43-69.

D’Ascanio V. (2017), La polisemia della performance. L’istruzione superiore e la società della conoscenza, Roma, Anicia.

Fabbri L. (2018), La costruzione dei contenuti core come pratica scientifica condivisa. Metodologie per la trasformazione della progettazione dell’offerta formativa, «Form@re», vol. 18, n. 3, pp. 61-69.

Giancola O. e Viteritti A. (2019), Le competenze nello spazio globale dell’educazione. Discorsi, modelli e misure, «Scuola Democratica», n. 1, pp. 11-40.

Giovannini M.L. (2016), TECO all’Università: quali usi e funzioni?, «Giornale Italiano di Ricerca Educativa», vol. 9, vol. 16, pp. 37-58

Glass G.V. (1972) The Many Faces of “Educational Accountability”, «Phi Delta Kappan», vol. 53, n. 10, pp. 636-639.

Grion V. e Serbati A. (2019), Valutazione sostenibile e feedback nei contesti universitari. Prospettive emergenti, ricerche e pratiche, Lecce, Pensa Multimedia.

Landri P. (2018), Digital Governance of Education, London, Bloomsbury Academic.

Lucisano P. (2016), La misura delle misure e la validità educativa, «Giornale Italiano di Ricerca Educativa», vol. 9, n. 16, pp. 60-69.

Messick S. (1989), Validity. In R.L. Linn (a cura di), Educational measurement, Washington, DC, American Council on Education – Macmillan, pp. 13-103.

Rumiati R., Checchi D., Ancaiani A., Ciolfi A., Sabella M., Infurna M.R. e Di Benedetto A. (2019), Il Problem Solving come competenza trasversale. Inquadramento e prospettive nell’ambito del progetto TECO, «Scuola Democratica», n. 1, pp. 239-257.

Rumiati R., Ciolfi A., Di Benedetto A., Sabella M., Infurna M., Ancaiani A. e Checchi D. (2018), Key-competences in higher education as a tool for democracy, «Form@re», vol. 18, n. 3, pp. 7-18.

Torlone F. (2018), Metodi e strumenti per la definizione dei contenuti core del Corso di Laurea L-19 in Scienze dell’educazione e della formazione, «Form@re», vol. 18, n. 3, pp. 37-60.

Wiggins G. (1998), Educative Assessment: Designing Assessments to Inform and Improve Student Performance, San Francisco, Jossey-Bass.

Wiliam D. (2010), Standardized test and school accountability, «Educational Psychologist», vol. 45, n. 2, pp. 107-122.


1 Professore Associato di Pedagogia sperimentale, Università degli Studi Roma Tre.

2 Associate Professor in Experimental Pedagogy, Università degli Studi Roma Tre.

Vol. 6, Issue 1, April 2020

 

Back