LA VERIFICA DELL’APPRENDIMENTO NEGLI ESAMI GIURIDICI

Lucio Pegoraro (CV)
Ordinario di Diritto pubblico comparato nella Facoltà di Giurisprudenza
Università di Bologna (Italia)

 

Bajar en formato PDF

Abstract: L’articolo analizza le modalità di apprendimento e della verifica degli studenti nelle materie umanistiche e in particolare in quelle giuspubbicistiche, evidenziando come le modalità dei test a scelta multipla utilizzate in molti paesi assicurino alcuni requisiti, quali quelli di oggettività, attendibilità, validità e selettività. Passa poi a illustrare un’iniziativa editoriale intrapresa da alcuni professori italiani che hanno predisposto volumi di diritto interno e comparato con l’intento non solo di predisporre test finalizzati alla valutazione, ma anche di aiutare gli studenti nella fase di verifica dell’apprendimento.

The article analyses the different types of learning processes and assessment in social studies and, in particular, in the field of public law. It then underlines that multiple-choice tests, which are used in many countries, ensure that assessment methods respect a series of conditions, i.e. those of objectivity, reliability, validity, and selectivity. It then moves on to describe an editorial initiative by a number of Italian Professors, who have authored Italian and Comparative Public Law test-books with the aim of not only providing an assessment instrument, but also to help student to self-test their grounding.

Parole chiave: docimologia – test oggettivi – diritto pubblico – verifica dell’apprendimento – iniziative editoriali.

Keywords: Study of Testing Techniques – Objective Testing – Public Law – Assessment Methods – Editorial Initiatives.

Sommario: PREMESSA. – SEZ. I. LE TECNICHE DI VALUTAZIONE: 1. Le prove tradizionali. – 2. Metodologie oggettive. – 3. La pianificazione di un test. – 4. Preparazione e scelta degli item. – 5. Correzione del test. – 6. Valutazione. – 7. Operazioni finali. – 8. Verifica. – Sez. II. AUSILI DIDATTICI PER LE MATERIE GIUSPUBBLICISTICHE: 1. Alcune iniziative editoriali italiane. – 2 Tipologia degli item contenuti nei volumi. – 3. Modalità pratiche di somministrazione dei test. – 4. L’esperienza pratica. – CONCLUSIONI.


PREMESSA

Ormai da decenni, la profonda metamorfosi patita dall’Università dopo l’era della contestazione generale ha trasformato in un “esamificio” quello che era un tempo luogo di insegnamento, di dialogo, di ricerca e di verifica dell’apprendimento.

Paradossalmente, però, proprio l’attività oggi prevalente – per l’appunto quest’ultima – viene portata innanzi con criteri spesso approssimativi.

Quale che sia il sistema adottato, salvo una vaga percezione basata sull’esperienza, sovente difetta la consapevolezza delle funzioni proprie dell’esame, che la docimologia – la scienza della valutazione – riassume nelle seguenti: diagnosi; giudizio sulla validità di un corso di studi; predizione delle possibilità di successo; verifica del profitto raggiunto (1).

SEZ. I. LE TECNICHE DI VALUTAZIONE

1. Le prove tradizionali

Le Università italiane (ma anche molte non italiane) sino a non molto tempo fa hanno utilizzato le prove tradizionali di verifica dell’apprendimento (prova orale e/o tema scritto), senza che si levasse nemmeno una voce autorevole a contestarle, nonostante il loro carattere empirico e approssimativo, che non sempre consente a docenti pur volonterosi e coscienziosi di essere il più possibile equanimi. Lo hanno fatto soprattutto nelle discipline umanistiche e sociali, nonché in specie, per quanto qui ci interessa, in quelle giuridiche.

Delle molte critiche che vengono abitualmente mosse alle interrogazioni o al saggio scritto, si può subito dire, se non altro, che tali prove mancano di oggettività.

Nel caso delle interrogazioni orali, le domande sono diverse da candidato a candidato: il momento è diverso, diverso l’umore dell’esaminatore. A ciò si possono aggiungere i condizionamenti positivi o negativi delle esperienze precedenti nei rapporti con il singolo esaminando (o anche, nell’Università, la suggestione di buoni o mediocri precedenti denunciati dal curriculum). Si aggiunga che gli stessi studenti operano in condizioni diverse, e molti di loro sono costretti a subire lo stress di interminabili attese e di rinvii.

Le prove scritte tradizionali presentano senza dubbio un certo grado di oggettività, in quanto eguali per tutti e svolte in condizioni ambientali eguali; anch’esse però non sono sufficientemente attendibili a causa della mancanza di precisi criteri nella fase della valutazione.

Sull’argomento, sin da anni ormai lontani, numerosi studi mettono in luce la gravità della situazione: è stato ampiamente dimostrato, per es., che lo stesso saggio scritto può ricevere valutazioni diverse da parte di diversi correttori, e persino dallo stesso correttore in momenti successivi. Si è anche fatto notare che talora un insegnante usa una gamma di valutazione ampia, mentre un altro concentra i propri giudizi nello spazio di due o tre classificazioni (2).

A difesa delle prove tradizionali si ricorda che esse presentano pur sempre il requisito della collegialità. Tale requisito può certamente livellare i giudizi, ammorbidire le intemperanze, ma di rado aumenta il grado di imparzialità e di giustizia distributiva.

Si sostiene che anche le prove tradizionali evidenziano gli studenti più preparati e quelli meno preparati; ma è proprio nella vasta zona media che occorre saper differenziare, ed è appunto in questa fascia della normalità che si registrano sovente errori di valutazione.

Non è detto che le prove tradizionali debbano essere bandite: vanno comunque e anzitutto rese più valide ed efficaci con il rispetto di alcune regole, e, sopra tutto, ad esse si possono affiancare altri strumenti di verifica.

2. Metodologie oggettive

Per fronteggiare questa situazione insoddisfacente (ma – diciamolo subito – anche per motivi pratici) sono state sperimentate soluzioni alternative in luogo delle prove tradizionali di verifica e d’esame. Si tratta di metodologie che, nell’intenzione degli studiosi, dovevano presentare le stesse caratteristiche che erano state messe a punto nella preparazione dei test attitudinali, apparsi sulla scena nei primi anni del ’900, soprattutto nei Paesi anglosassoni, e cioè:

a) oggettività: le prove, o test, sono eguali per tutti gli esaminandi e si svolgono nello stesso contesto temporale e nelle stesse condizioni ambientali; vengono corrette allo stesso modo e valutate con la stessa scala;

b) attendibilità: i test sono affidabili perché i loro risultati non sono soggetti a variabili indesiderate. Somministrati in due momenti successivi allo stesso campione (gruppo), danno risultati eguali; somministrati a due campioni paralleli (due gruppi di soggetti presi dalla stessa popolazione), ottengono medie e distribuzione di punteggi altamente corrispondenti;

c) validità: i test di apprendimento sono in grado, se predisposti con competenza e cura, di fornire una chiara indicazione sul grado di preparazione dei candidati;

d) selettività: le prove consentono di esaminare i risultati attraverso una vasta gamma di valutazione. I risultati, in altre parole, si distribuiscono secondo una curva simmetrica, “a campana” (o “gaussiana”): la maggior parte sono concentrati nella zona media e appaiono via via meno numerosi a mano a mano che ci si allontana dalla media nei due sensi.

3. La pianificazione di un test

Una volta assunta la decisione di utilizzare un test (da solo, o a fianco di una prova tradizionale, o per l’ammissione alla medesima), sia per una verifica interlocutoria che per un esame formale, deve essere preliminarmente individuato lo scopo della prova, che può essere l’accertamento: a) soltanto delle nozioni acquisite; b) anche della padronanza – o dell’uso appropriato – di operazioni mentali (deduzione, giudizio, generalizzazione, ecc., coessenziali a una reale conoscenza).

Si deve poi stabilire il grado di difficoltà da attribuire alla prova, a seconda dell’obiettivo che si vuole raggiungere (una valutazione gradualmente selettiva, oppure una selezione dei migliori, o la non approvazione dei peggiori).

A tale riguardo va detto che il test più attendibile è quello che presenta una adeguata combinazione di quesiti (item): facili (25%), di media difficoltà (50%), difficili (25%). Solo in questo caso si ottiene una distribuzione di risultati ampia e simmetrica, che discrimina oggettivamente i vari livelli di rendimento. Nel caso di domande tutte facili si determina una distribuzione obliqua, nella quale i risultati si addensano attorno a valori alti. Nel caso di quesiti per lo più difficili, si ha il fenomeno opposto (la maggioranza dei risultati raccolti attorno a un valore basso). Infine, nel caso di quesiti tutti troppo difficili, si può ottenere una distribuzione piatta (o «rettangolare»), con la stessa frequenza per ogni punteggio, prevalendo le risposte azzardate su quelle genuine (in altre parole, le risposte casuali fanno sì che ogni item riceve un numero press’a poco eguale di risposte esatte). Solo un piccolo numero di studenti eccezionali potrebbe mettersi in evidenza: perciò una prova siffatta si giustificherebbe solo in vista di una severa selezione, e tuttavia non è considerata opportuna neppure in questo caso.

In fase di pianificazione del test è necessario anche fissare la lunghezza della prova, tenendo presente che essa è tanto più attendibile quanto più è lunga, ma considerando anche il problema dell’affaticamento, e dei tempi medi che comunque si richiedono per completare le risposte.

Bisogna infine decidere se la prova si svolgerà a tempo determinato (come accade per lo più) o a tempo libero.

4. Preparazione e scelta degli item

Nella preparazione degli item, è necessario anzitutto decidere quali tipi di quesiti si vogliono adottare. Possono infatti presentarsi varie soluzioni: completare una frase, riempire i vuoti di un discorso, operare abbinamenti tra due serie di concetti, porre in ordine frasi, graduare giudizi, scegliere definizioni, ecc.

I due tipi più in uso sono però i seguenti: a) quesito a risposta libera; b) quesito con risposte a scelta multipla.

Ad esclusione dell’ultimo – domanda con risposte a scelta multipla – tutti i modelli ora ricordati presentano tuttavia problemi più o meno complessi di correzione e di valutazione.

In generale – un po’ in tutto il mondo – si è perciò preferito il test composto per intero da item tutti a risposta multipla, con due alternative (vero/falso) o con più alternative, di cui una è la risposta esatta e le altre sono più o meno gravemente errate.

A proposito delle alternative errate va notato che esse non debbono essere scopertamente assurde o illogiche (verrebbero scartate subito), ma devono presentare un po’ di verità o un’apparenza di verità, essere come si dice “plausibili”. Ciò induce l’esaminando a riflettere e a non lasciarsi ingannare; si tratta di un invito ad approfondire un ragionamento o a controllare la rievocazione di un dato.

Tornando al problema della preparazione (o scelta) degli item (tipo, grado di difficoltà, numero), c’è da aggiungere qualcosa sulla loro formulazione: le domande – brevi, semplici, chiare – non devono contenere suggerimenti di alcun genere (ovvero, vanno espresse in tono neutrale). Così pure le risposte.

5. Correzione del test

Il metodo di correzione più semplice consiste nell’assegnare un punto per ogni risposta esatta. Quando non si utilizzino sistemi informatizzati, ci si può giovare di una griglia, sulla quale è tracciato un segno in corrispondenza di ogni risposta esatta. Si contano le risposte esatte e si assegna un punteggio provvisorio.

Al punteggio provvisorio si usa applicare una penalizzazione in rapporto al numero di errori commessi. La detrazione è di un punto per ogni errore nel caso di item con due alternative, di un punto per due errori nel caso di tre alternative, di un punto ogni tre errori quando le alternative siano quattro, ecc.

Le omissioni vanno trascurate. Esse hanno già penalizzato il risultato complessivo,sottraendo punti potenziali (infatti, anche rispondendo a caso si può ottenere qualche punto, soprattutto se l’incertezza non è totale, ma riguarda solo una parte della risposta). Nello stesso tempo la risposta azzardata può essere a volte quella esatta e, quindi, incrementa il punteggio finale: è perciò opportuno che le risposte errate comportino una penalizzazione che serve a correggere l’influenza del caso.

È evidente che si potrebbe ricorrere anche ad altri metodi di correzione; ad esempio, se si dà importanza al grado di erroneità delle risposte sbagliate, si potrebbe assegnare un punto per ogni risposta esatta e detrarre un punto per ogni errore grave e un punto per due errori lievi. Oppure, semplicemente, contare gli errori e le omissioni, detraendoli dal punteggio massimo stabilito. Sono – questi – metodi meno esatti da un punto di vista statistico e metodologico, anche se – come insegna l’esperienza sul campo –semplici da applicare. È preferibile comunque evitare tipologie di punteggi che complicano la correzione con il rischio di distorsioni.

6. Valutazione

Completata la correzione delle prove, si ottiene una serie di punteggi grezzi (raw score) non significativi, anche perché variabili in funzione della lunghezza del test e del tipo di correzione adottato. Essi tuttavia permettono una prima verifica complessiva della prova. Si può operare anzitutto una graduatoria (ad es. dal punteggio più alto al più basso), ma anche individuare la mediana (e cioè il punteggio dell’esaminato che si trova a metà della graduatoria) o, infine, qual è il punteggio più comune (moda).

A questo punto bisogna convertire il punteggio grezzo nel voto corrispondente, sulla base della scala di valutazione prescelta. Nell’Università italiana, ad esempio, la scala va da 0 a 30. Nel caso specifico degli esami universitari si deve quindi operare la conversione del punteggio grezzo in trentesimi. Perciò al punteggio massimo ottenibile nel test va assegnato il punteggio di 30/30, e agli altri punteggi voti inferiori nella dovuta proporzione. Se ad es. a 50 (punteggio massimo del test) corrisponde 30/30, a 40 (ovvero, 4/5 del massimo) corrisponderà 24/30, a 30 corrisponderà 18/30 e via dicendo.

Un caso particolarmente favorevole è quello di un test composto da trenta item con il punteggio massimo di 30. In tale ipotesi il punteggio grezzo assegnato al test corrisponde al voto, senza necessità di alcuna conversione.

7. Operazioni finali

La valutazione a questo punto è anch’essa completata. Può darsi però che l’esito non risulti soddisfacente, perché sono troppi o troppo pochi gli elaborati che raggiungono o superano la soglia di promozione (18/30). Nulla vieta, nel caso dei test di apprendimento, che si operi un’ulteriore correzione per aumentare o diminuire il voto assegnato, aggiungendo o sottraendo a tutti gli elaborati uno o più punti. Non è, questo, un procedimento matematicamente esatto, anche se è in via di principio accettabile, poiché lascia intatta la graduatoria (più corretto, ma meno pratico, sarebbe moltiplicare ogni voto per lo stesso coefficiente, ovviamente superiore a 1 per aumentare, e inferiore a 1 per diminuire).

8. Verifica

Concluse le operazioni finali, gli elaborati si prestano ad alcuni riscontri utilizzabili ai fini di un eventuale miglioramento delle prove.

Si possono analizzare i risultati per sottoporre a un controllo il livello di difficoltà o il grado di discriminazione dei vari item; e cioè verificare in che misura ogni item sia stato risolto dal gruppo che ha ottenuto il punteggio più alto (quantificato nel 27%) e in che misura da quello (pure del 27%) che ha ottenuto il punteggio più basso: se la differenza tra le due frequenze è nulla o piccola, l’item non discrimina ed è praticamente inutile. Se, poi, gli errori si addensano su un certo item o su un piccolo gruppo di item, il docente potrebbe anche ricavarne un’ulteriore input: può trattarsi (quando ciò non sia ascrivibile a una impropria formulazione dell’item) di un’insufficiente informazione offerta nel corso delle lezioni, o di una lacuna del testo adottato, ecc.

SEZ. II. AUSILI DIDATTICI PER LE MATERIE GIUSPUBBLICISTICHE

1. Alcune iniziative editoriali italiane

Le Istituzioni di diritto pubblico, il Diritto costituzionale, il Diritto pubblico comparato (e, specie nelle Facoltà di Scienze politiche, il Diritto costituzionale italiano e comparato) rappresentano in Italia, per migliaia di studenti, il primo o, quanto meno, uno dei primi accostamenti al mondo del diritto: un approccio che non sempre si rivela agevole, soprattutto per quanti non possono frequentare i corsi regolari.

Le difficoltà che si presentano al neofita del diritto pubblico sono molteplici e riguardano: la comprensione stessa della materia o di talune sue parti; la presa di contatto col metodo giuridico; l’individuazione e la cernita di ciò che è essenziale conoscere, e di ciò che non è detto lo sia; i collegamenti tra istituti e discipline ...

A queste si sommano difficoltà “logistiche” di non minore importanza: in corsi sempre affollati, allo studente non è quasi mai consentito sciogliere i propri dubbi, durante o al termine delle lezioni, per il tramite di un dialogo con il docente; né, d’altro canto, gli è sempre possibile rivolgersi al tutor (una figura, questa, rimasta spesso sulla carta) o, comunque, ai collaboratori e agli assistenti. La verifica delle conoscenze, che precede l’esame, viene generalmente svolta con sistemi empirici, confidando nella propria capacità d’interrogarsi o, al più, nella collaborazione di colleghi e amici.

Non solo per rendere più equa la valutazione, ma anche da queste considerazioni è nata l’idea di offrire agli studenti taluni ausili didattici, atti a consentire loro di verificare il proprio grado di preparazione in vista degli esami giuspubblicistici.

Sono stati dunque scritti da alcuni docenti due differenti volumi (3), dedicati rispettivamente al diritto pubblico e costituzionale interno e al diritto pubblico comparato (cui si è aggiunto più tardi un libro sul diritto amministrativo (4)), strutturati in modo tale da aiutare lo studente alla verifica delle proprie conoscenze, prima dell’esame svolto sulla base di test.

Essi si articolano (a seconda dell’edizione) in circa milletrecento/millecinquecento domande, raggruppate per temi, lungo un percorso che ricalca quello seguito da gran parte dei manuali.

Le “sezioni” in cui è divisa ciascuna “parte” sono precedute dai riferimenti alle principali fonti che disciplinano la materia.

Alle domande seguono tre risposte: una è esatta (o comunque più vicina al vero, o alla tesi dominante), mentre le altre due – pur plausibili – sono o errate, o illogiche, o meno vicine al vero.

In calce a ciascuna domanda, lo studente trova il riferimento ai paragrafi dei principali manuali nei quali l’argomento è trattato (il rimando è all’ultima edizione in commercio; mentre per i manuali che ragioni di spazio hanno costretto a non menzionare, egli può valersi degli indici che li corredano).

Accanto a ogni domanda compaiono uno o due o tre simboli grafici: essi stanno a indicarne il grado di difficoltà, così come è stato recepito dagli studenti che hanno finora sperimentato i test. La segnalazione tiene conto, naturalmente, anche delle risposte alternative a quella più corretta: è evidente che, tre essendo le opzioni, anche a una domanda difficilissima è agevole rispondere, se le due risposte alternative sono gravemente errate (5).

Le soluzioni sono riportate in calce a ciascuna parte del volume. Lo studente può quindi operare un’attenta rilettura delle pagine via via indicate, verificando solo al termine della ricerca – è questo il consiglio dato dagli autori – l’esattezza delle risposte.

La lettura delle domande e delle risposte alternative consente, da un lato, un ulteriore ripasso della materia studiata nel manuale; dall’altro, come già detto, la verifica del proprio grado di preparazione.

2 Tipologia degli item contenuti nei volumi

I volumi offrono un vero e proprio campionario di domande in materia giuspubblicistica, utilizzabili anche per le prove tradizionali ma che, nel caso, permette un numero davvero sterminato di combinazioni. Se, per esempio, si decide di predisporre test con trenta item da scegliere tra quelli a disposizione, il numero delle combinazioni possibili è di oltre cinquanta cifre!

I quesiti sono tutti della stessa forma, anche se sono stati inseriti item idonei ad accertare vari tipi di capacità.

Scartate le domande che esigono risposte del tipo «vero-falso» o «giusto-errato» (in tal caso, per risultare attendibile, il test dovrebbe essere assai lungo), sono state incluse nel testo solo domande a scelta multipla con una sola risposta giusta o con una risposta migliore; tra queste, domande del tipo assertion-reason, che tendono a verificare l’esattezza di due affermazioni e del loro collegamento.

Nei volumi, si trovano dunque:

a) domande che presuppongono la mera padronanza di nozioni fondamentali, come potrebbe essere, per il Diritto costituzionale spagnolo, una domanda sull’anno di entrata in vigore della Costituzione di Cadice. Ad esse sono di volta in volta associate, accanto alla risposta esatta: o due risposte errate, ma vicine al vero (es.: 1815, 1810); oppure due risposte gravemente errate (es.: 1789, 1878); o infine una risposta vicina al vero e una gravemente errata (es.: 1815, 1912) (6).

b) domande che presuppongono una conoscenza più approfondita della materia (7);

c) domande che comportano esercizio di logica giuridica (ad es., quelle che richiedono di associare categorie omogenee, come «interpretazione dottrinale, giurisprudenziale, autentica»; oppure: «regolamenti di esecuzione, delegati, indipendenti») (8).

A seconda delle finalità di volta in volta perseguite, il docente può scegliere un congruo numero tra i vari tipi di domande, onde graduare la valutazione degli esaminandi, oppure – per scopi particolari: ad es.: accesso all’esame orale – solo domande dell’uno o dell’altro tipo.

La sperimentazione svolta nell’arco di molti anni ha consentito agli autori di sottoporre a verifica gran parte delle domande, formulate secondo i criteri sopra esposti (chiarezza, intellegibilità, concisione, ecc.) e – utilizzando gli strumenti proposti dagli studi docimologici dianzi accennati – nel corso delle varie edizioni, oltre ad ampliare la gamma di item e ad aggiornarne alcuni, sono stati esclusi gli item che non presentavano un sufficiente grado di attendibilità.

3. Modalità pratiche di somministrazione dei test

a) Sulla base delle finalità prefissate caso per caso, è necessario innanzi tutto stabilire la lunghezza della prova, il numero di item, il tempo da assegnare. La sperimentazione dimostra che test di trenta/quaranta item sono adeguati, e la lunghezza ottimale della prova è di circa 30 minuti (ovvero, circa un minuto per item);

b) occorre poi selezionare i quesiti, considerando il loro contenuto e il grado di difficoltà (indicato nei libri citati con uno, due o tre simboli grafici, secondo i suggerimenti degli stessi studenti);

c) gli item possono essere disposti nell’ordine reputato più opportuno. Essendo il test a tempo fisso, si sconsiglia di concentrare tutti gli item “facili” alla fine del questionario: la conseguenza sarebbe che gli studenti meno veloci verrebbero troppo penalizzati;

d) onde evitare gli inconvenienti connessi all’affollamento delle aule durante la prova, questa potrà svolgersi distribuendo gli item stessi in sequenze differenziate; oppure suddividendo gli studenti in più aule e/o in più turni;

e) distribuiti i fogli con gli item in modo tale da non avvantaggiare coloro che li hanno ricevuti per primi, la somministrazione del test deve essere preceduta da istruzioni brevi e chiare sulle norme da tener presenti prima, durante e alla fine della prova: ad es., leggere attentamente le domande; segnare la risposta nell’apposito “foglio delle risposte”, ecc.;

f) raccolti gli elaborati, occorre procedere alla correzione e all’assegnazione dei punteggi dei singoli item, secondo il metodo prescelto, indi sommarli per ottenere il punteggio totale provvisorio, operando eventuali detrazioni qualora si sia optato per questa più diffusa modalità di correzione;

g) assegnato il punteggio grezzo a ogni prova, questo va tradotto in una valutazione in trentesimi (operazione, questa, superflua se il test contiene trenta item e il punteggio massimo è 30);

h) infine, se del caso, possono venire operate lievi conversioni, aggiungendo o togliendo, a tutti gli elaborati, un numero eguale di voti.

4. L’esperienza pratica

Nella consapevolezza dei propri limiti di conoscenza della docimologia, chi scrive ha maturato, nel corso di più di tre lustri, almeno la sensazione che la sofisticata elaborazione di test inoppugnabili dal punto di visto scientifico può essere coniugata ad esigenze di praticità e di “gestibilità” degli esami universitari.

Pur convinti che il criterio corretto di valutazione di un test sia quello illustrato nella Sez. I, § 5, si è preferito ad esempio – previo avviso ai candidati – conteggiare omissioni e risposte errate con la stessa detrazione di un punto, qualora il test medesimo abbia un numero adeguato di domande. Ciò consente di ridurre l’incidenza delle risposte casuali, ma nello stesso tempo aiuta a ridurre i tempi di correzione, riducendo lo stress degli studenti e permettendo lo svolgimento dell’esame orale e/o scritto a prova libera immediatamente dopo la (rapida) correzione.

La correzione può essere agevolata dalla predisposizione di griglie cartacee, e di fatto si completa in pochi minuti o poche decine di minuti.

Il risultato di ciascun candidato può essere determinato – tralasciando criteri più complessi – detraendo un punto dal punteggio massimo, e fissando previamente la soglia di ammissione.

Un test composto da una quarantina di item pare essere adeguatamente selettivo e discriminatorio, e dà costantemente risultati “a campana”, con pochissimi voti massimi, pochissimi voti assolutamente insufficienti, e gran parte dei voti concentrati nei punteggi intermedi (il che garantisce l’attendibilità del test). Naturalmente, come è attestato a livello scientifico, più elevato è il numero di item, più credibile sarà l’esito, e proprio per questa ragione non manca chi ha sperimentato – come nell’Università di Firenze – anche test composti da un centinaio di item.

È possibile in casi eccezionali – quando rispetto alla media stagionale troppo pochi studenti abbiano raggiunto la sufficienza, il che indica che il test era forse “troppo” difficile – aumentare la soglia di ammissione all’esame orale, semplicemente incidendo, sulla base del risultato complessivo, su tale soglia minima (ad esempio, essendo in Italia la sufficienza rappresentata dal punteggio 18/30, nulla vieta al docente di ammettere alla prova orale o al tema i 17/30 o i 16/30, se avverte che gli studenti insufficienti sono molto più numerosi del solito).

I risultati sinora raggiunti sono stati confortanti: gli studenti hanno dimostrato di gradire (quasi sempre) tale metodo d’esame, che assicura una rigorosa imparzialità e può affiancarsi ad altri strumenti di verifica, sia orali che scritti.

Non sempre l’esito della prova orale o delle prove scritte libere conforta il risultato dei test, anche se ciò accade nella grande maggioranza dei casi. Ciò peraltro è imputabile a differenti predisposizioni degli studenti, dalla loro formazione, dallo sviluppo di capacità logiche o dal privilegio concesso a quelle retoriche, e via dicendo.

Proprio per ciò, anche nell’ottica del mercato del lavoro, siamo convinti che una corretta e complessiva valutazione debba comprendere vari tipi di prove: per test, scritta e orale, alle quali si possono aggiungere valutazioni legate, quando possibile, a elaborazioni scritte a opera degli studenti e a interventi durante il corso.

La situazione dell’Università, mortificata da politiche legislative e da approcci della politica più propensi alla “cultura” mediatica del Grande Fratello, non incoraggia peraltro interventi tanto gravosi e impegnativi da parte dei professori, che sono quasi ineluttabilmente costretti, in grande maggioranza, a rifugiarsi, anche per ragioni di tempo, in tecniche di valutazione tradizionali, conformiste e spesso scarsamente attendibili.

CONCLUSIONI

La percezione che gli esami tradizionali siano insufficienti per valutare il rendimento degli studenti è nondimeno tanto diffusa, che nelle facoltà giuridiche e politologiche molti professori usano ormai i test per ammettere gli studenti all’esame orale, di volta in volta dando rilievo al punteggio raggiunto, oppure semplicemente considerando il test medesimo quale barriera per l’ammissione all’orale.

Le metodologie impiegate sono tuttavia quasi sempre approssimative, e l’impressione è che la finalità prevalente sia solo quella di alleggerire le prove tradizionali, scremando la massa di candidati, ma di attribuire significato solamente alla prova orale (oppure a quella scritta, libera, ove sia prevista questa modalità), tirandosi dietro dunque tutte le problematiche segnalate nella Sez. I.

Quasi sempre, i test sono composti al massimo da una decina di item, il che contribuisce ad affidare alla casualità l’esito di buona parte delle prove, rendendole quasi completamente inattendibili; non si avverte, spesso, alcun criterio scientifico nella composizione dei medesimi; le (quasi sempre poche) domande sono talora insidiose, talora troppo simili, talora non discriminano tra diverse conoscenze che si dovrebbero richiedere, ecc. Insomma, la strutturazione del test non tiene da conto la base scientifica della valutazione, sicché, appunto, sembra aver di mira il solo scopo – utilitaristico ancorché giustificabile – di ridurre il numero dei candidati ammessi alle prove tradizionali che li seguono.

Nulla viene poi fatto per consentire allo studente di verificare la sua preparazione sulla base di questa modalità di verifica delle conoscenze, e di allenarlo ad affrontare le prove che, sulla base di test, richiede il mercato del lavoro: dalle amministrazioni pubbliche alle assemblee parlamentari e regionali, dalle banche alla magistratura sino al settore privato, tutti, ormai usano i test oggettivi quale principale e più ostico criterio di selezione dei candidati.

Non può essere chiesto ai cultori del diritto (e, nel nostro caso, delle discipline pubblicistiche) la conoscenza della docimologia; come in altri casi non si può domandare loro di conoscere a fondo “scienze diverse” (9), si tratta solo di evitare avventure in campi profani, senza neppure la consapevolezza di ciò che si sta facendo, e la cognizione critica che pure la valutazione degli studenti deve rispondere a criteri oggettivi e non a improvvisazione.
 


1. Cfr. tra i tanti D.L. NUTTAL, Come si pianifica un esame, in B. HUDSON (cur.), Introduzione alle tecniche di valutazione, trad. it., Bologna, 1975, p. 3.

2. V. ad es. H. PIÈRON, Examens et docimologie, Paris, 1963, p. 15; O. ANDREANI DENTICI, Abilità mentale e rendimento scolastico, Firenze, 1968, p. 137 ss., ed ivi ampi riferimenti bibliografici.

3. L. PEGORARO, A. REPOSO, C. FUSARO, Istituzioni di diritto pubblico e diritto costituzionale. Itinerari di apprendimento e di verifica, Giappichelli, Torino, 1995, 2a ed., 1996, 3a ed., 1999, 4a ed., 2002, 5a ed., 2007, e ID., Diritto comparato pubblico e costituzionale. Itinerari di apprendimento e di verifica, Giappichelli, Torino, 1998, , 2a ed., 2003, 3a ed., 2004.

4. L. PEGORARO, L. VANDELLI, R. SCARCIGLIA, V. PARISIO, Diritto amministrativo. Itinerari di apprendimento e di verifica, Giappichelli, Torino, 2002.

5. Esempi di item tratti da L. PEGORARO, A. REPOSO, C. FUSARO, Diritto comparato pubblico e costituzionale. Itinerari di apprendimento e di verifica, cit.:

♦♦♦ 198. In Spagna, la revisione totale della costituzione opera con:

a) approvazione della decisione a maggioranza di 2/3 delle Cortes, riapprovazione delle nuove Cortes con maggioranza di 2/3, referendum ( )

b) approvazione della decisione a maggioranza assoluta delle Cortes, referendum obbligatorio ( )

c) approvazione a maggioranza di 2/3 delle Cortes, riapprovazione delle nuove Cortes a maggioranza assoluta ( ).

Riferimenti bibliografici: de Vergottini Vol. 1, I, III, 10; Morbidelli III, 3; Morbidelli² II, II, 4, 6.

Oppure:

♦♦ 1320. Si definisce «astratto» un modello di controllo di costituzionalità nel quale:

a) assume preminente rilievo il caso sotteso ( )

b) la norma è considerata nell’interpretazione data dal giudice in uno specifico caso ( )

c) la disposizione è esaminata prescindendo dalla sua applicazione ( ).

Riferimenti bibliografici: de Vergottini I, III, 17; Morbidelli X, I, 4; Pizzorusso 59; Pegoraro I, 9.

6. Altro esempio (tratto da uno dei libri citati):

La potestà legislativa concorrente delle Comunità autonome spagnole incontra i limiti:

a) della Costituzione, dello statuto, delle leggi di base ( )

b) della Costituzione e dello statuto ( )

c) della Costituzione, dello statuto, delle riforme economiche, delle leggi dello Stato ( ).

7. Esempio:

In Spagna, la revisione totale della Costituzione opera con:

a) approvazione della decisione a maggioranza di 2/3 delle Cortes, riapprovazione delle nuove Cortes con maggioranza di 2/3, referendum ( )

b) approvazione della decisione a maggioranza assoluta delle Cortes, referendum obbligatorio ( )

c) approvazione a maggioranza di 2/3 delle Cortes, riapprovazione delle nuove Cortes a maggioranza assoluta ( ).

8. Cfr. il seguente:

Quale di queste classificazioni dell’interpretazione esprime categorie omogenee?:

a) dottrinale, estensiva, letterale ( )

b) dottrinale, giurisprudenziale, autentica ( )

c) letterale, logica, estensiva ( ).

9. V. L. PEGORARO, Comparacón jurídica y uso “externo” de ciecias “diversas”, in C. AGURTO GONZALES, S. LIDIA QUEQUEJANA MAMANI (coords) Estudios de derecho civil, primer volumen, Motivensa editora jurídica, Lima, 2010 (en curso de publicación).


Nota Importante a Leer:

Los comentarios al artículo son responsabilidad exclusiva del remitente.

Si necesita algún tipo de información referente al artículo póngase en contacto con el email suministrado por el autor del artículo al principio del mismo.

Un comentario no es más que un simple medio para comunicar su opinión a futuros lectores.

El autor del artículo no está obligado a responder o leer comentarios referentes al artículo.

Al escribir un comentario, debe tener en cuenta que recibirá notificaciones cada vez que alguien escriba un nuevo comentario en este artículo.

Eumed.net se reserva el derecho de eliminar aquellos comentarios que tengan lenguaje inadecuado o agresivo.

Si usted considera que algún comentario de esta página es inadecuado o agresivo, por favor, pulse aquí.

Comentarios sobre este artículo:

No hay ningún comentario para este artículo.

Si lo desea, puede completar este formulario y dejarnos su opinion sobre el artículo. No olvide introducir un email valido para activar su comentario.
(*) Ingresar el texto mostrado en la imagen



(*) Datos obligatorios


Rejie es una revista académica , editada y mantenida por el Grupo eumednet de la Universidad de Málaga.

Para cualquier comunicación, envíe un mensaje a cmavila@uma.es


Directora: Isabel González Rios  isa_gonzalez@uma.es
Promotor: Grupo de Innovación Docente: PIE 017/08
Editor: Juan Carlos Martínez Coll

ISSN: 1989-8754

Numero Actual
Presentación
Normas de Publicación
Hemeroteca
Consejo de Redacción
Comité Científico
Otras Revistas de EUMEDNET
Universidad de Málaga > Eumed.net > Revistas > Rejie