BENVENUTO   |   Login   |   Registrati   |
Imposta Come Homepage   |   Ricerca Avanzata  CERCA  

UNIVERSITA'/ Il dibattito sul decreto Gelmini: valutazione della ricerca e importanza dei criteri "oggettivi"

Pubblicazione:

università_aulaR375.jpg

 

In merito al problema di come valutare l’attività dei docenti universitari, tema caldo emerso dopo l’approvazione del decreto Gelmini sull’università e recentemente affrontato in alcuni interventi su questo giornale, ultimo dei quali quello a firma del prof. Maggioni, vorrei spendere qualche parola in più sul tema dei criteri di valutazione della ricerca accademica.

Brevemente, questi criteri valutano le pubblicazioni realizzate in ambito accademico. Quando un processo di ricerca arriva ad un livello di maturazione tale da ottenere un risultato innovativo, si è soliti pubblicarne i risultati su riviste specializzate, di solito di prestigio internazionale. I suddetti criteri valutano il numero e la qualità delle pubblicazioni accademiche con lo scopo di fornire una valutazione in sede di assunzione (o di passaggio di livello) nelle carriere accademiche.

Nell’articolo del prof. Maggioni, forse nel riconoscere un unilaterale ed eccessivo entusiasmo da parte di molti commentatori verso questo tipo di criteri, l'autore sbilancia forse troppo la sua opinione verso criteri soggettivi, ponendo l'accento sulle possibili falle inerenti questa valutazione “bibliometrica”.

A sostegno di ciò, viene dimostrato, attraverso alcuni esempi, il fatto che ci sia la possibilità che si creino meccanismi clientelari nel caso in cui si adottino questi criteri bibliometrici. Diversi i casi che vengono contemplati: uno su tutti, il fatto che un tipo di indicatore bibliometrico potrebbe incoraggiare una ricerca di tipo “superficiale” con eventuale “incremento di coautorship, ripetizione di risultati”.

Vogliamo qui precisare che ciò in realtà è molto difficile che avvenga, soprattutto quando si stia parlando di pubblicazioni su riviste internazionali, accreditate come ambiente privilegiato per presentare una ricerca di qualità.

Per capirne il motivo, è necessario entrare nel merito di come queste riviste internazionali arrivano alla decisione di pubblicazione di un articolo. È necessario un rigoroso processo di revisione: i responsabili della rivista, una volta ricevuto l'articolo sottomesso per la pubblicazione, lo inviano ad un pool di revisori sparsi per il mondo. Questi revisori hanno lo scopo di valutare la qualità tecnica, l'attualità della ricerca presentata e il contributo innovativo rispetto ad articoli esistenti. Soprattutto da questo ultimo aspetto, è chiaro che la rivista sarà un primo filtro per evitare di ottenere pubblicazioni ripetute. Di solito questo processo è più rigoroso quanto più la rivista è prestigiosa. Il prestigio di una rivista viene valutato da una serie di cosiddetti Impact Factors (IF), ovvero di numeri che hanno lo scopo di dare un ranking di quella tal rivista. Esistono delle associazioni mondiali che recensiscono delle liste di impact factors per tutte le riviste esistenti in vari settori sulla base di criteri statistici riconosciuti come validi da tutte le comunità.

Coloro che criticano questa impostazione, sostengono che un eccessivo uso di questi criteri potrebbe favorire una certa co-autorship (ovvero, come dice ancora Maggioni nel suo articolo, porterebbe a dire “ti aggiungo come co-autore se tu aggiungi me”). L’esempio riportato, però, pecca a mio avviso di superficialità. Succede spesso che chi ha effettivamente lavorato su un articolo è di solito uno dei primi autori, di solito proprio il primo. Questo contribuisce tantissimo (ad esempio nel sistema di valutazione americano) a far capire il prestigio di quel tal ricercatore, o se sia solamente un co-autore. Quindi anche su questo spetto ci sono già dei meccanismi per dare una certa trasparenza ai criteri oggettivi basati sulla bibliografia. In sede di valutazione, quindi, sarà semplicemente necessario tenere in maggiore considerazione coloro che compaiono come primi autori.

Concludendo, è il caso di dire che i criteri oggettivi sono ad oggi un buonissimo indice di valutazione, perché, tenendo conto di una totalità di fattori sopra elencati, forniscono un metodo chiaro e trasparente per approcciare quel tal studioso sulla base delle sue “opere”, e capire meglio le sue capacità. I criteri oggettivi, per come ho dettagliato sopra, forniscono una specie di “carta tornasole”, sono cioè un primo metodo di indagine a cui far seguire un metodo più “soggettivo”, di conoscenza personale.

Il punto di una riforma vera e di qualità del sistema accademico deve invece concentrarsi sul “come” questi dati vengono pesati in sede di esame o di valutazione. Questo è un tema molto interessante, su cui sarebbe interessante dibattere.

 



© Riproduzione Riservata.
 

COMMENTI
22/01/2009 - semplicità o semplicismo? (MARIO MAGGIONI)

Pochi commenti anche per suggerire che, prima di tacciare alcuno di superficialità, sarebbe meglio approfondire le proprie argomentazioni. 1) Il funzionamento delle riviste internazionali è noto (almeno) a chi, come il sottoscritto vi ha scritto, vi scrive, agisce come referee, ed è associate editor di due di esse. Ciò nonostante la trasparenza della procedura (single o double blind) non può eliminare importanti fonti di distorsione: alcuni documentabili in modo oggettivo, come l’”insider bias”(si googli "tom coupè insider bias", altri più sottili, come l'appartenza ad un certo approccio o filone di ricerca. 2) L’ IF non è una serie di indicatori ma uno solo, prodotto non da un’associazione ma da un impresa (attualmente parte del gruppo Reuters) ed è autoreferenziale: per poter essere “ammessa”, una rivista deve contenere articoli citati da riviste contenute in ISI. Inoltre, l’IF di una rivista può essere aumentato attraverso la richiesta di citazione di articoli della stessa nella versione “rivista” dopo il referaggio (pratica sempre più frequente. 3) L’ordine degli autori varia da disciplina a disciplina: è puramente alfabetico (Economia e scienze sociali) oppure privilegia il primo e l’ultimo posto, oppure include sempre il direttore del gruppo di ricerca… Insomma: diverse discipline, diversi criteri (e che evolvono nel tempo). Stabilire per decreto quanto valga un paper senza leggerlo non è semplice: è semplicistico e sbagliato. In questo sono daccordo con Mariottini.