Scienziati vs criteri quantitativi

“Pubblica o muori”. È quanto viene inculcato a forza a chi appena laureato sceglie di intraprendere la via della ricerca scientifica. Ma gli scienziati sono stufi. Per lo meno questo è quanto emerge da un’inchiesta ideata, condotta e pubblicata da Nature. La rivista ha chiesto a 150 ricercatori di descrivere e giudicare i metodi con i quali loro stessi sono valutati. Il risultato è stato una totale bocciatura dei ranking relativi alle pubblicazioni. Nell’indagine, il 63 per cento dei ricercatori intervistati ha dichiarato di non essere soddisfatto di come viene giudicato durante poiché ritiene che sia data troppa importanza alle misure quantitative – numero di pubblicazioni, finanziamenti ottenuti, citazioni da parte di altri ricercatori – e poca ad altre come l’insegnamento, le lettere di presentazioni di colleghi e superiori, organizzazione e presenza a convegni e conferenze.

Ma è vero che la cosiddetta “science metrics” conta così tanto? Non tutti gli accademici la pensano così. Per esempio negli istituti eccellenti del Nord America hanno una notevole importanza le lettere di presentazione e la capacità di raccogliere fondi (eccezion fatta per il MIT di Boston). Però molti altri centri di ricerche fanno effettivamente affidamento a parametri più qualitativi. In Gran Bretagna, per esempio, i college e le università seguono i criteri del Research Assessment Exercise (lo strumento attraverso il quale il governo valuta le ricerche condotte negli atenei britannici). A determinare la qualità sono originalità, significatività e rigore degli studi.

Nel resto d’Europa, invece, non esistono regole certe. Per esempio in Germania gli ottanta istituti di ricerca coordinati dalla Max Planck Society hanno un sistema che si basa parzialmente sulle misure quantitative e parzialmente sulle lettere di valutazione, ma nel resto del Paese la situazione varia da ateneo ad ateneo. In Italia la questione è tutta diversa perché le università non assumono autonomamente docenti e ricercatori ma questi devono superare un concorso. Tuttavia, anche da noi, pubblicazioni, citazioni e impact factor delle riviste sono criteri presi regolarmente in considerazione. A Leida, in Olanda, hanno pensato di risolvere il problema organizzando dei veri e propri corsi universitari di “misura della scienza” per formare degli esperti in grado di valutare correttamente uno scienziato. Di esperti di questo tipo, al momento, ne esistono appena 1.500 in tutto il mondo. 

Il problema principale che emerge dall’indagine di Nature non riguarda il tipo di criteri di valutazione, ma il fatto che il 51 per cento degli intervistati ha dichiarato di aver cambiato il proprio modo di lavorare: è diventato più importante pubblicare, magari studi di scarso valore o incompleti, piuttosto proporre a una rivista uno studio di qualità. Per evitare questa deriva della ricerca verso standard sempre più bassi, David Pendlebury della Thomson Reuters, interpellato da Nature per commentare i risultati dell’indagine, propone di definire il ruolo di queste misure quantitative: “Si tratta di misure oggettive che dovrebbero garantire una valutazione senza pregiudizi, ma vanno intese come un aiuto per prendere determinate decisioni, non una scorciatoia o una misura diretta”.

Un’altra possibilità, proposta da Jevin West della University of Washington, è quella di creare una pagina all’interno delle riviste scientifiche dedicata all’elenco delle pubblicazioni rifiutate. Questo funzionerebbe come una “punizione”, e potrebbe portare i ricercatori a proporre studi di qualità. Infine sarebbe bene, secondo Jennifer Rohn dello University College di Londra, dare il giusto valore a tutti gli anni spesi in ricerche con esito negativo. La scienza va avanti spesso “per errore “ma a essere pubblicati sono solo i risultati positivi tranne in pochissimi casi rappresenatati da Plos One e dal Journal of Negative Results in BioMedicine. (f.p.)

Riferimenti: Nature doi:10.1038/465860a

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here