Cito, dunque sono

Sono ritenuti affidabili perché accurati, obiettivi, semplici. E per questo sono oggi i principali strumenti utilizzati per valutare l’importanza di una pubblicazione scientifica: sono le statistiche basate sulle citazioni, come l’impact factor, l’indice messo a punto dall’americano Eugene Garfield, che viene calcolato ogni anno per quei giornali che riportano i lavori dei ricercatori, o l’h-index, che quantifica la produttività di un ricercatore e l’apparente influenza delle sue pubblicazioni nei lavori dei colleghi.

Ma forse, sostiene ora un rapporto dell’International Council for Industrial and Applied Mathematics, la International Mathematical Union e l’Institute of Mathematical Statistics, non sono questi gli strumenti migliori per stabilire la qualità di un lavoro scientifico. Perché le statistiche possono essere facilmente travisate, usate in modo improprio e persino distorte per validare questa o quest’altra ipotesi.

Dal punto di vista matematico, dicono gli estensori del rapporto Robert Adler, John Ewing e Peter Taylor, l’obiettività delle citazioni è del tutto illusoria, perché non è sempre chiaro il motivo per cui vengono fatte, e in ogni caso non necessariamente determinano l’impatto di una ricerca sul mondo accademico. Certo, è molto comodo poter quantificare la qualità di un lavoro scientifico con un unico numero, ma il lavoro di un ricercatore – continuano i tre – è molto più complesso, e non può essere costretto in una valutazione così riduttiva.

Naturalmente le statistiche basate sulle citazioni fanno parte del gioco e hanno una loro utilità purché, concludono gli estensori del rapporto, non siano gli unici strumenti impiegati per stabilire l’importanza di una pubblicazione scientifica.(e.m.)

Il testo completo del rapporto può essere trovato su:
http://www.iciam.org/QAR/CitationStatistics-FINAL.PDF

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here