fbpx La peer review funziona? Sì, ma con qualche riserva | Scienza in rete

La peer review funziona? Sì, ma con qualche riserva

Primary tabs

Read time: 4 mins

La peer review lascia un'impronta nella scienza. Le riviste scientifiche, con i loro sì e con i loro no determinano le sorti delle ricerche che vengono loro sottoposte ogni giorno, filtrano quello che dominerà il panorama scientifico e di cui parleranno i giornali nei mesi e forse negli anni successivi, e condannano all'oblio i frutti di altre ricerche. Perché non tutto può essere pubblicato, o meglio, non tutto può venire pubblicato nelle pagine delle maggiori riviste di scienza del mondo.
Funziona o non funziona questo metodo? La discussione nel mondo scientifico non manca di infiammare gli animi, ma secondo un nuovo studio, pubblicato recentemente su PNAS pare proprio di sì. Secondo gli autori, Kyle Siler, Kirby Lee e Lisa Bero, i cosiddetti gatekeeper, quelli cioè che mettono in atto i meccanismi di peer review, sarebbero in grado di valutare nella maggior parte dei casi l'effettiva qualità dei lavori che vengono loro sottoposti.
Fare bene però – sostengono gli autori – non significa certo essere perfetti. Vi sono infatti dei casi in cui articoli risultati esclusi si sono rivelati alla prova dei fatti delle scoperte scientifiche di prim'ordine o con un numero elevatissimo di citazioni, ma nonostante queste eccezioni, di norma pare che la macchina funzioni, per lo meno per la maggior parte degli studi considerati.

Per permettersi questa affermazione i ricercatori hanno interrogato un dataset composto da 1.008 studi, 946 dei quali rifiutati e 62 accettati dalle tre riviste mediche più in vista: Annals of Internal Medicine, British Medical Journal e The Lancet. Inoltre, 757 dei 946 articoli rifiutati erano stati poi pubblicati su altre riviste con un impact factor minore. In particolare gli scienziati hanno esaminato quante citazioni hanno raccolto gli articoli pubblicati in una di queste tre riviste in 10 anni, dal 2003-2004, anno di pubblicazione degli articoli analizzati, fino al 2014 e quante invece quelli rifiutati e pubblicati in altre riviste. Lo scopo dello studio era esaminare il grado di accuratezza attraverso cui gli editor e i peer reviewers prendevano le loro decisioni.
Il primo aspetto emerso è che i 14 articoli più citati del dataset erano in realtà stati rifiutati dalle tre riviste ad alto impact factor, e 12 di questi addirittura a livello di desk, erano cioè stati reputati già a un primo esame di una qualità tale da non permettere loro di passare alla peer review vera e propria. Secondo gli autori però questo fatto curioso si spiega in maniera semplice: il meccanismo dimostra delle falle quando si trova ad analizzare articoli considerati “non convenzionali”. Gli uncommon work, quelli che si rivelano spesso i maggiori portatori di innovazione e rivoluzione dei paradigmi scientifici sono – precisano gli autori – particolarmente vulnerabili ad essere rigettati dalle riviste, già in una primissima fase.

Questa spiegazione però sembra a tratti contrastare con un altro aspetto emerso nella ricerca e cioè che quello che importa ai gatekeepers è essenzialmente valorizzare la novità, purché questa sia scientificamente corroborata. E proprio la mancanza di novità è, sempre secondo quello che raccontano gli autori dello studio, la ragione per cui i 14 articoli pluricitati di cui si parlava poc'anzi, sono stati in realtà rifiutati dalle tre grandi riviste e dai loro peer reviewer. “Perché anche la percezione della novità può solo essere relativa” si legge, come hanno testimoniato il Premio Nobel per la medicina Rosalyn Yalow, a cui Science rifiutò una pubblicazione, il Premio Nobel per l'economia George Akerlof e addirittura, un riferimento che si ritrova proprio nel paper, la famosa mamma di Harry Potter, J.K.Rowling.

La macchina della peer review pare funzioni bene anche perché si sa correggere. Secondo i risultati ottenuti esaminando la relazione fra quando un articolo è stato pubblicato e il numero di citazioni ricevute, i ricercatori hanno notato che se un editor o un reviewer compie un errore di valutazione, nel sopravvalutare o nel sottovalutare un contributo, il sistema in realtà provvede autonomamente a “dare a Cesare quello che è di Cesare”. “Se uno dei tre grandi giornali rifiuta per sbaglio un articolo di valore, il lavoro in questione finisce infatti comunque per apparire in poco tempo su un'altra importante rivista.

In ogni caso gli errori sono inevitabili e non esiste – precisano gli autori – un revisore che può garantire senza ombra di dubbio una valutazione perfetta ed efficiente. Inoltre, distinguere pessimi articoli è molto più semplice rispetto a individuare quelli davvero eccellenti.

In sintesi, sebbene il sistema di revisione si sia rivelato negli ultimi anni un modo valido per determinare se un contributo è un buon articolo oppure no, si rivela in realtà meno efficiente quando si trova per le mani contributi che potrebbero rivelarsi davvero una svolta per la scienza. Insomma, “la complessità della scienza – si legge nelle conclusioni – è ancora oggi un limite per le abilità predittive anche del migliore fra i peer reviewer.”


Scienza in rete è un giornale senza pubblicità e aperto a tutti per garantire l’indipendenza dell’informazione e il diritto universale alla cittadinanza scientifica. Contribuisci a dar voce alla ricerca sostenendo Scienza in rete. In questo modo, potrai entrare a far parte della nostra comunità e condividere il nostro percorso. Clicca sul pulsante e scegli liberamente quanto donare! Anche una piccola somma è importante. Se vuoi fare una donazione ricorrente, ci consenti di programmare meglio il nostro lavoro e resti comunque libero di interromperla quando credi.


prossimo articolo