Abstract
Cosa distingue una scoperta scientifica da un’opinione? La risposta è nella peer review, il meccanismo di revisione tra pari che decide cosa merita di diventare conoscenza condivisa. Questo articolo esplora il ruolo centrale della peer review nella scienza moderna, ne analizza le crisi recenti – tra frodi, interessi e pressioni accademiche – e affronta le nuove minacce legate all’intelligenza artificiale e alla manipolazione dei dati. Ma c’è anche una risposta in atto: riforme, trasparenza e tecnologie emergenti stanno cercando di rafforzare un sistema sotto pressione. Difendere la peer review oggi significa difendere l’integrità delle cure, del cibo e delle regole che guidano la nostra società.
Peer review: cos’è, come funziona e perché ci riguarda tutti
La peer review, o “revisione tra pari”, è il processo con cui uno studio scientifico viene controllato da altri esperti dello stesso settore prima di essere pubblicato su una rivista. È un vero e proprio sistema di verifica: serve ad accertare che i dati siano stati raccolti correttamente, che i metodi siano solidi e che le conclusioni siano proporzionate alle prove.
Come funziona in pratica? Un ricercatore invia il proprio studio a una rivista scientifica. L’editore lo sottopone a uno o più referee, esperti indipendenti del settore. I revisori analizzano dati e metodi, segnalano eventuali errori o mancanze e possono chiedere correzioni. Solo se il lavoro supera questo esame viene pubblicato. Più la rivista è autorevole, più il processo è severo: ecco perché comparire su Nature o sul New England Journal of Medicine ha un valore diverso rispetto a riviste meno selettive.
Proprio per questo la peer review è considerata il principale filtro di qualità della scienza. È ciò che permette a una scoperta di trasformarsi in conoscenza condivisa e affidabile.
Gli esempi non mancano. In medicina, nessun farmaco può essere autorizzato senza studi clinici pubblicati e sottoposti a revisione. Le linee guida che orientano la pratica dei medici derivano da trial controllati e meta-analisi vagliati da esperti indipendenti. Anche la sicurezza alimentare funziona così: dalle valutazioni tossicologiche delle sostanze ai protocolli per i materiali a contatto con il cibo, ogni decisione nasce da ricerche che hanno superato il giudizio critico della comunità scientifica.
Lo stesso accade per l’ambiente: modelli climatici, previsioni sulle emissioni, valutazioni sul rischio ambientale sono presi sul serio solo se sottoposti a una revisione rigorosa. Non si tratta di formalismi, ma del modo con cui la società stabilisce quali dati meritano di guidare le politiche pubbliche.
Oggi questo meccanismo si sta estendendo anche alle tecnologie emergenti: dall’intelligenza artificiale alle biotecnologie, fino ai nuovi materiali. Un algoritmo che influisce su una diagnosi, una tecnica di editing genetico o un composto destinato all’industria non possono basarsi solo sull’autorevolezza dei loro creatori: hanno bisogno di un controllo esterno che certifichi metodi e limiti.
In tutti questi campi la peer review è ciò che separa la scienza, quella vera, dalle affermazioni non verificate. È una delle fondamenta invisibili della nostra vita quotidiana: dalle cure che riceviamo al cibo che portiamo in tavola, fino alle regole che orientano la società.
Crisi della peer review: tra interessi, frodi e metriche distorte
In ambito scientifico vige una regola spietata: se non pubblichi, non esisti. La carriera di un ricercatore dipende dal numero di articoli accettati e, soprattutto, dal prestigio delle riviste in cui riesce a pubblicare. Qui entra in gioco l’impact factor, l’indice che misura quanto una rivista viene citata e che, per decenni, ha determinato la reputazione di interi atenei e singoli scienziati. Da questa combinazione di pressioni nasce il motto “publish or perish”: pubblica o scompari.
Ma più aumenta la competizione, più la peer review mostra le sue fragilità. Nel 2025 Nature ha documentato che quasi un terzo degli articoli ritirati da PLoS ONE era stato gestito da un ristretto gruppo di revisori ed editor (Exclusive: retraction-prone editors identified at megajournal PLoS ONE – Nature). Un campanello d’allarme: non basta la quantità di valutazioni, conta la loro qualità e la rotazione di chi giudica i lavori.
Sempre nel 2025 Science ha portato alla luce le paper mills, vere e proprie fabbriche di articoli falsi. Producono studi in serie e, in alcuni casi, hanno persino corrotto direttori di riviste per garantirsi la pubblicazione (Paper Trail – Science). L’osservatorio indipendente Retraction Watch ha descritto la situazione con un’immagine eloquente: tentare di “svuotare una vasca che trabocca con un cucchiaio“.
La risposta più ferma è arrivata dalle metriche stesse. Clarivate, l’ente che calcola l’impact factor, ha annunciato che dal 2025 non conterà più le citazioni provenienti da articoli ritirati (Journal Citation Reports 2025 – Clarivate). È un segnale netto: se crolla l’integrità della scienza, crolla anche la credibilità delle regole che ne misurano il valore.
Queste crepe non restano confinate al mondo delle riviste. Gli articoli falsificati finiscono nelle banche dati da cui dipendono scelte cliniche, linee guida terapeutiche, protocolli di sicurezza alimentare e decisioni ambientali. Quando la catena della peer review si spezza, non è solo un processo editoriale a incrinarsi: vacilla la fiducia stessa nelle cure, nel cibo e nelle regole che sostengono la società.
Peer review e intelligenza artificiale: tra inganni digitali e vecchi problemi
Nell’epoca dei deepfake e dei contenuti generati dall’intelligenza artificiale, l’oggettività della scienza è più vulnerabile che mai. Un’indagine dell’Università di Stanford ha mostrato che quasi un quinto degli articoli esaminati conteneva immagini problematiche e che, nel 4% dei casi, le manipolazioni erano intenzionali (Falsification of Images – Stanford University). È un dato di fatto: esistono già ricerche pubblicate basate su figure alterate. Con gli algoritmi generativi il problema si aggrava, perché oggi è possibile produrre fotografie di laboratorio indistinguibili da quelle reali, capaci di ingannare persino strumenti digitali sofisticati. Se simili falsificazioni passano la revisione, linee guida cliniche o decisioni regolatorie rischiano di fondarsi su prove mai esistite.
Accanto a queste manipolazioni concrete, si affacciano minacce potenziali. Una di esse è la prompt injection: istruzioni nascoste dentro un testo, invisibili all’occhio umano ma leggibili da un algoritmo, capaci di condizionare i sistemi di intelligenza artificiale. Nei test di sicurezza condotti su vari modelli, queste tecniche hanno già dimostrato di poter alterare i risultati. Se un giorno editori scientifici adotteranno l’AI nelle prime fasi di revisione, il rischio è che articoli scadenti ottengano un lasciapassare immeritato.
Queste nuove sfide si sommano a limiti che la comunità scientifica conosce da tempo. La revisione è spesso lenta, trovare esperti disponibili è difficile e molti revisori, stanchi di incarichi ripetuti, producono giudizi superficiali. A questo si aggiungono i bias: studi hanno mostrato che fino al 40% dei commenti dei revisori non si basa su dati oggettivi. Non è raro che gli autori provenienti da Paesi meno noti alla comunità scientifica, o che scrivono in lingue diverse dall’inglese, ricevano valutazioni più severe. Anche il genere dell’autore o il prestigio dell’istituzione di appartenenza possono influenzare la sorte di un articolo. In certi casi, quindi, la pubblicazione dipende non solo dalla qualità della ricerca, ma anche da fattori estranei al merito.
Il quadro è quello di una revisione sotto pressione: vecchie criticità e nuove minacce si intrecciano, moltiplicando le possibilità di errore e frode. Eppure, nonostante tutto, la peer review resta un faro. È imperfetta e vulnerabile, ma senza di essa la scienza perderebbe l’unico filtro che la distingue dall’opinione.
Possiamo ancora fidarci della scienza?
La risposta è sì: possiamo e dobbiamo fidarci. La peer review è il meccanismo che tiene insieme confronto, oggettività e controllo reciproco. È ciò che ci mette al sicuro, perché filtra i dati prima che diventino decisioni che incidono sulla nostra vita. E, di fronte alle crepe emerse negli ultimi anni, la comunità scientifica non è rimasta immobile: sta già reagendo.
Alcune riviste hanno scelto la via della trasparenza radicale. Nature pubblica i rapporti dei revisori insieme agli articoli accettati, trasformando la revisione da procedura chiusa a dialogo pubblico. eLife ha adottato modelli di peer review aperta, dove commenti e repliche sono visibili a tutti.
Anche le istituzioni si stanno muovendo. Negli Stati Uniti, il National Institutes of Health (NIH) ha avviato un processo di centralizzazione delle revisioni per ridurre costi e conflitti, mentre l’Office of Research Integrity promuove programmi di formazione obbligatoria: onestà e integrità non come virtù individuali, ma come responsabilità professionali.
Lo abbiamo visto anche con le metriche: Clarivate, nel 2025, ha escluso le citazioni provenienti da articoli ritirati dal calcolo dell’impact factor. Non è solo un gesto tecnico, ma un segnale forte: persino gli strumenti che hanno plasmato le carriere accademiche devono piegarsi a un principio più alto, quello della trasparenza.
E la tecnologia, che alimenta nuove minacce, può diventare parte della soluzione. Sistemi di intelligenza artificiale vengono già addestrati per individuare manipolazioni nelle immagini, incoerenze nei dati e schemi sospetti nelle statistiche. Non sostituiranno i revisori, ma possono rafforzarne il lavoro.
Tutto questo dimostra che la peer review non è un meccanismo irrimediabilmente in crisi. È sotto pressione, certo, ma capace di rigenerarsi se accompagnata da riforme, regole e cultura dell’integrità.
Ed è qui che il cerchio si chiude. L’integrità scientifica è indispensabile: senza, la scienza perde credibilità, e con essa vacilla la fiducia nella società che su di essa si regge. È per questo che, da lettori e cittadini, abbiamo una responsabilità: non credere a tutto ciò che leggiamo, ma verificare sempre se un articolo è stato sottoposto a revisione tra pari, se la fonte è attendibile, se i dati sono solidi.
Difendere la peer review significa difendere la bussola collettiva che orienta cure, cibo e regole di convivenza. È l’argine invisibile che ci garantisce che le decisioni che plasmano la nostra vita poggino su basi solide e verificabili.
Bibliografia
Naddaf, M. (2025). Exclusive: retraction-prone editors identified at megajournal PLoS ONE. Nature.
Joelving, F. (2025). Paper mills bribing editors: scholarly journals under investigation. Science.
Retraction Watch. (2025). Fighting coordinated publication fraud is like emptying an overflowing bathtub with a spoon, study co-author says.
Stanford University | Best Practices in Science. Instances of scientific misconduct: falsification, images.
Nature. (2025). Transparent peer review to be extended to all of Nature’s research papers.
National Institutes of Health (NIH). (2025). NIH centralizes peer review to improve efficiency and strengthen integrity.
Gibney,E. (2025). Scientists hide messages in papers to game AI peer review. Nature.
Clarivate (2025). Journal Citation Reports 2025: Addressing retractions and strenghtening research integrity.
© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 29 Settembre 2025
Ultimo aggiornamento: 30 Settembre 2025
È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.