Il meccanismo di validazione della ricerca scientifica mondiale è sotto attacco silenzioso da parte dell'intelligenza artificiale. La rivista Nature documenta come ICML, una delle più prestigiose conferenze internazionali dedicata agli algoritmi di apprendimento automatico, abbia identificato e scartato quasi 500 manoscritti – circa il 2 per cento dei lavori sottoposti – dopo aver scoperto che i ricercatori avevano impiegato sistemi di linguaggio naturale per condurre revisioni paritarie di studi altrui. In alcuni casi, i software hanno persino lasciato tracce digitali riconoscibili nei testi, come veri e propri watermark virtuali. Sebbene la percentuale possa sembrare contenuta a prima vista, il dato assume proporzioni allarmanti se si considera che significa aver intercettato mezzo migliaio di frodi prima che contaminassero il circuito scientifico globale.
Il paradosso è evidente: l'intelligenza artificiale sta penetrando esattamente il luogo dove la comunità scientifica dovrebbe esercitare il controllo più rigoroso. Mentre questi strumenti hanno dimostrato valore reale quando affidati a ricercatori competenti, la loro stessa esistenza rende sempre più difficile fidarsi dei risultati che analizzano, costringendo a una vigilanza ancora più serrata da parte di esperti umani – una considerazione che manda al macero l'idea romantica che lo studio non serva più a nulla.
Gli episodi di cattivo uso non rimangono più circoscritti a singole sviste individuali. Una pubblicazione nel catalogo Springer Nature fornisce un esempio emblematico: un articolo conteneva 12 riferimenti bibliografici su 14 totalmente inesistenti. Quando il problema è stato segnalato, l'autrice ha sottoposto due versioni corrette della bibliografia, ma entrambe contenevano ancora fonti fittizie. Solo la terza versione ha presentato citazioni verificabili. Questo racconta di un fenomeno che sta diventando strutturale piuttosto che occasionale.
La questione di fondo non riguarda semplicemente il fatto che gli algoritmi generino citazioni dal suono convincente ma inventate. Si tratta piuttosto di una crisi di affidabilità nel fondamento stesso della ricerca scientifica contemporanea: il sistema di peer review che garantisce la qualità e l'integrità delle scoperte. Con strumenti sempre più sofisticati e accessibili a tutti, diventa straordinariamente difficile distinguere tra lavoro autentico e contenuto artificialmente generato. Le conseguenze potrebbero propagarsi a cascata attraverso l'intera comunità accademica internazionale, dall'ingegneria alla medicina, dalla fisica alle scienze sociali.