Wikipedia ha deciso di tracciare una linea netta: gli articoli scritti interamente da intelligenza artificiale non sono più benvenuti sulla piattaforma. La decisione, resa ufficiale attraverso l'aggiornamento delle linee guida editoriali del 25 marzo, rappresenta una presa di posizione forte da parte della comunità globale di editor che alimenta quotidianamente l'enciclopedia libera più consultata al mondo.

La motivazione dietro al divieto è chiara: i testi generati da modelli linguistici di grandi dimensioni, come ChatGPT e simili sistemi, frequentemente contravvengono ai principi fondamentali che regolano Wikipedia. Questi algoritmi possono produrre contenuti inaccurati, privi di fonti verificabili o non aderenti agli standard qualitativi che distinguono l'enciclopedia da altre piattaforme. Tuttavia, sono state introdotte due eccezioni specifiche: gli editor possono utilizzare l'IA per apportare correzioni minori a testi già completati, a patto che un essere umano ne riveda il risultato prima della pubblicazione; inoltre, è consentito ricorrere agli algoritmi per tradurre articoli da altre lingue, seguendo procedure precise.

Il vero problema emerge però quando si considera come implementare effettivamente questo divieto. Wikimedia Foundation, l'organizzazione che sovrintende al progetto, ha già ammesso la difficoltà della task: non esistono strumenti affidabili in grado di certificare automaticamente se un articolo è stato scritto da una macchina o da una persona. Gli stili di scrittura possono essere molto simili, e in assenza di tecnologie di rilevamento, la verifica si baserà principalmente sul rispetto delle policy generiche di Wikipedia. Questo significa che il controllo potrebbe dimostrarsi insufficiente, lasciando spiragli a eventuali violazioni.

L'Italia ha anticipato questa tendenza globale: già dal 7 marzo scorso, Wikipedia in italiano aveva aggiornato le proprie direttive vietando l'uso dell'intelligenza artificiale per creare nuovi contenuti originali da zero. Le raccomandazioni locali vanno oltre, esortando gli utenti meno consapevoli dei rischi e dei limiti di questi strumenti a evitarne completamente l'utilizzo. Una posizione ancora più cautelativa rispetto al versione internazionale.

La decisione riflette una tensione crescente tra l'innovazione tecnologica e la necessità di preservare l'integrità delle fonti di informazione collettiva. Mentre i sistemi di intelligenza artificiale diventano sempre più sofisticati, Wikipedia sceglie di proteggere il proprio modello collaborativo umano, almeno per ora, cercando di garantire che ogni voce sia frutto di ricerca accurata e responsabilità editoriale.