“L’imperfezione della verità. Wikipedia, 25 anni dopo”, testo di
Olga Noel Winderling pubblicato sul settimanale “donna” del quotidiano “la
Repubblica” del 31 di gennaio 2026: Lo scorso ottobre, durante la
WikiConference North America a Manhattan, un uomo è salito sul palco e si è
puntato una pistola alla tempia. Indossava un cartello con la scritta
"pedofilo non offensivo e anti-contatto" e ha spiegato che si sarebbe
ucciso per protestare contro la politica di Wikipedia che blocca e banna gli
editor che si dichiarano attratti dai bambini. Due membri del team lo hanno
disarmato, sventando il più insolito attacco all'enciclopedia web che in 25
anni ne ha collezionati parecchi. Fino a diventare il bersaglio di Elon Musk,
dei repubblicani del Congresso e degli influencer di destra: secondo loro,
Wikipedia manipola la realtà. Una tesi condivisa da Larry Sanger, uno dei due
fondatori, che dopo aver sbattuto la porta nel 2002 si è unito a chi la
considera anche una fucina di fake news. L'altro fondatore, Jimmy Wales, al
contrario, ha da poco pubblicato The Seven Rules of Trust: A Blueprint for
Building Things That Last (Random House), cercando di applicare gli
insegnamenti di Wikipedia a un mondo sempre più fazioso e privo di fiducia.
«L'enciclopedia non è ancora all'altezza dei miei obiettivi», ha ammesso al New
York Times. «Ma paradossalmente la nostra imperfezione è il motivo per cui le
persone credono in noi: cerchiamo di essere davvero trasparenti. A volte vedi
l'avviso "La neutralità di questa pagina è stata contestata" o
"La sezione seguente non cita alcuna fonte". E alla gente piace». Se
errare è umano, a fare la differenza è come si gestisce lo sbaglio. Per dire:
il 26 maggio 2005 un editor non registrato creò un falso articolo sul
giornalista John Seigenthaler, affermando che in passato era stato tra i
sospettati degli omicidi di John e Robert F. Kennedy. L'atto vandalico venne
riconosciuto e corretto solo mesi dopo, ma nonostante le polemiche Jimmy Wales
difese la politica che consente la modifica degli articoli anche da parte di
utenti anonimi - incoraggiando la cooperazione - pur introducendo requisiti più
severi, soprattutto per le biografie dei viventi. Unico sito no profit tra i 10
più seguiti al mondo, consultato circa 15 miliardi di volte al mese, Wikipedia
è aggiornata da quasi 250mila editor registrati al ritmo di 324 modifiche al
minuto. «I pochi dati demografici disponibili indicano che sono uomini,
prevalentemente bianchi e occidentali nell'87-90% dei casi. E questo
probabilmente spiega perché solo il 19% delle biografie in inglese riguarda
donne», dice Heather Ford, docente alla School of communications
dell'University of Technology di Sydney. Dopo aver fatto parte del comitato
della Wikimedia Foundation e diretto la prima Wikipedia Academy in Africa, ha
pubblicato Writing the Revolution: Wikipedia and the Survival of Facts in the
Digitai Age (Mit Press), dove racconta le insidie del pubblicare e dibattere
informazioni in tempo reale, ripercorrendo le tappe della Rivoluzione egiziana
del 2011. Con una premessa necessaria sul concetto di oggettività: «In genere
tendiamo a considerare autorevole il nostro sapere e quello della comunità di
appartenenza, soprattutto se si tratta di gruppi dominanti, a discapito di
altre visioni del mondo». Oggi Ford dirige il progetto Wikihistories, che
analizza come l'enciclopedia rappresenti persone, luoghi ed eventi storici
australiani, evidenziando omissioni o pregiudizi. Per esempio, ha registrato
«forti resistenze da parte di editor conservatori al cambio dei nomi ufficiali
in quelli indigeni», come nel caso dell'isola K'gari - patrimonio Unesco -
ribattezzata dai coloni inglesi Fraser Island e tornata nel 2023 all'antico
appellativo degli aborigeni butchulla. «Nonostante il cambio sia avvenuto con
processi democratici, alcuni si sono opposti sostenendo che non fossero
legittimi o che il nuovo nome non fosse largamente adottato dalla comunità».
Perché in Wikipedia non si discute solo dei fatti in quanto tali: «I conflitti
servono a stabilire anche chi è davvero autorizzato a definire una realtà o ad
avere l'ultima parola». Secondo Walter Quattrociocchi, docente di Informatica
all'Università La Sapienza di Roma, in tema di verità "oggettive"
questo resta il metodo migliore tra i possibili. «Numerose ricerche mostrano
quanto siano accese le discussioni tra editor e moderatori», spiega. «Il
funzionamento è questo: qualcuno propone una pagina, che entra in uno spazio di
moderazione. La comunità controlla, verifica, discute. Si confrontano le fonti,
si valuta la solidità delle referenze, si cerca un accordo. Esiste un lavoro
strutturato sia prima che dopo la pubblicazione, perché una voce non è mai
definitivamente chiusa». Una dinamica ben diversa da quella delle nuove fonti
d'informazione generate dall'Ai come Grokipedia, la contro-Wikipedia di Musk,
che secondo Quattrociocchi peggiorano un quadro già inquietante: «Questi
strumenti facilitano la produzione di contenuti in cui conta solo la
"plausibilità linguistica", in un contesto dove le persone cercano
conferme di ciò che pensano già. Il risultato è una sorta di apocalisse
cognitiva». Il termine-chiave è epistemia - «proposto dal direttore di Wired
come parola dell'anno 2025 e valutato da Treccani per il 2026» - ovvero: «La
narrativa oggi deve soprattutto suonare coerente e plausibile. Che sia vera o
no diventa irrilevante. Ma quando entriamo in questa modalità di definizione
della conoscenza, ci consegniamo all'anarchia. All'inizio funziona, crea
consenso; quando emerge che il racconto non è vero si erode la fiducia verso le
istituzioni, percepite come menzognere».


