“Credere o dubitare. I neuro inganni della tecnologia”, testo di Enrica Brocardo: Per prendere le decisioni più importanti ci mettiamo una frazione di secondo. Non è un paradosso, è una questione di sopravvivenza. Perdere tempo a riflettere, qualche decina di migliaia di anni fa, era un lusso che nessuno poteva permettersi. Vero o falso. Fiducia o difesa. La scelta si basa su segnali che il cervello decifra senza che ce ne rendiamo conto: un sistema, seppure imperfetto, necessario e affinato in un lungo processo evolutivo. Ma nel giro di pochi anni, il nostro ecosistema è cambiato in maniera radicale. Le nuove tecnologie, soprattutto l'intelligenza artificiale generativa, hanno introdotto elementi che rendono l'euristica - questo sistema di scorciatoie mentali basate non su un rigore logico, ma sull'intuizione - improvvisamente obsoleta. Quello che vediamo e sentiamo non è più necessariamente reale: l'altro con cui abbiamo uno scambio può essere una macchina programmata per sembrare un essere umano e la tecnologia ci consente di mentire meglio e su larga scala, diffondendo falsità incredibilmente verosimili. Certo, la prossima volta che dovessimo vedere Tom Hanks fare la pubblicità di un'assicurazione per cure dentali o le immagini di Taylor Swift nuda, la prima reazione sarà non crederci o almeno dubitare. Ma la diffidenza come metodo di vita non è praticabile. Perché, come ha risposto la stessa ChatGpt alla domanda se gli esseri umani siano più sospettosi o creduloni: «Credere è meno costoso che dubitare». Jeff Hancock, fondatore e direttore dello Stanford Social Media Lab, con il suo gruppo di ricerca studia i processi psicologici nell'ambito dei social media e in che modo le persone ingannano e vengono depistate attraverso la tecnologia. «L'Ai-Mc, che sta per Artificial Intelligence-Mediated Communication è un fenomeno nuovo. Finora internet serviva a muovere i messaggi da una persona all'altra, adesso l'intelligenza artificiale genera o supporta la creazione dei contenuti stessi. Ogni giorno vengono scambiati miliardi di risposte suggerite dall'Ai e sempre più spesso usiamo ChatGpt per scrivere un testo da mandare a qualcuno». Secondo Hancock l'interferenza dell'Ai manda in tilt quei segnali che guidano il nostro cervello e rende più difficile distinguere il vero dal falso. E, nell'incertezza, si abbassa il livello di fiducia negli scambi tra esseri umani. Qualche anno fa aveva realizzato un test in cui i partecipanti dovevano capire se un profilo su un sito di dating fosse stato scritto da una persona o da una macchina: «Ci ha azzeccato circa nel 50 per cento dei casi: risposte casuali o probabilistiche. Gli algoritmi sono stati ottimizzati per eliminare quei tratti che potevano far sospettare che a scrivere fosse l'intelligenza artificiale. Oggi l'Ai suona più umana degli umani. Il test di Turing, almeno per testi online, è superato». Luisa Verdoliva è una docente dell'Università Federico Il di Napoli che si occupa in particolare di deepfake. «Fino a qualche anno fa si potevano notare imperfezioni, soprattutto nei volti, adesso il livello di realismo è aumentato e non si tratta più solo di immagini, ma anche di audio e video. Lavoro come consulente di una startup che si occupa di creare un sistema per verificare in tempo reale se le persone con cui stiamo parlando in una call su Zoom sono vere o dei fake: avatar che possono essere guidati - qualcuno parla, ma l'immagine e la voce replicano perfettamente qualcun altro - o interagire in maniera autonoma se collegati a uno strumento come ChatGpt. Sono fatti talmente bene che non te ne accorgi. In modo simile, con un programma di face swapping sul cellulare, si può fare anche con una videochiamata». La disinformazione online ha anche altri effetti. Sander van der Linden, psicologo e docente a Cambridge, studia quelli a lungo termine. «Genera stress, confusione e modifica idee e comportamenti. Per via di come funziona il cervello, non basta venire a conoscenza che un certo dato è falso e che quello vero è un altro, per effettuare una sostituzione. Entrambe le informazioni rimangono e vengono richiamate alla memoria insieme. A quel punto, dobbiamo attivamente spegnere quella errata ed è un'operazione faticosa». Secondo alcuni scienziati, l'Intelligenza artificiale oltre ad aiutarci a creare falsi, potrebbe persino, in determinate situazioni, mentire di proposito. Secondo Apollo Research si sarebbero verificati casi di sandbagging - l'Ai de-liberatamente avrebbe performato peggio di quando avrebbe potuto - o al contrario, se messa sotto esame, avrebbe fatto solo finta di svolgere il compito richiesto per ottenere il punteggio massimo. La questione, però, è molto controversa. Antonio Lieto, direttore del Cognition, Interaction and Intelligent Technologies Lab dell'Università di Salerno, esclude che l'intelligenza artificiale possa mentire apposta. «Però dà spesso risposte false. E dipende dal suo funzionamento: sulla base di tutto ciò che c'è sul web genera le risposte più probabili rispetto all'input che gli è stato dato». Questi fake dei sistemi di Ai vengono definiti «allucinazioni». «In compenso, la percezione dell'utente medio è che questi sistemi siano infallibili. Il fatto è che il linguaggio era un'abilità esclusivamente umana. Se un testo è scritto bene tendiamo a pensare che anche il contenuto sia corretto».
N.d.r. I testi sopra riportati sono stati pubblicati sul settimanale “d” del quotidiano “la Repubblica” rispettivamente il 24 ed il 31 di gennaio 2026.

Nessun commento:
Posta un commento