Lo sport rischia di essere l'ultima delle attività umane dove
sarà possibile distinguere il vero dal falso. Semplicemente perché, nello
sport, il falso non esiste e non potrà mai esistere senza che venga meno la sua
essenza. Senza gli atleti, senza la loro presenza fisica davanti ai nostri occhi,
non ha senso usare la parola sport. A differenza di quanto accade o sta per
accadere nell'arte. Scrivere un libro, un film, disegnare, dipingere, comporre
musica sta diventando un compito alla portata delle macchine. E ogni giorno,
ogni volta che una nuova informazione viene inserita nel motore
dell'intelligenza artificiale, il confine tra quello che sappiamo fare e quello
che possono fare le macchine si assottiglia. Un articolo uscito qualche giorno
fa sul New Yorker racconta come un informatico, Tuhin Chakrabarty, abbia deciso
di mischiare brani di testi scritti da autori famosi ad altri prodotti da modelli
linguistici artificiali e di sottoporli ad alcuni studenti della Columbia per
capire se sarebbero stati in grado di riconoscerli. La loro reazione è stata
unanime: i brani degli umani apparivano più caldi, più articolati, più
interessanti. Nessuna confusione e soprattutto nessun dubbio sulla qualità. Ma
Tuhin Chakrabarty non si è arreso e ha riprodotto l'esperimento dopo aver
nutrito il suo modello linguistico con tutti i libri di Han Kang, premio Nobel
per la letteratura. Ha chiesto poi all'Ai di descrivere la reazione della madre
alla morte del figlio, scena che si trova ne “Il libro bianco” ma che lui aveva
espunto. "Per l'amor di Dio, non morire, mormorò la madre con voce sottile
e ripetutamente come un mantra", scrive Han Kang. Prima della messa a punto,
le proposte dell'Ai erano state eccessivamente elaborate. Quindi, acquisite le
nuove competenze, l'Ai aveva scritto: "Si strinse al seno il bambino e
mormorò: Vivi, per favore vivi. Continua a vivere e diventa mio figlio".
Non ancora all'altezza di un Nobel ma, considerato che l'addestramento è durato
meno di una serata, non male per niente. C'è dell'altro: tra pochissimo verrà
meno non solo la possibilità di distinguere il creatore di un prodotto
dell'immagina-zione, ma l'idea stessa che ci sia bisogno di un'immaginazione.
Se il nostro cervello sa organizzare una trama che prevede amori, dolori,
ossessioni, ma anche zombie, vampiri, dinosauri, cosa potrà mai fare una macchina
che si è nutrita di tutti i dinosauri, vampiri, zombie, ossessioni possibili?
Il numero di variabili che avrà a disposizione è infinito, e dove esistono possibilità
infinite smette di esistere l'immaginazione. Abbiamo iniziato a immaginare per
esorcizzare la paura, per figurarci cosa c'è dopo la morte, per sentirci
artefici di un destino che invece ci tiene sempre in scacco. Quando a gestire
la creazione artistica sarà una macchina che non ha nessun destino e non ha
idea di cosa sia la morte, che non solo non ha bisogno di un'altra dimensione
ma è essa stessa l'altra dimensione, non serverà più a niente creare. Ci
preoccupiamo di chi scriverà i nostri libri, ma lo scenario più plausibile è
quello in cui dei libri non sapremo più che farci. Non sapremo più che farci
con i film, i quadri, la musica. Con qualunque cosa che arrivi a noi dopo
essere accaduta da un'altra parte e in un altro tempo. Ma ci sono performance
formidabili anche ottenute con corpi artificiali, strumenti che modificano qualsiasi
suono, partner virtuali che sostituiscono egregiamente quelli reali persino nel
fare l'amore. È lo sport l'unica attività live che non può essere non solo
prodotta, ma nemmeno supportata da una macchina. Ci sembra bizzarro assistere a
partite amichevoli, Sinner e Alcazar che fingono di duellare ridendo, ma forse
è proprio questa la direzione: importerà sempre meno la competizione e sempre
più il gioco. Era questo che diceva de Coubertin, ed era per questo che i
lottatori greci si ungevano i corpi prima di affrontarsi: per piacere. Del
resto, qualcuno si ricorda se il discobolo di Mirane alla fine ha vinto o
perso? (Tratto da “Alla fine ha vinto o perso?” di Elena
Stancanelli).
“Credere o dubitare. I neuro inganni della tecnologia”, testo di
Enrica Brocardo: Per prendere le decisioni più importanti ci mettiamo una
frazione di secondo. Non è un paradosso, è una questione di sopravvivenza.
Perdere tempo a riflettere, qualche decina di migliaia di anni fa, era un lusso
che nessuno poteva permettersi. Vero o falso. Fiducia o difesa. La scelta si
basa su segnali che il cervello decifra senza che ce ne rendiamo conto: un
sistema, seppure imperfetto, necessario e affinato in un lungo processo
evolutivo. Ma nel giro di pochi anni, il nostro ecosistema è cambiato in
maniera radicale. Le nuove tecnologie, soprattutto l'intelligenza artificiale
generativa, hanno introdotto elementi che rendono l'euristica - questo sistema
di scorciatoie mentali basate non su un rigore logico, ma sull'intuizione -
improvvisamente obsoleta. Quello che vediamo e sentiamo non è più necessariamente
reale: l'altro con cui abbiamo uno scambio può essere una macchina programmata
per sembrare un essere umano e la tecnologia ci consente di mentire meglio e su
larga scala, diffondendo falsità incredibilmente verosimili. Certo, la prossima
volta che dovessimo vedere Tom Hanks fare la pubblicità di un'assicurazione per
cure dentali o le immagini di Taylor Swift nuda, la prima reazione sarà non
crederci o almeno dubitare. Ma la diffidenza come metodo di vita non è
praticabile. Perché, come ha risposto la stessa ChatGpt alla domanda se gli
esseri umani siano più sospettosi o creduloni: «Credere è meno costoso che
dubitare». Jeff Hancock, fondatore e direttore dello Stanford Social Media Lab,
con il suo gruppo di ricerca studia i processi psicologici nell'ambito dei social
media e in che modo le persone ingannano e vengono depistate attraverso la
tecnologia. «L'Ai-Mc, che sta per Artificial Intelligence-Mediated
Communication è un fenomeno nuovo. Finora internet serviva a muovere i messaggi
da una persona all'altra, adesso l'intelligenza artificiale genera o supporta
la creazione dei contenuti stessi. Ogni giorno vengono scambiati miliardi di
risposte suggerite dall'Ai e sempre più spesso usiamo ChatGpt per scrivere un
testo da mandare a qualcuno».
Secondo Hancock l'interferenza dell'Ai manda in
tilt quei segnali che guidano il nostro cervello e rende più difficile
distinguere il vero dal falso. E, nell'incertezza, si abbassa il livello di
fiducia negli scambi tra esseri umani. Qualche anno fa aveva realizzato un test
in cui i partecipanti dovevano capire se un profilo su un sito di dating fosse
stato scritto da una persona o da una macchina: «Ci ha azzeccato circa nel 50
per cento dei casi: risposte casuali o probabilistiche. Gli algoritmi sono
stati ottimizzati per eliminare quei tratti che potevano far sospettare che a
scrivere fosse l'intelligenza artificiale. Oggi l'Ai suona più umana degli
umani. Il test di Turing, almeno per testi online, è superato». Luisa Verdoliva
è una docente dell'Università Federico Il di Napoli che si occupa in
particolare di deepfake. «Fino a qualche anno fa si potevano notare
imperfezioni, soprattutto nei volti, adesso il livello di realismo è aumentato
e non si tratta più solo di immagini, ma anche di audio e video. Lavoro come
consulente di una startup che si occupa di
creare un sistema per verificare
in tempo reale se le persone con cui stiamo parlando in una call su Zoom sono
vere o dei fake: avatar che possono essere guidati - qualcuno parla, ma
l'immagine e la voce replicano perfettamente qualcun altro - o interagire in
maniera autonoma se collegati a uno strumento come ChatGpt. Sono fatti talmente
bene che non te ne accorgi. In modo simile, con un programma di face swapping
sul cellulare, si può fare anche con una videochiamata». La disinformazione
online ha anche altri effetti. Sander van der Linden, psicologo e docente a
Cambridge, studia quelli a lungo termine. «Genera stress, confusione e modifica
idee e comportamenti. Per via di come funziona il cervello, non basta venire a
conoscenza che un certo dato è falso e che quello vero è un altro, per
effettuare una sostituzione. Entrambe le informazioni rimangono e vengono
richiamate alla memoria insieme. A quel punto, dobbiamo attivamente spegnere
quella errata ed è un'operazione faticosa». Secondo alcuni scienziati,
l'Intelligenza artificiale oltre ad aiutarci a creare falsi, potrebbe persino,
in determinate situazioni, mentire di proposito. Secondo Apollo Research si
sarebbero verificati casi di sandbagging - l'Ai de-liberatamente avrebbe
performato peggio di quando avrebbe potuto - o al contrario, se messa sotto
esame, avrebbe fatto solo finta di svolgere il compito richiesto per ottenere
il punteggio massimo. La questione, però, è molto controversa. Antonio Lieto,
direttore del Cognition, Interaction and Intelligent Technologies Lab
dell'Università di Salerno, esclude che l'intelligenza artificiale possa
mentire apposta. «Però dà spesso risposte false. E dipende dal suo
funzionamento: sulla base di tutto ciò che c'è sul web genera le risposte più
probabili rispetto all'input che gli è stato dato». Questi fake dei sistemi di
Ai vengono definiti «allucinazioni». «In compenso, la percezione dell'utente
medio è che questi sistemi siano infallibili. Il fatto è che il linguaggio era
un'abilità esclusivamente umana. Se un testo è scritto bene tendiamo a pensare
che anche il contenuto sia corretto».
N.d.r. I testi sopra riportati sono stati pubblicati sul settimanale “d”
del quotidiano “la Repubblica” rispettivamente il 24 ed il 31 di gennaio 2026.
Nessun commento:
Posta un commento