"Il bruco (2017)". Foto di Aldo Ettore Quagliozzi

"Il bruco (2017)". Foto di Aldo Ettore Quagliozzi
"Il bruco" (2017). Nikon Coolpix P900. Foto macro. Stato larvale della falena diurna "Macroglossum stellatarum" volgarmente detta "sfinge colibrì".

venerdì 6 febbraio 2026

Cosedettecosì. 05 “Nel mondo che verrà”.


Lo sport rischia di essere l'ultima delle attività umane dove sarà possibile distinguere il vero dal falso. Semplicemente perché, nello sport, il falso non esiste e non potrà mai esistere senza che venga meno la sua essenza. Senza gli atleti, senza la loro presenza fisica davanti ai nostri occhi, non ha senso usare la parola sport. A differenza di quanto accade o sta per accadere nell'arte. Scrivere un libro, un film, disegnare, dipingere, comporre musica sta diventando un compito alla portata delle macchine. E ogni giorno, ogni volta che una nuova informazione viene inserita nel motore dell'intelligenza artificiale, il confine tra quello che sappiamo fare e quello che possono fare le macchine si assottiglia. Un articolo uscito qualche giorno fa sul New Yorker racconta come un informatico, Tuhin Chakrabarty, abbia deciso di mischiare brani di testi scritti da autori famosi ad altri prodotti da modelli linguistici artificiali e di sottoporli ad alcuni studenti della Columbia per capire se sarebbero stati in grado di riconoscerli. La loro reazione è stata unanime: i brani degli umani apparivano più caldi, più articolati, più interessanti. Nessuna confusione e soprattutto nessun dubbio sulla qualità. Ma Tuhin Chakrabarty non si è arreso e ha riprodotto l'esperimento dopo aver nutrito il suo modello linguistico con tutti i libri di Han Kang, premio Nobel per la letteratura. Ha chiesto poi all'Ai di descrivere la reazione della madre alla morte del figlio, scena che si trova ne “Il libro bianco” ma che lui aveva espunto. "Per l'amor di Dio, non morire, mormorò la madre con voce sottile e ripetutamente come un mantra", scrive Han Kang. Prima della messa a punto, le proposte dell'Ai erano state eccessivamente elaborate. Quindi, acquisite le nuove competenze, l'Ai aveva scritto: "Si strinse al seno il bambino e mormorò: Vivi, per favore vivi. Continua a vivere e diventa mio figlio". Non ancora all'altezza di un Nobel ma, considerato che l'addestramento è durato meno di una serata, non male per niente. C'è dell'altro: tra pochissimo verrà meno non solo la possibilità di distinguere il creatore di un prodotto dell'immagina-zione, ma l'idea stessa che ci sia bisogno di un'immaginazione. Se il nostro cervello sa organizzare una trama che prevede amori, dolori, ossessioni, ma anche zombie, vampiri, dinosauri, cosa potrà mai fare una macchina che si è nutrita di tutti i dinosauri, vampiri, zombie, ossessioni possibili? Il numero di variabili che avrà a disposizione è infinito, e dove esistono possibilità infinite smette di esistere l'immaginazione. Abbiamo iniziato a immaginare per esorcizzare la paura, per figurarci cosa c'è dopo la morte, per sentirci artefici di un destino che invece ci tiene sempre in scacco. Quando a gestire la creazione artistica sarà una macchina che non ha nessun destino e non ha idea di cosa sia la morte, che non solo non ha bisogno di un'altra dimensione ma è essa stessa l'altra dimensione, non serverà più a niente creare. Ci preoccupiamo di chi scriverà i nostri libri, ma lo scenario più plausibile è quello in cui dei libri non sapremo più che farci. Non sapremo più che farci con i film, i quadri, la musica. Con qualunque cosa che arrivi a noi dopo essere accaduta da un'altra parte e in un altro tempo. Ma ci sono performance formidabili anche ottenute con corpi artificiali, strumenti che modificano qualsiasi suono, partner virtuali che sostituiscono egregiamente quelli reali persino nel fare l'amore. È lo sport l'unica attività live che non può essere non solo prodotta, ma nemmeno supportata da una macchina. Ci sembra bizzarro assistere a partite amichevoli, Sinner e Alcazar che fingono di duellare ridendo, ma forse è proprio questa la direzione: importerà sempre meno la competizione e sempre più il gioco. Era questo che diceva de Coubertin, ed era per questo che i lottatori greci si ungevano i corpi prima di affrontarsi: per piacere. Del resto, qualcuno si ricorda se il discobolo di Mirane alla fine ha vinto o perso? (Tratto da “Alla fine ha vinto o perso?” di Elena Stancanelli).

“Credere o dubitare. I neuro inganni della tecnologia”, testo di Enrica Brocardo: Per prendere le decisioni più importanti ci mettiamo una frazione di secondo. Non è un paradosso, è una questione di sopravvivenza. Perdere tempo a riflettere, qualche decina di migliaia di anni fa, era un lusso che nessuno poteva permettersi. Vero o falso. Fiducia o difesa. La scelta si basa su segnali che il cervello decifra senza che ce ne rendiamo conto: un sistema, seppure imperfetto, necessario e affinato in un lungo processo evolutivo. Ma nel giro di pochi anni, il nostro ecosistema è cambiato in maniera radicale. Le nuove tecnologie, soprattutto l'intelligenza artificiale generativa, hanno introdotto elementi che rendono l'euristica - questo sistema di scorciatoie mentali basate non su un rigore logico, ma sull'intuizione - improvvisamente obsoleta. Quello che vediamo e sentiamo non è più necessariamente reale: l'altro con cui abbiamo uno scambio può essere una macchina programmata per sembrare un essere umano e la tecnologia ci consente di mentire meglio e su larga scala, diffondendo falsità incredibilmente verosimili. Certo, la prossima volta che dovessimo vedere Tom Hanks fare la pubblicità di un'assicurazione per cure dentali o le immagini di Taylor Swift nuda, la prima reazione sarà non crederci o almeno dubitare. Ma la diffidenza come metodo di vita non è praticabile. Perché, come ha risposto la stessa ChatGpt alla domanda se gli esseri umani siano più sospettosi o creduloni: «Credere è meno costoso che dubitare». Jeff Hancock, fondatore e direttore dello Stanford Social Media Lab, con il suo gruppo di ricerca studia i processi psicologici nell'ambito dei social media e in che modo le persone ingannano e vengono depistate attraverso la tecnologia. «L'Ai-Mc, che sta per Artificial Intelligence-Mediated Communication è un fenomeno nuovo. Finora internet serviva a muovere i messaggi da una persona all'altra, adesso l'intelligenza artificiale genera o supporta la creazione dei contenuti stessi. Ogni giorno vengono scambiati miliardi di risposte suggerite dall'Ai e sempre più spesso usiamo ChatGpt per scrivere un testo da mandare a qualcuno».

Secondo Hancock l'interferenza dell'Ai manda in tilt quei segnali che guidano il nostro cervello e rende più difficile distinguere il vero dal falso. E, nell'incertezza, si abbassa il livello di fiducia negli scambi tra esseri umani. Qualche anno fa aveva realizzato un test in cui i partecipanti dovevano capire se un profilo su un sito di dating fosse stato scritto da una persona o da una macchina: «Ci ha azzeccato circa nel 50 per cento dei casi: risposte casuali o probabilistiche. Gli algoritmi sono stati ottimizzati per eliminare quei tratti che potevano far sospettare che a scrivere fosse l'intelligenza artificiale. Oggi l'Ai suona più umana degli umani. Il test di Turing, almeno per testi online, è superato». Luisa Verdoliva è una docente dell'Università Federico Il di Napoli che si occupa in particolare di deepfake. «Fino a qualche anno fa si potevano notare imperfezioni, soprattutto nei volti, adesso il livello di realismo è aumentato e non si tratta più solo di immagini, ma anche di audio e video. Lavoro come consulente di una startup che si occupa di   creare un sistema per verificare in tempo reale se le persone con cui stiamo parlando in una call su Zoom sono vere o dei fake: avatar che possono essere guidati - qualcuno parla, ma l'immagine e la voce replicano perfettamente qualcun altro - o interagire in maniera autonoma se collegati a uno strumento come ChatGpt. Sono fatti talmente bene che non te ne accorgi. In modo simile, con un programma di face swapping sul cellulare, si può fare anche con una videochiamata». La disinformazione online ha anche altri effetti. Sander van der Linden, psicologo e docente a Cambridge, studia quelli a lungo termine. «Genera stress, confusione e modifica idee e comportamenti. Per via di come funziona il cervello, non basta venire a conoscenza che un certo dato è falso e che quello vero è un altro, per effettuare una sostituzione. Entrambe le informazioni rimangono e vengono richiamate alla memoria insieme. A quel punto, dobbiamo attivamente spegnere quella errata ed è un'operazione faticosa». Secondo alcuni scienziati, l'Intelligenza artificiale oltre ad aiutarci a creare falsi, potrebbe persino, in determinate situazioni, mentire di proposito. Secondo Apollo Research si sarebbero verificati casi di sandbagging - l'Ai de-liberatamente avrebbe performato peggio di quando avrebbe potuto - o al contrario, se messa sotto esame, avrebbe fatto solo finta di svolgere il compito richiesto per ottenere il punteggio massimo. La questione, però, è molto controversa. Antonio Lieto, direttore del Cognition, Interaction and Intelligent Technologies Lab dell'Università di Salerno, esclude che l'intelligenza artificiale possa mentire apposta. «Però dà spesso risposte false. E dipende dal suo funzionamento: sulla base di tutto ciò che c'è sul web genera le risposte più probabili rispetto all'input che gli è stato dato». Questi fake dei sistemi di Ai vengono definiti «allucinazioni». «In compenso, la percezione dell'utente medio è che questi sistemi siano infallibili. Il fatto è che il linguaggio era un'abilità esclusivamente umana. Se un testo è scritto bene tendiamo a pensare che anche il contenuto sia corretto».

N.d.r. I testi sopra riportati sono stati pubblicati sul settimanale “d” del quotidiano “la Repubblica” rispettivamente il 24 ed il 31 di gennaio 2026.  

Nessun commento:

Posta un commento