“Manifesto contro la fine dell’umanità”, intervista di Riccardo Luna allo storico e filosofo Yuval Noah Harari pubblicata sul settimanale “Robinson” del quotidiano “la Repubblica” dell’8 di settembre 2024: (…). …c'era una frase che dava il senso a quella utopia: ragazzi con uno smartphone hanno accesso a più informazioni di quelle che aveva il presidente degli Stati Uniti quando ha mandato il primo uomo sulla Luna. Però il mondo non sembra migliorato, perché? «Perché abbiamo accesso anche a tutte le bugie, alla propaganda, alle delusioni, alla rabbia. Quella frase è corretta ma è ingenuo credere che, se tutti abbiamo accesso a più informazioni, questo sia un bene in sé, perché molte di esse sono spazzatura».
La stragrande maggioranza delle persone non usa il web per istruirsi, ma per guardare video su TikTok, spesso idioti. Perché? «Ci sono essenzialmente due problemi. Il primo è che la verità spesso è complessa e a noi piacciono le storie semplici. Il secondo è che la verità di solito è dolorosa, scomoda, e alle persone non piacciono le cose scomode. Le persone preferiscono seguire storie che li facciano stare bene anche se non sono vere. Quando venne inventata la stampa a caratteri mobili, il libro più letto del secolo non fu quello di Copernico, che pure ha cambiato il mondo gettando le basi per la scienza moderna; fu il Malleus Maleficarum di Heinrich Kramer, un manuale per la caccia alle streghe. Era facile da capire ed era appassionante con tutte queste storie di streghe, peni rubati agli uomini, celebrazioni sataniche. Le orge, inventate, sono molto più appassionanti delle equazioni copernicane. Lo stesso capita oggi con i video di TikTok, la nostra natura non è cambiata».
Quello che cambia è però la scala: con Internet la diffusione di informazioni fuorvianti è molto più veloce e pervasiva e i danni possono essere molto maggiori. La caccia alle streghe del resto causò migliaia di vittime innocenti. «Ovviamente sì, la situazione è potenzialmente più pericolosa perché libri e video, seppur fuorvianti, finora erano repliche delle idee di esseri umani, mentre adesso possono essere il frutto di elaborazioni autonome di intelligenze artificiali fuori dal nostro controllo. L'intelligenza artificiale non è solo uno strumento, ma un agente in grado di inventare e diffondere nuove teorie su complotti per governare il mondo, fake news, propaganda. L'intelligenza artificiale generativa è la prima tecnologia in grado di creare storie; ma l'IA era già nelle nostre vite e gli effetti perversi di alcuni suoi meccanismi li abbiamo già visti all'opera».
Tipo la strage dei rohingya in Myanmar il sobillata dagli algoritmi di Facebook. «I dirigenti di Facebook mica hanno scritto algoritmi per incitare la popolazione a prendersela con la minoranza musulmana, ma hanno soltanto chiesto di premiare contenuti che avessero il massimo di engagement, che provocassero maggiori reazioni degli utenti. Gli algoritmi hanno scoperto che i post che facevano riferimento ad una cospirazione dei rohìngya scatenavano gli utenti - la rabbia è il sentimento più facile per alzare l'engagement- e li hanno mostrati ad un maggior numero di persone. Obiettivo centrato».
Questa vicenda ricorda un racconto di fantascienza del 1902 in cui W. W. Jacobs racconta di una zampa di scimmia in grado di esaudire tre desideri: un tale chiede di avere 200 mila sterline e la mattina seguente bussano alla sua porta con una busta con 200 mila sterline quale indennizzo per la morte del figlio in fabbrica. Desiderio esaudito. «Esatto. Gli algoritmi di Facebook ovviamente non erano programmati per incoraggiare una strage, ma per aumentare il traffico sul sito. E hanno deciso da soli come arrivare a quell'obiettivo. Adesso la situazione è ancora più complessa perché l'intelligenza artificiale generativa non si limita a promuovere i contenuti scritti da esseri umani che incitano la nostra rabbia, li può direttamente creare».
E questo può portare alla fine del mondo? Ogni passo avanti della tecnologia è stato accompagnato dal timore di una apocalisse. Una volta Walter Benjamin, commentando un quadro di Paul Klee, l'Angelo della Storia, disse: “Questa tempesta è quello che chiamiamo progresso”. O no? «Se guardiamo alla storia dell'umanità troviamo ottime ragioni per preoccuparsi dell'arrivo di nuove tecnologie. Ogni salto in avanti tecnologico ha causato immensi problemi prima che le persone imparassero ad usare i nuovi strumenti in maniera corretta. Prendiamo l'invenzione della scrittura, mica fu inventata per scrivere poesie, ma per tenere un registro delle tasse e se tu eri un contadino in Mesopotamia o nell'antico Egitto, la scrittura voleva dire che il re aveva su di te un potere ancora maggiore. Se poi guardiamo alla rivoluzione industriale, con tutti gli scenari apocalittici che la accompagnarono, dobbiamo riconoscere che molti erano fondati: l'imperialismo europeo venne motivato e armato dalla nascente industria e se vivevi in Congo o in Somalia nel Diciannovesimo secolo, allora sì che la rivoluzione industriale per te fu una apocalisse. Ora arriva l'intelligenza artificiale: servirà un altro ciclo di errori, di dolori, di guerre, prima di imparare a gestirla?».
Ancora per qualche anno il futuro è nelle nostre mani, scrive (…) e fa un esempio: all'inizio degli anni Trenta, i tedeschi non sono tutti impazziti eppure votarono in maggioranza per Hitler; nello stesso periodo, durante la medesima crisi economica, in America ci fu il New Deal di Roosevelt. Dipende da noi che strada prendere. «Dipende da noi. Prenda l'elezione del presidente degli Stati Uniti: Kamala Harris o Donald Trump, non so come finirà ma so che qualche migliaio di elettori in Pennsylvania possono decidere fra due visioni del futuro molto diverse».
Lei scrive: «Sono le storie a fare la Storia», le storie a cui decidiamo di credere, È questo il motivo per cui la sfida del cambiamento climatico non riesce a decollare? Perché è troppo legata ad un numero, il famoso grado e mezzo di aumento delle temperature, e non è diventata una storia, una visione? «Non solo per questo, ma perché dal punto di vista delle emozioni la nostra mente funziona come nell'Età della pietra e quindi l'immigrazione ci appare una minaccia più grande di quello che è realmente perché per milioni di anni i nostri antenati si sono dovuti difendere da stranieri invasori, mentre ' non si sono mai dovuti preoccupare del fatto che accendere un fuoco avrebbe aumentato le emissioni di anidride carbonica e contribuito ad alterare il clima».
La sua affermazione per cui i fatti e i numeri non servono a nulla è sconcertante: vuol dire che il factchecking non batterà mai le fake news? «Noi abbiamo assolutamente bisogno di controllare la veridicità dei fatti come società. E come quello che accade nella cucina di un ristorante: al cliente non interessa, vuole soltanto mangiare bene. In cucina devi essere perfetto, ma mica vuoi portare ogni cliente a vedere come si prepara il suo piatto! E quindi i giornalisti e gli scienziati devono fare un sacco di fact-checking ma renderlo pubblico non funziona. Elencare ogni volta le cinquanta falsità che Trump ha affermato in un comizio non è interessante. Serve altro se vuoi batterlo: una storia migliore e (possibilmente) vera. Anche perché le bugie non muoiono mai, tornano: la caccia alle streghe non è finita nel Sedicesimo secolo, ma rivive nelle teorie cospirazioniste di QAnon sui seguaci di Satana che rapiscono i bambini per fare delle orge, che negli Stati Uniti hanno molto seguito. La domanda da farsi, per cambiare il mondo, è: abbiamo una storia migliore da raccontare?».
L'intelligenza artificiale una storia da raccontare ce l'ha ed è apocalittica: lo si è visto in molti film hollywoodiani come la saga di Terminator. «Si tratta di storie che spostano l'attenzione sullo scenario sbagliato: i robot che si ribellano agli esseri 1 umani. Non è di questo che dovremmo preoccuparci. Dovremmo temere di più la burocrazia dell'IA per cui, chiedi un prestito, o fai domanda per un lavoro o per un posto all'università e ti vengono negati per ragioni che non capisci, che nessuno capisce, solo un computer. Una storia alla Kafka insomma».
Capisco che a livello personale una cosa del genere possa essere una tragedia ma in che modo può diventare "la fine dell'umanità"? «Il problema con l'IA è che alcuni scenari sono facili da immaginare, tipo: un dittatore che affida a una IA il controllo di un arsenale nucleare; o un gruppo terroristico che si fa aiutare nel creare un virus che causerà una pandemia. Facile. Più complicato è immaginare una IA che causa un disastro finanziario come quello del 2007-2008, quando nessuno ha davvero capito quali fossero questi strumenti finanziari che sono andati in crisi. Lo scenario dell'apocalisse burocratica dell'IA è molto più pericoloso. Può alimentare un nuovo razzismo, discriminando certe categorie di persone per motivi che ci sono ignoti. Il problema è che non ci sarà un singolo computer cattivo che vuole controllare il mondo, ma milioni e milioni di agenti informatici ai quali stiamo dando sempre più potere decisionale nelle banche, nelle università, nelle aziende».
Il problema è quindi che le decisioni verranno prese da agenti non umani? A me pare che certe decisioni di esseri umani siano prive di umanità. Penso all'Ucraina o a Gaza. «Esempio perfetto. Gli obiettivi militari a Gaza vengono scelti da una intelligenza artificiale. È una delle prime guerre della storia in cui una casa viene bombardata perché una IA ha detto di farlo».
In realtà si dice che la decisione finale su ogni bombardamento poi venga presa da esseri umani. Il dito sul grilletto è nostro o no? «È una bella domanda. Ho parlato con moltissime persone che lavorano negli apparati di sicurezza israeliani e ho riscontrato che c'è un enorme dibattito sul tema. Non ci sono ancora conclusioni definitive, ma tutti concordano sul fatto che siamo arrivati al punto in cui una IA decide quale casa bombardare. A quel punto tocca gli umani e che fanno? Molti mi dicono che trascorsi al massimo venti secondi danno l'ok al bombardamento. Nessuno va a ricontrollare le informazioni analizzate dagli algoritmi, nessuno: l'IA dice che dobbiamo bombardare quella casa? Ok, bombardiamola. Altri mi dicono che no, che c'è un controllo obiettivo per obiettivo. Io non posso dire chi dica la verità, ma certamente questa è una delle prime guerre della storia in cui una IA può decidere chi uccidere. Per chi vive a Gaza, l'IA è una apocalisse».
(…). …lei immagina una grande alleanza fra emocrazie regimi autoritari per gestire lo sviluppo dell'IA: pensa ad una sorta di trattato come quelli sulle armi nucleari? «In questo momento è impossibile fermare la produzione e l'utilizzo di droni militari con la guerra in Ucraina in corso. Ma ci sono molti altri campi in cui gli interessi delle grandi potenze potrebbero convergere. Una IA fuori controllo è una minaccia sia per la Cina che per gli Usa e la Ue. E se si trova una buona soluzione per contenerla sarebbe bene scambiarsi le informazioni utili».
Il rischio, se ciò non dovesse avvenire, è che in un mondo interconnesso gli algoritmi di sistemi diversi t possano prendere il sopravvento. La perdita di controllo? «Stiamo già perdendo il controllo. Sempre più decisioni sulle nostre vite non sono prese da esseri umani, ma da algoritmi. E questo alimenta le teorie cospirazioniste per cui, per contrastare le élite globali che governerebbero il mondo, dobbiamo smantellare istituzioni come l'Unione Europea».
La Ue, che si è ritagliata il ruolo di patria delle regole, non rischia di allontanarsi dalle persone? «Si dice che le regole facciano male al business, ma non è vero. Prendete il settore farmaceutico dove le regole sono strettissime. Quando c'è stato il Covid abbiamo scelto il vaccino tedesco o quello russo? Il primo, perché le regole garantivano che era stata seguita una procedura corretta. La strada dell'Unione Europea è giusta ma servirebbe una serie su Netflix per raccontarla».
La democrazia ha ancora una storia da raccontare? «Penso che sia ancora la storia migliore che c'è, anche se è complessa; è il sistema migliore per identificare e correggere gli errori che si fanno. La crisi che le democrazie stanno vivendo dipende dalla tecnologia dell'informazione attuale che altera la conversazione fra le persone, favorendo i post che scatenano la rabbia, come abbiamo visto. La soluzione non è censurare i post che spacciano disinformazione per alimentare la rabbia: è smetterla di favorirne la diffusione per aumentare il traffico dei siti. Questo dovrebbero fare Facebook, Instagram e TikTok invece di affermare che non è un loro problema».
Ultima domanda: è felice? «È uno dei periodi più felici della mia vita. Credo ci sia una regola molto semplice ma fondamentale per essere felici: investire tempo e attenzione nelle cose e nelle persone davvero importanti; più lo fai, migliori saranno i risultati, altrimenti non sarai mai felice».
Nessun commento:
Posta un commento