Circola un video di Bill Gates che dice cose che non ha mai detto: come riporta Facta, molto probabilmente il filmato è stato alterato usando un software di intelligenza artificiale. Parliamo di un deepfake, della creazione di immagini, video e audio praticamente irriconoscibili e relativamente facili da realizzare.
Ai deepfake possiamo aggiungere i modelli linguistici – che qui chiamo “intelligenze artificiali che scrivono cose” – con i quali possiamo in pochi secondi produrre dettagliati articoli di disinformazione sul fatto che la Terra è piatta, non siamo mai andati sulla Luna, l’11 settembre è stata una demolizione controllata, i vaccini hanno rischiato di portare all’estinzione l’umanità eccetera.
Quanta disinformazione!
Le intelligenze artificiali stanno aggravando il problema della disinformazione? Apparentemente sì, anche se forse il problema non è tanto la quantità e qualità delle false informazioni.
Già adesso per verificare una notizia occorre risalire alla fonte e ricostruire il contesto. E non è detto che la qualità delle manipolazioni porti più persone a ritenerle buone. Infatti più della qualità di un contenuto, contano la fiducia verso la fonte e quanto quel contenuto conferma le nostre opinioni. Saremo portati allo scetticismo di fronte a un video perfetto ma presentato da un media che consideriamo inaffidabile e che va contro quello che crediamo. Tenderemo invece a prendere per buono un video imperfetto presentato da fonte che riteniamo credibile e che conferma le nostre idee. Certo non è un atteggiamento ideale, ma ha l’indubbio vantaggio di risparmiarci la fatica di valutare attentamente ogni singola informazione che ci passa davanti, il che sarebbe impossibile.
I modelli linguistici sembrano aggravare la cosiddetta Legge di Brandolini, quella per cui l’energia per smontare una bufale è di un ordine di grandezza superiore a quella necessaria per inventarla. (C’è anche la variante della “montagna di merda, facile da scaricare ma difficile da spalare via”).
Però le intelligenze artificiali possono essere utilizzate anche per riconoscere e smontare le bufale, semplificando quindi anche l’altra parte del lavoro.
Forse sono eccessivamente ottimista, ma credo che alla fine non cambierà molto, per quanto riguarda la facilità (o difficoltà) nel riconoscere le bufale. Il vero problema non riguarderà le monete cattive, ma da quelle buone. Ovvero le notizie autentiche.
Il dividendo del bugiardo
Ho appena scritto che tendiamo a dare per vero quello che conferma le nostre idee e a dare per falso quello che le smentisce. Ma non è solo una questione di vero e falso.
Prima di tutto perché non è detto che una notizia, e più in generale un’affermazione, sia o vera o falsa senza vie di mezzo. Semplificazioni, approssimazioni o imprecisioni introducono tutta una serie di gradazioni. Nella maggior parte delle situazioni dire che la Luna dista 400mila km dalla Terra è un’adeguata approssimazione della distanza media di 384’399 km. Ed è certamente “meno sbagliato” dell’affermare che la Luna si trova a 400 km o a 400 milioni di km.
Soprattutto, può variare la nostra convinzione verso la verità o falsità di un’affermazione, insomma il “quanto ci crediamo”. Sono certo che la Luna non sia a poche centinaia di chilometri dalla Terra e non sia fatta di formaggio; su come si sia formata ho meno sicurezza, sia perché esistono diverse ipotesi sia perché non sono un esperto. Possiamo formularla anche così: sul fatto che la Luna non sia di formaggio sarei pronto ad accettare una scommessa particolarmente rischiosa, diciamo diecimila a uno; per scommettere che la Luna sia nata in seguito a un grande impatto vorrei invece quote più favorevoli. Infine, sulla quantità di acqua presente sulla Luna invece non scommetterei.
La crescente qualità della disinformazione prodotta da intelligenze artificiali forse non alza la credibilità della disinformazione, ma rischia di abbassare quella dell’informazione. Prendiamo – l’esempio è di John Gruber – la registrazione di alcune frasi sessiste di Donald Trump, tra cui il celebre “Grab them by the pussy”, pubblicata a poche settimane dalle elezioni del 2016. Trump alla fine venne eletto, ma la sua popolarità calò. All’epoca non era possibile mettere in dubbio l’autenticità dell’audio; oggi sarebbe una strategia percorribile. E anche un oppositore di Trump dovrebbe ammettere la possibilità di un deepfake e ridurre di conseguenza la propria sicurezza sull’autenticità della registrazione.
Questa erosione dell’affidabilità è un fenomeno noto da alcuni anni; ha anche un nome: “liar’s dividend”, il dividendo del bugiardo. Ne scriveva ad esempio Paul Chadwick sul Guardian nel 2018, sottolineando come gli effetti del dividendo del bugiardo cresceranno con la consapevolezza pubblica dell’esistenza dei deepfake. La popolarità di ChatGPT e dei modelli linguistici è quindi una brutta notizia.
Tutta colpa dell’Intelligenza artificiale?
Riassumendo, c’è il rischio che un audio o un video autentici vengano ritenuti meno attendibili perché c’è la possibilità che siano dei deepfake. O che la grande quantità di articoli di disinformazione ben scritti – da intelligenze artificiali – mi renda più scettico verso articoli ben documentati.
A ben guardare, però, il problema non è dovuto solo alla qualità di falsi. Come detto, molto dipende dal contesto di una notizia per cui, prima ancora che i deepfake e i modelli linguistici, il vero problema è che mass media e autorità hanno perso credibilità.
Quando si è diffusa questa sfiducia? In un articolo su The Conversation, Robert M. Dover indica come punto di svolta l’invasione dell’Iraq e l’utilizzo che i politici hanno fatto delle informazioni fornite dai servizi di intelligence. Non sono sicuro che quello sia stato davvero un momento cruciale; certo la diffidenza non è nata con le intelligenze artificiali e neanche con i social media.
Un commento su “La disinformazione ai tempi dell’intelligenza artificiale”