La disinformazione ai tempi dell’intelligenza artificiale

Circola un video di Bill Gates che dice cose che non ha mai detto: come riporta Facta, molto probabilmente il filmato è stato alterato usando un software di intelligenza artificiale. Parliamo di un deepfake, della creazione di immagini, video e audio praticamente irriconoscibili e relativamente facili da realizzare.
Ai deepfake possiamo aggiungere i modelli linguistici – che qui chiamo “intelligenze artificiali che scrivono cose” – con i quali possiamo in pochi secondi produrre dettagliati articoli di disinformazione sul fatto che la Terra è piatta, non siamo mai andati sulla Luna, l’11 settembre è stata una demolizione controllata, i vaccini hanno rischiato di portare all’estinzione l’umanità eccetera.

Quanta disinformazione!

Le intelligenze artificiali stanno aggravando il problema della disinformazione? Apparentemente sì, anche se forse il problema non è tanto la quantità e qualità delle false informazioni.
Già adesso per verificare una notizia occorre risalire alla fonte e ricostruire il contesto. E non è detto che la qualità delle manipolazioni porti più persone a ritenerle buone. Infatti più della qualità di un contenuto, contano la fiducia verso la fonte e quanto quel contenuto conferma le nostre opinioni. Saremo portati allo scetticismo di fronte a un video perfetto ma presentato da un media che consideriamo inaffidabile e che va contro quello che crediamo. Tenderemo invece a prendere per buono un video imperfetto presentato da fonte che riteniamo credibile e che conferma le nostre idee. Certo non è un atteggiamento ideale, ma ha l’indubbio vantaggio di risparmiarci la fatica di valutare attentamente ogni singola informazione che ci passa davanti, il che sarebbe impossibile.
I modelli linguistici sembrano aggravare la cosiddetta Legge di Brandolini, quella per cui l’energia per smontare una bufale è di un ordine di grandezza superiore a quella necessaria per inventarla. (C’è anche la variante della “montagna di merda, facile da scaricare ma difficile da spalare via”).
Però le intelligenze artificiali possono essere utilizzate anche per riconoscere e smontare le bufale, semplificando quindi anche l’altra parte del lavoro.

Forse sono eccessivamente ottimista, ma credo che alla fine non cambierà molto, per quanto riguarda la facilità (o difficoltà) nel riconoscere le bufale. Il vero problema non riguarderà le monete cattive, ma da quelle buone. Ovvero le notizie autentiche.

Il dividendo del bugiardo

Ho appena scritto che tendiamo a dare per vero quello che conferma le nostre idee e a dare per falso quello che le smentisce. Ma non è solo una questione di vero e falso.
Prima di tutto perché non è detto che una notizia, e più in generale un’affermazione, sia o vera o falsa senza vie di mezzo. Semplificazioni, approssimazioni o imprecisioni introducono tutta una serie di gradazioni. Nella maggior parte delle situazioni dire che la Luna dista 400mila km dalla Terra è un’adeguata approssimazione della distanza media di 384’399 km. Ed è certamente “meno sbagliato” dell’affermare che la Luna si trova a 400 km o a 400 milioni di km.
Soprattutto, può variare la nostra convinzione verso la verità o falsità di un’affermazione, insomma il “quanto ci crediamo”. Sono certo che la Luna non sia a poche centinaia di chilometri dalla Terra e non sia fatta di formaggio; su come si sia formata ho meno sicurezza, sia perché esistono diverse ipotesi sia perché non sono un esperto. Possiamo formularla anche così: sul fatto che la Luna non sia di formaggio sarei pronto ad accettare una scommessa particolarmente rischiosa, diciamo diecimila a uno; per scommettere che la Luna sia nata in seguito a un grande impatto vorrei invece quote più favorevoli. Infine, sulla quantità di acqua presente sulla Luna invece non scommetterei.

La crescente qualità della disinformazione prodotta da intelligenze artificiali forse non alza la credibilità della disinformazione, ma rischia di abbassare quella dell’informazione. Prendiamo – l’esempio è di John Gruber – la registrazione di alcune frasi sessiste di Donald Trump, tra cui il celebre “Grab them by the pussy”, pubblicata a poche settimane dalle elezioni del 2016. Trump alla fine venne eletto, ma la sua popolarità calò. All’epoca non era possibile mettere in dubbio l’autenticità dell’audio; oggi sarebbe una strategia percorribile. E anche un oppositore di Trump dovrebbe ammettere la possibilità di un deepfake e ridurre di conseguenza la propria sicurezza sull’autenticità della registrazione.

Questa erosione dell’affidabilità è un fenomeno noto da alcuni anni; ha anche un nome: “liar’s dividend”, il dividendo del bugiardo. Ne scriveva ad esempio Paul Chadwick sul Guardian nel 2018, sottolineando come gli effetti del dividendo del bugiardo cresceranno con la consapevolezza pubblica dell’esistenza dei deepfake. La popolarità di ChatGPT e dei modelli linguistici è quindi una brutta notizia.

Tutta colpa dell’Intelligenza artificiale?

Riassumendo, c’è il rischio che un audio o un video autentici vengano ritenuti meno attendibili perché c’è la possibilità che siano dei deepfake. O che la grande quantità di articoli di disinformazione ben scritti – da intelligenze artificiali – mi renda più scettico verso articoli ben documentati.

A ben guardare, però, il problema non è dovuto solo alla qualità di falsi. Come detto, molto dipende dal contesto di una notizia per cui, prima ancora che i deepfake e i modelli linguistici, il vero problema è che mass media e autorità hanno perso credibilità.

Quando si è diffusa questa sfiducia? In un articolo su The Conversation, Robert M. Dover indica come punto di svolta l’invasione dell’Iraq e l’utilizzo che i politici hanno fatto delle informazioni fornite dai servizi di intelligence. Non sono sicuro che quello sia stato davvero un momento cruciale; certo la diffidenza non è nata con le intelligenze artificiali e neanche con i social media.

Ricerche scolastiche in biblioteca

Per una ricerca di storia di prima media, il docente di mio figlio ha dato alcune indicazioni che ho trovato molto interessanti.

La prima è di iniziare cercando informazioni in biblioteca. Cosa non banale, visto che parliamo di nativi digitali la cui prima reazione, molto probabilmente, è inserire il titolo del compito su Google, YouTube o ChatGPT.

La seconda indicazione è una “guida alla consultazione di eventuali siti internet“.

Si tratta di un sito specializzato? (ad es., un’università o un’organizzazione che si occupa si storia).

È un sito che vive di pubblicità o che vende un prodotto?

Il contenuto che leggi sul sito riporta il nome dell’autore? (può essere una persona o un’organizzazione o può esserci scritto semplicemente ‘redazione’).

Se si, chi è? È una persona/organizzazione esperta di storia? (controlla cercando il suo nome sul web).

C’è qualche forma di verifica/controllo su quello che l’autore scrive?

Il contenuto è scritto o presentato in maniera professionale e accurata?

Nella pagina web che stai leggendo sono presenti commenti di utenti o di esperti che confermano l’informazione?

Alcuni di questi controlli portano a escludere completamente un sito; altri (come i commenti di utenti) portano a un “prosegui ma fai attenzione”.

Mi paiono consigli molto sensati e utili.
Quello che mi rattrista è che questo sito verrebbe escluso al primo passaggio. Peraltro giustamente, visto che se per caso avessi scritto qualcosa sulle tecniche di sepoltura dell’epoca Shang l’avrei fatto senza una particolare competenza. Ma anche per argomenti sui quali un po’ di competenza ce l’ho, difficilmente si può considerare questo un “sito specializzato”.

Citazioni famose che non lo erano

Uno degli articoli più letti è su una celebre citazione di Galileo: “La matematica è l’alfabeto nel quale Dio ha scritto l’universo”. Celebre ma quasi sicuramente falsa, con ogni probabilità inventata da Walt Disney per riassumere un più lungo passaggio del Saggiatore.

Intendiamoci: il pensiero di Galileo è certamente quello. Forse non apprezzerebbe una formulazione così sintetica, magari preferirebbe lasciar da parte il riferimento alla divinità – io farei così se venissi accusato di eresia – ma la frase è un fedele riassunto del suo pensiero. È curioso trovare una citazione che è al contempo errata e fedele.

Su Facta trovo la ricostruzione di un altro caso simile. Al posto di Galileo abbiamo Voltaire e il suo “non condivido la tua opinione ma morirò affinché tu possa esprimerla”, frase che a quanto pare Voltaire non ha mai scritto o pronunciato.
Anche in questo caso all’origine della falsa citazione c’è una sintesi. In questo caso da parte di Evelyn Beatrice Hall che nel 1907, ha riassunto così l’atteggiamento di Voltaire nei confronti di Helvétius, accusato di ateismo. Hall ha imprudentemente virgolettato la frase, dando il via al malinteso. Ma di nuovo, il pensiero è quello, per quanto Voltaire avrebbe forse preferito una formulazione più morbida (non ce lo vedo a fare il martire).

Già che parliamo di citazioni inventate, un caso molto celebre riguarda Einstein e la scomparsa delle api che lascerebbe all’umanità quattro anni di vita. Citazione curiosa, visto che Einstein è un fisico e non un biologo. Ed è inoltre morto nel 1955, quando dell’ambiente fregava poco (Primavera silenziosa di Rachel Carson è stato pubblicato nel 1962). Infatti, secondo Snopes, la frase sarebbe stata inventata negli anni Novanta da alcuni apicoltori preoccupati per le importazioni di miele.

Una cosa curiosa è che la citazione di Einstein, quasi certamente inventata di sana pianta e che non trova riscontri nel suo pensiero, sia semplicemente etichettata “unproven” da Snopes. Mentre la frase di Voltaire, che rispecchia il suo pensiero, è definita da Facta “una citazione fuorviante, che veicola una notizia falsa“. Mi pare un caso di “verismo del fact-checking“.

Aggiornamento

SMBC ne aggiunge un’altra:

Abbiamo bisogno di uno spazio a prova di fake news

La disinformazione può essere pericolosa. Ridurre la produzione e la circolazione delle fake news è difficile e pone problemi di libertà di espressione. Una possibile alternativa è cercare di renderle innocue con spazi di comunicazione sicuri.

Premessa: i ‘toot’ di Mastodon

In questi giorni sto sperimentando un po’ Mastodon, un social network non centralizzato come del resto era decentralizzata tutta la rete fino a qualche anno fa, con tanti server che dialogavano tra di loro in base a protocolli pubblici.

Di Mastodon avevo sentito parlare già da qualche anno e forse mi ero anche iscritto da qualche parte; il profilo che sto usando attualmente risale a fine agosto, prima quindi della “grande fuga da Twitter” dovuta all’arrivo di Elon Musk, ma non me ne faccio un vanto anche perché questo articolo parla solo collateralmente di Mastodon e di social media – se siete finiti qui aspettandovi spiegazioni tecniche, mi spiace ma dovrete andare altrove.

Inizio dalla mia esperienza su Mastodon perché in questi primi giorni sulla piattaforma ho scoperto un paio di caratteristiche interessanti. La prima è l’assenza del “retweet con commento“: puoi rispondere a un contenuto (che qui si chiamano toot), lo puoi condividere alle persone della tua comunità ma non puoi citarlo con un commento e questa, da quel che ho capito, non è una dimenticanza ma una scelta. Il “cita e commenta” è infatti usato per il cosiddetto “grandstanding“, il criticare non per far progredire una discussione ma per “mettersi sul podio”. Sul tema c’è un bel libro di Justin Tosi e Brandon Warmke.
La seconda cosa interessante di Mastodon è che la ricerca funziona solo sugli hashtag: se scrivo una cosa critica su Elon Musk nessun fan del nuovo proprietario di Twitter la troverà a meno che non decida di aggiungere #elonmusk.

Queste caratteristiche di Mastodon – e probabilmente anche altre che non ho ancora scoperto – mirano a contenere il linguaggio d’odio e la violenza verbale senza ricorrere alla moderazione dei contenuti o a sospensioni e cancellazioni di account, misure che comunque avverrebbero su un singolo server.
Non so quanto siano efficaci; non so neanche se Mastodon avrà un futuro o meno. Però avremmo bisogno di soluzioni simili anche per la disinformazione e le fake news.

Il problema delle fake news

Penso che si possa dare per scontato che le fake news siano un problema. Magari non tutti sono d’accordo su quanto siano pericolose e sull’efficacia e l’opportunità delle varie soluzioni prospettate, ma credo che tutti siano d’accordo sul fatto che in un mondo ideale le persone condividano informazioni che considerano vere e rilevanti.

Un po’ meno scontato capire cosa sia una fake news. Una notizia errata frutto di un serio lavoro giornalistico è una fake news? E una notizia inventata di sana pianta che si rivela casualmente vera? O un’informazione vera ma presentata in maniera ingannevole? A questa ambiguità del concetto di fake news – che avevo proposto di ribattezzare “pseudonotizie” – si aggiungono poi le difficoltà nel verificare i singoli casi: un bel problema se pensiamo di intervenire attraverso la censura, sia essa affidata a esseri umani o ad algoritmi. Senza dimenticare che impedire o comunque ostacolare la condivisione di fake news è una limitazione della libertà di espressione. Il che non significa che sia sbagliata, ma solo che bisogna rifletterci bene.

Se è una buona cosa permettere di criticare e mettere in dubbio qualsiasi affermazione, anche e forse soprattutto quelle vere, d’altra parte ci sono fake news che possono causare danni, come la disinformazione intorno a farmaci sicuri ed efficaci.

L’esempio classico è considerare i panettieri responsabili della scarsità di pane: un conto è presentare questa ipotesi in una pacata discussione sull’aumento dei prezzi, un altro è affermarlo davanti a una folla affamata e inferocita. Una versione ancora più semplice riguarda il gridare “Al fuoco!” in un teatro affollato. E certo è opportuno che le persone non gridino “Al fuoco!”, ma come impedirlo? Forse conviene controllare gli impianti di sicurezza ed evitare che ci sia troppa gente in teatro.

È possibile pensare a spazi di comunicazione in cui le fake news possano diffondersi senza fare danni? Non lo so, ma certamente non sono il primo a guardare al fenomeno della disinformazione ragionando anche sulle caratteristiche dei vari mezzi di comunicazione che, a seconda delle dinamiche che instaurano, possono favorire o meno determinati comportamenti.

Un promemoria sul ‘backfire effect’

Per affrontare un’informazione falsa non basta presentare i fatti. Cambiare idea, soprattutto quando queste idee hanno una particolare importanza, non è infatti solo una questione di acquisire nuove informazioni e la correttezza non è l’unico aspetto di cui tenere conto.

Questo lo si sa da ormai da qualche millennio: già il buon Aristotele indicava, a fianco del logos (grosso modo la logica dei fatti), anche l’ethos (l’essere brave persone, sempre grosso modo) e il pathos, le emozioni.
Più recentemente la tesi che i fatti non bastano viene argomentata col cosiddetto backfire effect. In poche parole: la semplice verifica delle informazioni (fact-checking o debunking) non solo non basta, ma può essere controproducente agendo, appunto, come un “ritorno di fiamma” (in italiano di parlerebbe di “effetto boomerang” ma non ho mai visto usare questa espressione per il backfire effect) rinforzando la credenza nell’informazione che si è cercato di smentire.

L’eccezione, non la regola

Il tutto parte da una ricerca di Brendan Nyhan e Jason Reifler intitolato “When Corrections Fail: The Persistence of Political Misperceptions” e pubblicato nel 2010 sulla rivista Political Behavior.

La ricerca è citata di continuo (recentemente l’ho trovata in un libro sulla disinformazione appena pubblicato) ed è comprensibile: è un aspetto del quale tenere conto. Solo che il backfire effect non è così frequente come si sarebbe portati a pensare e a ricordarlo è proprio uno dei due autori, Brendan Nyhan:

Read this! Widespread neglect of more recent studies since my paper. Key point: “while backfire may occur in some cases, the evidence now suggests it is rare rather than the norm…generally debunking can make people’s beliefs in specific claims more accurate”

Nyhan si riferisce a un report di una ventina di pagine curato da Full Fact (vedi Does the “backfire effect” exist—and does it matter for factcheckers?) che, dopo aver analizzato varie ricerche, conclude che questo effetto controproducente è l’eccezione, non la regola. Tutto questo ovviamente con l’aggiunta che è importante capire come rendere più efficace l’azione dei factcecker – nel testo si cita ad esempio la questione della fiducia che, tornando ad Aristotele, rientra nella parte di ethos.

Quella di Nyhan non è una ritrattazione, ma una precisazione che, quando si cita quel lavoro, andrebbe secondo me ripresa. E spero che questo piccolo fact-checking funzioni.

Intelligenze artificiali che scrivono cose

Cercando un sistema per controllare come scrivo – quelle cose tipo “paragrafi troppo lunghi”, “metti un link esterno” eccetera –, ho scoperto l’esistenza di Writesonic. Si tratta di una piattaforma che sfrutta l’intelligenza artificiale per la creazione e la modifica di testi.

L’offerta è ampia, si va dai testi che accompagnano le foto su Instagram alle descrizioni di prodotti per Amazon, da “storie coinvolgenti e persuasive”1 al riassunto di testi.

Puoi impostare la qualità dei testi su quattro livelli e un piano gratuito che ti permette, con qualità premium, fino a 2500 parole. Per curiosità ho sperimentato la funzione “AI Article & Blog Writer”.

Cosa ho fatto

Innanzitutto ho scelto il tema: la sovranità alimentare. Con Giorgia Meloni che ha ribattezzato il Ministero delle politiche agricole alimentari e forestali in Ministero dell’agricoltura e della sovranità alimentare, si discute se sia un’idea “di destra o di sinistra”. Ho quindi impostato come argomento il seguente testo: “La sovranità alimentare è un’idea progressista legata alla sostenibilità sociale, ambientale ed economica? Oppure è un’idea reazionaria, nazionalista e classista?”

Mi ha proposte tre possibili titoli: “La sovranità alimentare è una questione progressista? Discutiamo!” (che ho scelto), “La sovranità alimentare è un’idea progressista legata alla sostenibilità sociale, ambientale ed economica? O è un’idea reazionaria, nazionalista e classista?” e “La sovranità alimentare è un’idea progressista?”.

Mi ha poi proposto tre possibili introduzioni.

La sovranità alimentare è un tema che ha acquisito visibilità negli ultimi anni. La comunità internazionale ha preso atto delle gravi implicazioni dei mercati alimentari aziendali e del loro impatto sui piccoli produttori, sui sistemi alimentari e sull’ambiente. La sovranità alimentare può essere intesa come un insieme di diritti relativi al modo in cui le popolazioni producono, conservano, distribuiscono e accedono al cibo. È anche un processo attraverso il quale le comunità riprendono il controllo sulla produzione e sul consumo di alimenti sani. Per capire se questo argomento è adatto alla vostra organizzazione o riunione in questo momento, potete chiedervi: questi valori sono in linea con la missione della mia organizzazione? È un argomento che sta a cuore ai membri? Le persone si sentiranno più legate alla mia organizzazione grazie a questo argomento? È rilevante per i nostri membri? Risponde a qualche esigenza attuale della nostra organizzazione? Ci sono altri modi in cui potremmo sostenere ulteriormente gli sforzi di altri che lavorano in questo settore?

La sovranità alimentare è sempre più riconosciuta come una valida alternativa al sistema alimentare industriale dominante. Tale riconoscimento, tuttavia, è stato limitato a circoli specializzati. Anche all’interno del movimento per la giustizia alimentare, è rimasto un termine oscuro fino a poco tempo fa. Questo articolo esplora il potenziale della “sovranità alimentare” come questione progressista e la inquadra come tale. Ci sono diverse ragioni per cui questo tema non fa ancora parte della comprensione comune dei movimenti per la giustizia sociale: l’invisibilità strutturale, il gergo accademico, la limitata accessibilità alle fonti primarie e le tensioni ideologiche tra i diversi movimenti per la giustizia sociale. Questo articolo cerca di spiegare perché dovremmo considerare la sovranità alimentare come una questione progressista.

Il cibo non è solo una fonte di energia, vitamine e minerali. È anche un luogo chiave per contestare le relazioni di potere tra aziende e consumatori, produttori e fornitori, interessi radicati e attori emergenti. I dibattiti che ne derivano sono diventati così divisivi che è difficile capire dove finisce una parte e inizia l’altra. Ma se ci fosse un modo per unire tutti coloro che hanno a che fare con il cibo? E se la sovranità alimentare potesse essere quel tema unificante? Secondo il sito web di Food First, “la sovranità alimentare riguarda innanzitutto il fatto che le persone abbiano diritti sicuri sulla terra, l’acqua, le sementi e le fonti di proteine, nonché l’accesso a mercati equi e convenienti”. In altre parole, si tratta di capire chi possiede il nostro sistema alimentare: le grandi aziende o i piccoli agricoltori?

Ho scelto l’ultima e a questo punto mi ha proposto tre possibili scalette:

  1. Chi dovrebbe possedere il nostro sistema alimentare?
  2. Perché la sovranità alimentare è una questione progressista?
  3. Perché la sovranità alimentare non è una questione progressista?
  4. La sovranità alimentare riguarda solo i grandi e i piccoli proprietari?
  5. Conclusione
  1. Che aspetto ha la sovranità alimentare?
  2. Il caso della sovranità alimentare
  3. Perché potrebbe non essere una questione progressista
  4. Il caso contro la sovranità alimentare
  5. Riflessioni finali
  1. Chi possiede il nostro sistema alimentare?
  2. Che aspetto ha la sovranità alimentare?
  3. Perché la sovranità alimentare è una questione progressista?
  4. Critiche alla sovranità alimentare

Ho scelto la prima togliendo il quarto punto e ho ottenuto il testo che ho pubblicato poco fa.

Qualche considerazione

Il risultato, lo confesso, mi ha stupito: potrebbe benissimo essere un testo scritto da un essere umano. Certo, un essere umano che ha idee particolarmente originali sulla sovranità alimentare e sviluppa quanto contenuto nella traccia iniziale grazie a qualche ricerca online e frasi fatte, senza davvero aver capito quello che scrive. Il che è comunque un risultato notevole, anche perché quella è la situazione tipica non solo di uno studente alle prese con temi e tesine, ma anche di molte persone che scrivono per lavoro – penso, ma solo perché è una realtà che conosco bene, al giornalista che si ritrova a occuparsi di un tema del quale sa poco o nulla. Certo, un bravo giornalista sa come diventare un “esperto” in qualche ora, eventualmente sentendo colleghi o persone davvero esperte (senza virgolette), ma qui ho avuto il testo in pochi minuti.
Dove l’intelligenza artificiale ha decisamente fallito è la scelta dell’immagine.

I vantaggi per chi pubblica contenuti – e privilegia la quantità e la tempestività alla qualità – mi paiono evidenti. Più interessante chiedersi quali possano essere i vantaggi per un lettore.
Me ne viene in mente uno: semplificare la raccolta di informazioni. Proviamo a ripercorrere il procedimento che ho seguito pensando che il mio obiettivo non fosse avere un articolo sul tema del giorno per avere un po’ di clic, ma sapere che cosa è la sovranità alimentare. Ho chiesto quello che volevo sapere, nei passaggi successivi ho specificato meglio quel che mi interessa sapere, e poi ho lasciato che un’intelligenza artificiale accedesse a un certo numero di risorse e me facesse un riassunto di 7-800 parole.
L’alternativa sarebbe stata cercare “sovranità alimentare” su Google: se mi va bene qualcuno ha già fatto questo lavoro di sintesi – è il caso ad esempio del Post –, ma se mi va male dovrò perdere qualche ora selezionando e confrontando fonti.

Il problema è che ovviamente non ho la minima idea di come quelle informazioni siano state selezionate. Il testo generato automaticamente è chiaramente favorevole alla sovranità alimentare (“una questione progressista che può unire tutti coloro che si occupano di cibo”), immagino perché la maggioranza delle fonti hanno quella impostazione. Tremo all’idea di chiedere se i vaccini contro il Covid hanno come obiettivo ridurre la popolazione umana tramite terapia genica sperimentale.

  1. In teoria la persuasione riguarda i testi argomentativi e non la narrativa, ma forse in inglese “persuasive” vale anche per i racconti. []

Dovremmo tenere conto delle altre narrazioni nella comunicazione della scienza?

Nel bene o nel male purché se ne parli“: a me questa frase, più che una strategia di comunicazione, è sempre sembrata una comoda giustificazione da usare quando qualcosa è andato storto. Ma non son un esperto di marketing e immagino che in determinati contesti – ad esempio quando quello che ti interessa è togliere spazio mediatico ai concorrenti – spararla grossa e raccogliere critiche possa avere qualche vantaggio.

Non credo che questo sia il caso per chi fa comunicazione della scienza: qui la fiducia e l’autorevolezza – quello che nel marketing dovrebbe essere la brand image – sono molto importanti ed essere conosciuti come quello che dice cavolate o difende una determinata tesi a priori potrebbe non essere una bella cosa, quantomeno se si vuole raggiungere un pubblico che la pensa differentemente. Forse può essere una strategia interessante se l’idea è “predicare ai convertiti”, parlare a chi è già convinto di un certo argomento. Il problema è che il controllo sul pubblico è molto limitato e anche quello che viene detto in una conferenza per gli addetti ai lavori può sfuggire di mano ed essere oggetto di discussione, e distorsione, pubblica.

Ora, la comunicazione si gioca molto sul concetto di frame o cornice: quando acquisiamo una nuova informazione, la inseriamo in una rete di idee e concetti che già abbiamo e ad avere la priorità è questa cornice concettuale. In altre parole: se Tizio è convinto che le auto elettriche siano il futuro della mobilità sostenibile mentre Caio pensa che siano una moda pseudoecologista, l’informazione che la tal casa automobilistica produrrà più auto elettriche viene inserita nelle due cornici e assume significati molto diversi, mentre se un’informazione non può essere inserita nella cornice concettuale, è facile che venga ignorata o ridimensionata.

Il classico consiglio che ne segue è di non limitarsi a fornire informazioni ma, se vogliamo convincere una persona che non ha ancora un’opinione netta, anche un frame concettuale nel quale inserire quelle informazioni.
Mi chiedo in quali condizioni valga la pena fare il ragionamento opposto e chiedersi in quali frame potrebbero finire le nostre informazioni. Perché anche un’informazione chiara e oggettiva può fare una brutta fine, nel frame sbagliato.

Mi spiego con due esempi. Il primo riguarda il WEF, il Forum di Davos che, in quanto importante organizzazione di lobbying, si merita molte critiche, ma non tutte visto che è al centro di diverse fantasie di complotto. Ha senso che in questo contesto si inventino, come nome per un progetto di ripresa – che peraltro nessuno ha chiesto loro di elaborare, ma questo è un altro discorso – “The Great Reset”? O che nel raccontarci un possibile futuro in cui sempre più spesso si farà ricorso a forme di noleggio e affitto o a servizi offerti gratuitamente, si intitoli che “nel 2030 non possederai nulla e sarai felice” dando il via a fantasie sull’abolizione della proprietà privata?
Vista la scarsa stima che ho verso istituzioni come il WEF, per me la soluzione migliore sarebbe smettere di dire e scrivere qualsiasi cosa, ma mi accontenterei di una maggiore attenzione alle parole utilizzate, per evitare di dare materiale così pregiati ai complottisti.

Il secondo esempio riguarda una review sugli antinfiammatori e il COVID firmata da Giuseppe Remuzzi e altri ricercatori dell’Istituto Mario Negri. Per come l’ho ricostruita: gli antinfiammatori erano, insieme ad altri farmaci inutili o pericolosi, inseriti in protocolli non ufficiali di cure domiciliari e adesso che un lavoro scientifico indica che gli antinfiammatori potrebbero essere efficaci nel ridurre le ospedalizzazioni è tutto un “avevano ragione loro” e “il COVID si può curare ma non lo dicono perché si vuole spingere il vaccino”. La storia è spiegata bene da Beatrice Mautino ed Emanuele Menietti nel podcast Ci vuole una scienza.
Qui l’opzione silenzio non è ovviamente percorribile: non ha molto senso pensare di non pubblicare una ricerca perché potrebbe essere manipolata o fraintesa e su un articolo parla di antinfiammatori, è difficile pensare di non citarli nel titolo… Tuttavia qualche cautela in più a livello di comunicazione dei risultati forse la si poteva auspicare se non dai ricercatori stessi, quantomeno dai giornalisti.

Certo, pretendere di considerare tutte le possibili cornici concettuali è praticamente impossibile, ma se uno conosce un tema conosce anche le principali narrazioni di scettici e contrari. Ed è vero che, come si dice in questi casi, uno è responsabile di quello che dice, non di quello che gli altri capiscono, ma qui non si vuol dare la colpa a nessuno – a parte forse il WEF, ma di nuovo è un altro discorso –, ma solo cercare le pratiche comunicative migliori.

Con un’autorevolezza ben diversa dalla mia, quasi un anno fa Nature ha pubblicato un commento di Cecília Tomori dal titolo inequivocabile: “Scientists: don’t feed the doubt machine”. Secondo l’autrice è necessaria una maggiore comprensione delle strategie utilizzate per creare dubbi e diffondere ignoranza, non solo conoscendo quali istituzioni sono in realtà agenzie di lobbying, ma anche guardando al contesto politico e commerciale della ricerca ed evitando di fare da inconsapevoli megafoni di informazioni fuorvianti.

L’ultima parola della scienza

L’ultima parola su ciò che sappiamo certamente su [tema oggetto di disinformazione] la lasciamo alla scienza. A lui.

Valentia Petrini, Non chiamatele fake news, Chiarelettere 2020

Sto leggendo un po’ di libri sulle “fake news”, e tra di questi c’è anche quello della giornalista Valentina Petrini. Dal punto di vista teorico è relativamente povero, ma è un’interessante testimonianza di come una giornalista che crede nel valore dei fatti affronti professionalmente e personalmente la disinformazione e la polarizzazione. Insomma, non ci si sofferma più di tanto su cosa siano le fake news, sulle differenze rispetto a fenomeni antichi come la propaganda, sui meccanismi di diffusione e sugli effettivi effetti, ma almeno non ci si limita a dare la colpa ai social media dal momento che, si legge a un certo punto, “la lotta contro la disinformazione sarebbe monca se non allargassimo il dibattito a tutta la macchina dell’informazione”.

Tuttavia è un altro il passaggio che più mi ha colpito, purtroppo in negativo, ed è quello che troviamo citato all’inizio di questo testo e che introduce l’intervista a un esperto. Ho omesso sia il nome dell’esperto, sia il tema di cui si discute perché mi interessa il modo di ragionare, non il caso specifico che potrebbe essere l’efficacia dei vaccini, il riscaldamento globale, le scie chimiche, l’assassinio di Kennedy o lo sbarco sulla Luna.

Abbiamo un esperto del tema e certamente quello che dice è importante e merita, nel dibattito pubblico, uno spazio diverso da quello di una persona con minori competenze sul tema. Certo, qui sarebbe importante capire come, immaginando di essere a nostra volta persone “con minori competenze sul tema”, possiamo valutare le competenze di un esperto o meglio ancora di due esperti o sedicenti tali che si contraddicono.

Il problema è tuttavia un altro: Valentina Petrini introduce l’intervista con le parole citate all’inizio. “L’ultima parola su ciò che sappiamo certamente […] la lasciamo alla scienza. A lui”. Perché queste parole non mi convincono? Di per sé si dice semplicemente la scelta di chiudere il capitolo con alcuni punti fermi sostenuti da un ricercatore esperto del tema. Tuttavia le parole sono secondo me sbagliate. L’ultima parola: dopo non c’è più spazio neanche per domande? Sappiamo certamente: di che tipo di certezza stiamo parlando? È certo come è certo che 2+2=4, come il fatto che la Terra è rotonda, come è certo che se mangio cibo grasso mi verrà un infarto? La scienza: esiste una cosa che possiamo definire “la scienza”, e parlare come tale, o abbiamo una pluralità di discipline e ricercatori?

L’esperto poi fa bene il suo lavoro di esperto: riassume quello che si sa, nota che al momento c’è un’ipotesi accettata da quasi tutti (e si capisce che la certezza è in realtà limitata) e che chi sostiene altre tesi non ha prove solide o addirittura porta prove false. Capisco che di fronte a corbellerie e dibattiti sterili si sia tentati di presentarla come “l’ultima parola della scienza”, ma forse è una tentazione alla quale varrebbe la pena resistere.

Biancaneve e lo straw man

Foto di Aline Dassel da Pixabay 

“Il MeToo ha rotto i coglioni”. È un commento che ho sentito a proposito della fintroversia sul bacio non consensuale del principe azzurro a Biancaneve. Dico fintroversia perché il caso è in buona parte artefatto: non riguarda il film della Disney ma il rifacimento di un’attrazione di Disneyland e in una recensione sostanzialmente positiva si faceva notare che quel bacio, messo a conclusione del percorso, potrebbe essere un po’ problematico visto che lei è incosciente. Poi è arrivata Fox News e ha deciso di trasformare la recensione in una crociata dell’estrema sinistra nel nome della cancel culture e del politicamente corretto.

Ora, sarebbe bello discutere sul ruolo delle fiabe nella costruzione del nostro immaginario collettivo e sul fatto che sono storie che vengono continuamente riadattate alla sensibilità attuale – e lo ha fatto lo stesso Walt Disney, ad esempio togliendo la tortura della regina cattiva costretta a indossare delle scarpe di metallo arroventato. E anche su cosa dovremmo fare con le opere che presentano aspetti adesso controversi, per quanto non sia la cosa direttamente in discussione (non si parla del film del 1937, ma di un’attrazione di Disneyland rifatta negli scorsi mesi).

Ma credo sia più importante quel “il MeToo ha rotto i coglioni” al quale credo potremmo aggiungere “le menate sul consenso hanno rotto i coglioni”, “il femminismo ha rotto i coglioni” e “le rivendicazioni dei diritti hanno rotto i coglioni” (sì, lo so, è un po’ l’argomento del piano inclinato, ma il passo direi che è breve). E capisco che una discussione sul bacio del principe azzurro possa venire a noia – ma evidentemente non è così, vista la marea di commenti –, ma appunto: nella mente mi si è insinuato il tarlo che la strategia sia appunto quella, non affrontare il problema seriamente, discutendo e portando argomenti, ma facendo deragliare qualsiasi dibattito con casi montati ad arte per far indignare e stancare le persone. Uno sorta di straw man argument condito con fake news che porta, appunto, a “i diritti ci hanno rotto i coglioni”.

Come mentire con le statistiche – Facebook edition

How to Lie with Statistics è un bellissimo libro di Darrell Huff – tradotto anche in italiano, ma non so quanto facile sia trovarlo – su come distorcere le informazioni attraverso dati statistici.

Un piccolo esempio lo fornisce Facebook in un comunicato stampa sugli sforzi intrapresi dal social media per una corretta informazione sul nuovo coronavirus.

Continua a leggere “Come mentire con le statistiche – Facebook edition”