Ormai anche chi ha seguito distrattamente il dibattito avrà capito che di ChatGPT – e analoghi servizi di generazione testi basati su modelli linguistici – ci si può fidare fino a un certo punto.
Il problema sta nelle cosiddette allucinazioni che, nel caso delle intelligenze artificiali, non sono dovute a strane sostanze ma al modo in cui funzionano questi modelli linguistici di grandi dimensioni. Semplificando – e accetto suggerimenti per descrizioni migliori –, l’algoritmo reagisce agli input dell’utente in base alle parole che risultano più probabili in base all’immensa base dati utilizzata per l’addestramento. Solo che le frasi generate in base agli abbinamenti più verosimili possono contenere affermazioni non vere, pur basandosi su informazioni corrette. Allucinazioni, appunto.
Il campionario di queste allucinazioni è abbastanza vario, da errori matematici a fatti mai avvenuti. Certo non è che ChatGPT sia un mentitore seriale: gli errori sono anzi relativamente rari, il che rende ancora più difficile per noi umani identificare gli errori. Ma di questo ho già scritto.
Qui vorrei analizzare brevemente la solidità filosofica di una delle spiegazioni di queste allucinazioni. I modelli linguistici sono fatti per produrre testi coerenti, non testi veri. E questo perché si basano su come le parole si relazionano tra di loro, non su come le parole si relazionano con il mondo.
Due modelli di verità
Questa spiegazione presuppone che la verità sia “adaequatio rei et intellectus”, insomma che una frase sia vera se corrisponde alla realtà. È una tesi filosofica con una lunga storia e che ha anche il pregio di accordarsi con la nostra intuizione. Se Tizio dice “piove” e Caio invece dice “c’è il sole”, per sapere chi dice il vero e chi il falso guardo fuori dalla finestra. Confrontando le due affermazioni con la realtà.
Solo che le cose potrebbero non essere così semplici. Ammesso che l’esempio metereologico lo sia davvero, semplice: quando deve essere nuvoloso, per dire che non c’è il sole? E una pioggerellina quasi impercettibile vale come pioggia? E la neve o la grandine?
Ma se Tizio avesse invece detto “ho voglia di mangiare una torta al cioccolato”, a cosa corrisponderebbe di preciso questa sua affermazione? E come la verifico? Se la verità o falsità dell’affermazione “sono nato il 4 novembre 1978” risiede nella corrispondenza tra quella frase e quanto accaduto il 4 novembre del 1978, che possibilità ho di sapere se quella frase è vera o falsa non avendo a disposizione una macchina del tempo?
C’è poi il problema filosofico di come possa un’affermazione, diciamo un insieme di concetti collegati tra loro, corrispondere a uno stato di cose.
A ogni modo, ChatGPT certamente non può verificare che le proprie affermazioni corrispondano a uno stato di cose. Probabilmente non saprebbe neanche indicare quali sarebbero, gli stati di cose corrispondenti alle proprie affermazioni.
Ma ci sono anche altre teorie della verità. E una di queste, il coerentismo, ricorda proprio la costruzione dei modelli linguistici: una affermazione è vera se è coerente con un insieme di altre affermazioni alle quali crediamo. Questa teoria – che è ovviamente più complessa di come l’ho qui riassunta – non si accorda con la nostra intuizione, ma si accorda con quello che facciamo. Perché le situazioni in cui possiamo guardare fuori dalla finestra per stabilire la verità o falsità di un’affermazione sono relativamente rare. Nella stragrande maggioranza dei casi la verifica è il confronto non con uno stato di cose, ma con altre affermazioni. Tizio dice che piove, Caio che c’è il sole, chiediamo a Sempronio. “Ho voglia di mangiare una torta al cioccolato” è falso perché chi lo dice mangia solo torte al limone; sui documenti personali è effettivamente riportata la data “4/11/1978”.
La coerenza di ChatGPT
Ora, non voglio dire che il corrispondentismo sia sbagliato e il coerentismo giusto: del resto quando diciamo che la terra è rotonda ci esprimiamo sull’effettiva forma della terra, non sulla coerenza di questa affermazione con i mappamondi e le immagini satellitari. Tuttavia in alcune (molte) circostanze, ci comportiamo da coerentisti e non da corrispondentisti. E ce la caviamo abbastanza bene nello stabilire la verità o la falsità delle affermazioni – o almeno nell’accordarci tra di noi.
Perché ChatGPT, invece, non ci riesce e, per quanto occasionalmente, si inventa cose false pur partendo da affermazioni corrette? Dopotutto, si basa proprio sulla coerenza di affermazioni diverse – e su una quantità di testi incredibilmente maggiore di quelli concretamente disponibili a un essere umano. Come è possibile che – per citare qualche esempio – si inventi testi di canzoni, sbagli a calcolare gli interessi e a ordinare le dimensioni degli stati?
Credo che la risposta, molto banale, sia che i modelli linguistici prendono in considerazione una coerenza che non riguarda la verità ma al massimo la persuasività. Non è solo il fatto che ChatGPT ignori, salvo forse alcuni casi particolari, il significato di frasi e parole: dopotutto ignora anche le regole della grammatica, ma riesce ugualmente a formare frasi formalmente corrette e anzi ben scritte.
Il fatto è che non valutiamo la coerenza di una affermazione confrontandola con un insieme indistinto di altre affermazioni, ma con una rete strutturata di conoscenze e credenze. Rete che cambia a seconda del tipo di affermazione che voglio controllare e delle circostanze.
Il problema non è che ChatGPT considera la coerenza senza interessarsi agli stati di cose. Il problema è che non è in grado di modellizzare le reti di conoscenze e credenze necessarie a stabilire la verità per coerenza. Mi chiedo se queste reti siano effettivamente modellizzabili; ma forse non sarà necessario e la soluzione al problema delle allucinazioni arriverà da qualche altra parte.
Mi piace:
Mi piace Caricamento...