Commentando l’acquisizione da parte di Amazon di iRobot, il produttore dei popolari robot aspirapolvere Roomba, John Gruber immagina un futuro in cui avremo per casa degli assistenti robotici ben più versatili di una macchinetta che se la cava bene con la polvere ma non la cacca di cane (il web è pieno di racconti del genere) e non è neanche in grado di fare le scale. Qualcosa al quale poter dire “Roomba, sistema il casino che c’è in cucina e quando hai finito portami un bicchiere d’acqua, grazie”.
A essere sincero sono un po’ scettico su questi possibili sviluppi – mi ricordano le auto a guida autonoma, che è almeno vent’anni che avremo “entro 5 anni” – ma è interessante che Gruber concluda il suo ipotetico ordine ringraziando il robot. Se ne rende conto anche lui, tanto da concludere il suo testo con una precisazione:
(I like saying thanks to my AI assistants. My wife thinks I’m nuts. But I worry we, collectively, are going to be dreadfully rude to them by the time they’re essential elements of our daily lives.)
Ora, tralasciando il fatto che in inglese “please” e “thank you” sono più comuni che in italiano o in tedesco (Licia Corbolante spiega bene i motivi), perché mai dovremmo ringraziare un’intelligenza artificiale?
Partendo dalle principali teorie etiche, non vedo buoni motivi per farlo né per le morali deontologiche (per le quali, grosso modo, è giusto quello che discende da alcuni principi morali) né per quelle consequenzialiste (che valutano l’agire in base alle conseguenze). L’intelligenza artificiale non ha coscienza di sé e non soffre: la mancata gentilezza non viola principi morali e non ha conseguenze sgradevoli per nessuno.
Risposta diversa per l’etica delle virtù, quella che invece di guardare ai principi o agli effetti delle nostre azioni, si chiede che tipo di agenti morali vogliamo essere. E possiamo rispondere, come sembra fare John Gruber, che non vogliamo essere delle persone maleducate, anche se la maleducazione riguarda un’intelligenza artificiale.