Interessante articolo di Giuseppe O. Longo sulla roboetica: “Ma chi insegna l’etica ai robot?” (Avvenire, 27 dicembre 2008; pdf disponibile su Ethica).
In breve, se i robot sono in grado di prendere decisioni con un certo livello di autonomia (Longo parla di “un embrione di libero arbitrio”, espressione forse un po’ troppo forte), si pongono tutta una serie di problemi morali e giuridici. Occorre costruire robot che siano in grado di distinguere ciò che è giusto da ciò che è sbagliato ossia insegnare ai robot la nostra moralità, sperando che ciò sia possibile.
Quello dell’insegnamento ai robot potrebbe diventare una sorta di “test di Turing” al contrario: invece di scoprire quanto un computer sappia comportarsi come un essere umano, saggiare quanto una teoria morale sia razionale cercando di insegnarla a un robot. Se i suoi sofisticati circuiti proprio non riescono a digerirla, forse (e sottolineo forse) quella teoria morale è un po’ astrusa e sarebbe meglio abbandonarla.