Etica e roboetica, riflessioni folosofiche - AVVOCATO ROTALE

Avvocato Rotale
Homo doctus in se semper divitias habet
stemma giubal
Avvocato Rotale
GIUBAL
Vai ai contenuti
Etica e roboetica

Un computer può avere stati mentali o provare emozioni? E’ possibile parlare di un codice etico per le macchine? Questi gli interrogativi filosofici della roboetica.


Abbiamo assistito negli ultimi tempi al sempre più acceso dibattito sulla roboetica, parola ancora sconosciuta per molti, che si riferisce ai problemi morali che emergono dalla creazione di computer (o meglio di robot) che ragionano in modo sempre più simile a quello degli umani. Il pensiero va, ad esempio, alla sonda Spirit su cui giornalisti e addetti ai lavori hanno proiettato stati mentali tipicamente umani: “Spirit è in gran forma”, “Spirit non sta bene e non ha lavorato come avrebbe voluto” ecc. Quindi dibattiti, articoli di giornale, congressi (interessante quello promosso dagli esperti in robotica dell’Università di Genova), dove si discute se sia possibile parlare di una responsabilità morale dei robot o di chi sarebbe la colpa se un sistema robotizzato dotato di intelligenza artificiale o di reti neurali uccidesse una persona.

C’è chi sostiene che allo stato attuale nessuna macchina distingue tra il bene e il male e che quindi la questione della responsabilità riguarda solo noi uomini.  Molti, invece, sono convinti che i robot (magari dotati di reti neurali simili alle nostre) prima o poi acquisiranno la capacità di prendere decisioni autonome, sfuggendo al controllo umano. Altri addirittura sostengono che sia assurdo persino discutere di un’etica degli androidi, tanto è improbabile un mondo in cui le macchine prendano decisioni autonome con parametri di giudizio estranei all’etica umana.

Ritengo che prima di parlare di un codice etico per i robot o se essi possano essere imputabili di azioni negative, prima di parlare di morale, bisognerebbe fare un passo indietro e chiedersi se è possibile che esistano (o possano esistere) macchine che provano emozioni o, ancora meglio, macchine che hanno stati mentali. Questione quest’ultima che ha impegnato già da tempo non solo la filosofia della mente, ma anche le neuroscienze e gli esperti di intelligenza artificiale.

Se avete visto 2001, Odissea nello spazio, l’insuperato capolavoro di Stanley Kubrick, vi ricorderete certamente di HAL. HAL, il computer, sotto stress commette errori; HAL non tollera le critiche ed è capace di provare risentimento nei confronti degli umani; HAL uccide tutti i componenti della spedizione tranne uno, innescando un’epica battaglia uomo-macchina con l’unico sopravvissuto; HAL prega quest’ultimo di non essere spento perché non vuole “morire”. Ma come è possibile attribuire simili sentimenti o emozioni a una macchina? Il problema è di difficile soluzione, dato che, ammesso che possa esistere una forma di vita simile a HAL, non possiamo metterci nei suoi panni. Eppure, senza cercare di attribuire a un computer una sorta di autocoscienza, “essere” quella macchina vorrà pur dire qualcosa.

Eminenti esperti di intelligenza artificiale sostengono, infatti, che se si riescono a simulare a un calcolatore modelli di ragionamento funzionalmente simili al ragionamento umano, nulla impedisce di attribuire alla macchina un’attività di pensiero come quella che attribuiamo all’uomo.

Per il neuroscienziato Gerald Edelman, al contrario, il pensiero dipende dalle strutture materiali del cervello e del corpo. Le macchine non sono fatte della nostra stessa materia, e poiché il pensare scaturisce dalla nostra storia biologica, le macchine non possono pensare, né avere emozioni. La questione è dunque risolta? Neanche per idea.

Molti difensori della cosiddetta intelligenza artificiale “forte” ritengono erronea l’attribuzione della capacità (in senso lato) di pensare fondata solo sulla materia organica. Essi ribattono che molte funzioni mentali possono essere realizzate anche da diversi sostrati fisici, non necessariamente biologici.

Costoro ritengono, inoltre, che sebbene le macchine non possano provare emozioni, tuttavia esse possono “avere” emozioni, nel senso che possono essere programmate in modo tale da fare lo stesso tipo di cose che fanno gli uomini quando attribuiamo loro pensieri ed emozioni. Non sarebbe, dunque, l’esperienza soggettiva a connotare le emozioni, ma la loro relazione con il comportamento esibito. Un argomento quest’ultimo simile a quello usato dal grande matematico inglese Alan M. Turing, il quale osservava che se l’unico modo per essere sicuri che una macchina pensa è essere quella macchina, si potrebbe allo stesso modo sostenere che l’unico modo di sapere se un altro essere umano pensa è di essere precisamente quell’individuo: cosa che nessun uomo può sperimentare.

La questione è che, senza voler contraddire il matematico inglese, non si dovrebbe confondere la simulazione di un processo naturale con il processo stesso. Le macchine non comprendono le istruzioni che sono loro impartite, ma si limitano a eseguirle; la loro comprensione è formale, non di contenuto.

Recenti ricerche neurobiologiche, inoltre, mostrano che le emozioni, i sentimenti, sono il prodotto di una complessa rete di azioni e reazioni dal cervello al corpo e poi ancora al cervello, tanto complessa da essere in una persona sana un miracolo di coordinazione. Entrano in gioco non solo elementi fisici, ma anche le qualità chimiche dei nostri ormoni e neurotrasmettitori, che tutti insieme fanno di un individuo una “persona”. Le macchine non possono essere persone (individui dotati di stati mentali, pensieri, emozioni, sentimenti, discernimento, ecc) perché non possiedono la fisiologia necessaria. Se un giorno si riuscisse a costruire una macchina dotata della nostra complessa fisiologia probabilmente non ci sarebbe alcuna obiezione a considerarla una persona. Tutto questo, naturalmente, limitandoci a fare un discorso il più possibile obiettivo, “materialista”, senza considerare argomenti più profondi, e quindi più importanti, come l’esistenza della “mente” o dell’”anima”.

Allo stato attuale, la tecnologia non è comunque ancora in grado di costruire programmi o robot sufficientemente complessi, e sembra quindi prematuro parlare delle emozioni di una macchina o addirittura di un codice morale o penale per i robot.

Chiedersi oggi di chi sia la responsabilità morale se, ad esempio, un missile “intelligente”, sbagliando, fa una strage di donne e bambini, mi appare come un tentativo di deresponsabilizzazione da parte dell’uomo. Un modo come un altro per imputare ad altri la responsabilità delle proprie azioni, che riguarda, almeno per il momento, solo gli esseri umani.

Di Cristina Giuliano
Torna ai contenuti