I “robogiudici” e le Leggi di Asimov (di Vincenzo Giglio)

Il 16 febbraio 2017 il Parlamento europeo ha approvato una Risoluzione recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103 (INL)).

Nel “Considerando” T sono citate le notissime Leggi di Asimov e si afferma che devono essere ritenute «come rivolte ai progettisti, ai fabbricanti e agli utilizzatori di robot, compresi i robot con capacità di autonomia e di autoapprendimento integrate, dal momento che tali leggi non possono essere convertite in codice macchina».

La necessità del predetto “Considerando” è ben spiegata dai “Considerando” A, B e C.

A. considerando che, dal mostro di Frankenstein ideato da Mary Shelley al mito classico di Pigmalione, passando per la storia del Golem di Praga e il robot di Karel Čapek, che ha coniato la parola, gli esseri umani hanno fantasticato sulla possibilità di costruire macchine intelligenti, spesso androidi con caratteristiche umane;

B. considerando che l’umanità si trova ora sulla soglia di un’era nella quale robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di avviare una nuova rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri le implicazioni e le conseguenze legali ed etiche, senza ostacolare l’innovazione;

C. considerando che è necessario creare una definizione generalmente accettata di robot e di intelligenza artificiale che sia flessibile e non ostacoli l’innovazione“.

È opportuno a questo punto ricordare che Isaac Asimov concepì quelle leggi agli inizi degli anni Quaranta dello scorso secolo come strumenti per regolare il funzionamento dei robot e porgli dei limiti a salvaguardia degli esseri umani e del loro predominio sulle macchine.

Vennero dapprima le tre leggi fondamentali nella loro formulazione primigenia e furono pensate per soddisfare tre esigenze fondamentali, vale a dire sicurezza, servizio e autoprotezione:

1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva un danno.

2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.

3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Di seguito Asimov aggiunse un’ulteriore regola che venne denominata Legge Zero ed era così formulata:

0) Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.

L’introduzione della Legge Zero, quasi una Grundnorm kelseniana applicata alla robotica, rese necessario modificare le prime tre leggi che furono così riformulate:

1) Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero.

2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.

3) Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.

Le Leggi di Asimov sono diventate lo standard della robotica e la Risoluzione del Parlamento europeo ne è testimonianza.

È altrettanto noto che, nel dibattito politico, sociale e giuridico, sono sempre più numerosi gli accenni agli usi che l’insieme dei software cui diamo il nome di intelligenza artificiale (di seguito IA) potrebbe avere nell’ambito della giustizia.

Pressoché tutti escludono che l’IA sia pronta a sostituire il giudice, pochi ipotizzano che la sostituzione possa avvenire in futuro.

È intrigante, tuttavia, lasciare le briglie sciolte alla fantasia e immaginare un mondo in cui siano i robot e non esseri umani ad amministrare giustizia.

Se così fosse, quali effetti avrebbero le Leggi di Asimov su questa specifica funzione?

Usiamo come test la Prima Legge ed applichiamola alla giustizia penale.

Il robogiudice non potrebbe recare danno ad alcun essere umano.

Non potrebbe quindi infliggergli una sanzione penale che è indiscutibilmente capace di generare effetti dannosi alla libertà personale, alla reputazione, alla sfera patrimoniale del destinatario. Ma il rispetto di questo divieto equivarrebbe ad un mancato intervento in favore della persona offesa o danneggiata che pertanto subirebbe un danno.

E quale sarebbe poi in un caso del genere l’interesse dell’umanità alla cui mancata soddisfazione seguirebbe un danno che deve essere evitato prima e sopra di qualsiasi altra cosa? Che i singoli individui paghino il prezzo delle loro condotte illecite perché è questo l’interesse superindividuale oppure che non lo paghino ma con l’ovvio corollario che questa seconda opzione è possibile solo eliminando dalla società il concetto stesso di illecito?

Interrogativi, questi, che riportano ad una domanda di derivazione radicale: in che direzione dovrebbe e potrebbe andare una società robotica che rifletta sulla pena: un carcere migliore o qualcosa di meglio del carcere?

Non è dato saperlo e non ci si arriva neanche in via ipotetica.

Si può solo, compiendo deliberatamente un errore metodologico, usare i desideri come fossero previsioni e in questo caso la risposta è semplice: troviamo qualcosa di migliore del carcere.