La motivazione delle decisioni del giudizio penale e il ricorso all’IA: la black box artificiale a confronto con quella umana (Vincenzo Giglio)

Sulle pagine di questo blog ci si è interrogati più volte sul rapporto tra giustizia e intelligenza artificiale (di seguito IA).

In una di queste occasioni (a questo link, volendo, per la consultazione del post) l’interrogativo era quello essenziale: chi è il miglior giudice, l’uomo o l’IA?

Questo era l’inizio:

L’ingresso sempre più esteso dell’intelligenza artificiale nelle nostre vite e la percezione semplificata che ne abbiamo, quasi si trattasse di un fenomeno unitario o addirittura di un’unica creatura digitale, inducono preoccupazioni e domande […]

In questo magma di suggestioni e paure finisce sempre per emergere un’orgogliosa rivendicazione: noi esseri umani siamo migliori delle macchine; siamo i loro creatori e, per quanto possano essere abili a governare miriadi di calcoli, non avranno mai quel di più che solo la razza umana ha. Cosa sia il di più, è difficile a dirsi, essendo prima ancora difficile da pensare e definire. Per restare sul sicuro, si potrebbe affermare che il di più della razza umana sta nella sua umanità, cui si assocerebbe un’inimitabile capacità di stare al mondo e di capirne la complessità che nessun’altra specie, corporea o incorporea, possiede. La conferma dovrebbe essere di tipo empirico: se gli umani sono diventati padroni del pianeta, vuol dire che sono migliori di qualsiasi altro concorrente […]”.

E questa era la fine:

Si è partiti da un assioma: noi esseri umani siamo meglio delle macchine, proprio perché siamo umani. Si è verificato che noi esseri umani commettiamo inevitabilmente numerosi errori di giudizio, proprio perché siamo umani. Una sola cosa si può quindi dire: può essere che l’umanità renda gli esseri umani più adatti delle macchine a giudicare i loro simili; è certo che questa superiorità, se c’è, non può essere fondata sulla nostra infallibilità”.

In mezzo c’erano alcune evidenze della fallibilità dell’essere umano giudice.

Si torna adesso su quella domanda e ciò che le sta intorno.

Lo spunto è dato dalla lettura di due interessanti e bene argomentate riflessioni.

Hanno in comune l’attenzione all’impiego dell’IA nei processi decisori del giudizio penale.

La prima è di Sergio Lorusso (S. Lorusso, La sfida dell’intelligenza artificiale al processo penale nell’era digitale, in Sistema Penale, 28 marzo 2024, consultabile a questo link).

L’Autore si interroga su quale sia “lo spazio da riservare all’AI nel processo penale, specie quando si fa leva sui suoi punti cardinali” e rileva subito dopo l’esistenza di due prospettive agli antipodi tra loro.

La prima, che Lorusso denomina “Il processo penale nelle mani dell’AI…”, dà vita ad uno “scenario, che si può definire “catastrofico-apocalittico”, caratterizzato dall’oscuro presagio della fine del processo penale come noi attualmente lo conosciamo, di un medioevo prossimo venturo della “giurisdizione degli uomini”, di una giustizia terrena irrimediabilmente soggiogata all’AI, preda di un’entità digitale “superiore” che ne detti tempi, modi e risultati. Scenario congeniale […] a un sistema politico autoritario – se non dispotico – che potrebbe persino arrivare a colpire i crimini prima che gli stessi si realizzino […], come accade nel summenzionato film Minority Report di Steven Spielberg […] Affidato a tre esseri umani mutanti con poteri paranormali, denominati pre-cog, il sistema – ritenuto «perfetto» dai suoi gestori («se c’è un errore, è umano») – dimostrerà però le sue debolezze rivoltandosi inaspettatamente contro il responsabile dell’unità speciale. Il messaggio che emerge, al di là del plot narrativo, è quello di palese sfiducia nei confronti di ciò che si propone come in grado di sostituire e di superare le performance dell’umano”.

La seconda prospettiva, denominata … o l’AI al servizio del processo penale?”, sottende il ricorso “allo standard “debole” della AI, la c.d. “weak AI.” Vale a dire alla sua configurazione che implica l’attribuzione alle macchine di compiti abitualmente appannaggio dell’intelligenza umana, ma senza un “assorbimento” delle dinamiche del pensiero dell’uomo nell’elaboratore elettronico e, dunque, senza un possibile “asservimento” del primo al secondo. L’AI, in altri termini, ha una semplice funzione di supporto del tradizionale organo giudicante costituito pur sempre da esseri umani”.

Beninteso, ricorda Lorusso, “Appare necessario, invece, che l’uso dell’AI venga regolamentato, preferibilmente a livello globale (perché si tratta di una tecnologia il cui impiego travalica per sua natura limiti geografici e confini territoriali), e che – nello specifico – le potenziali applicazioni in ambito processuale vengano parimenti e accuratamente regolate, evitando l’improvvido far west normativo che ha caratterizzato per lungo tempo il mondo di Internet in nome di una pretesa libertà per tutti che si è trasformata di fatto in una prevaricazioni da parte di pochi (i più potenti)”.

Vanno in questa direzione, a suo giudizio, gli sforzi regolatori dell’Unione europa, culminati nell’AI Act, così come le sempre attuali tre leggi della robotica di Isaac Asimov che disegnano la “primazia dell’essere umano sulle “creature artificiali” dallo stesso plasmate” e che inviano “Un chiaro messaggio, che non è di rifiuto aprioristico del progresso tecnologico e dei vantaggi che ci può riservare (figlio di un oscurantismo fine a sé stesso e fuori tempo), bensì di accettazione realistica delle trasformazioni che il fluire della civiltà reca immancabilmente con sé con la consapevolezza – per tornare al nostro tema – della necessità di fissare dei paletti affinché l’uso dell’AI non debordi in abuso. È questa la scommessa, per niente facile, dei prossimi anni”.

La seconda riflessione è di Nunzio Gallo (N. Gallo, La motivazione “artificiale”, in Archivio penale, 27 ottobre 2025, scaricabile a questo link).

Se ne ricavano parecchi elementi di interesse, ovviamente tarati specificamente, data la visuale dello scritto, sulle possibili interferenze dell’IA nella motivazione.

L’Autore, richiamando al pari di Lorusso un recente saggio di cui è coautore il sempre lucidissimo Henry Kissinger, (Kissinger, Schmidt, Huttenlocher, L’era dell’intelligenza artificiale. Il futuro dell’identità umana, Milano, 2023), constata l’esistenza di tre possibili atteggiamenti verso l’IA: confinarla (rifiuto), collaborare con essa, rimettersi ad essa (fideismo acritico).

Prefigura una possibile utilità d’uso dell’IA come rafforzamento del percorso guidato tracciato dal legislatore nell’art. 192, cod. proc. pen: servirebbe, cioè, per elaborare criteri identificativi delle prove fallaci, cercare eventuali elementi di riscontro per tali prove e, in caso di ricerca negativa, suggerire al giudice l’assoluzione. Si tratterebbe, dunque, di un compito ‘consulenziale’, all’insegna del principio del favor rei.

Senonché, osserva Gallo, un simile impiego sarebbe rischioso se lo si intendesse al contrario e ciò avverrebbe tutte le volte che l’IA suggerisse al giudice prognosi sfavorevoli per l’accusato, ad esempio considerandolo persona socialmente pericolosa e quindi manifestando parere contrario alla sua rimessione in libertà.

Quale giudice – si chiede giustamente l’Autore – pur convinto del contrario, si accollerebbe il rischio di una decisione diversa di quella considerata corretta l’IA?

Lo scritto prosegue con l’esposizione delle difficoltà elevatissime cui si andrebbe incontro ove si volesse creare una ‘macchina’ IA capace di servirsi criticamente dei dati che il giudice deve usare per decidere e motivare la sua decisione: “Questa massa di dati di esperienza su cui si basa la valutazione delle prove, è possibile inserirla tutta all’interno di una macchina? O meglio, la scienza sarà in grado di sviluppare e fornire al giudice algoritmi capaci di includere tutte le possibili sfaccettature, tutte le sfumature concrete che le prove possono presentare, in ogni situazione processuale? E nello specifico, potrà esistere una macchina capace di valutare motivando qualunque tipo di indizio, qualunque tipo di dichiarazione di coimputato, qualunque altro tipo di prova atipica? La risposta sembrerebbe prima facie negativa poiché è sicuramente operazione tecnico-giuridica di non poco momento realizzare artificialmente questa caratteristica fondamentale del ragionamento probatorio”.

E anche ammesso che il tentativo riuscisse “ci si troverebbe così al cospetto di sentenze corredate da motivazioni ridotte ad istruzioni e nella specie ad algoritmi finalizzati ad insegnare alla machine a ragionare come ragionano i giudici ed in particolare ad utilizzare le massime di esperienza nello stesso modo in cui ragionano e motivano i giudici. Bisognerebbe insegnare inoltre all’ordigno artificiale ad adattare le massime di esperienza al caso concreto di volta in volta sottoposto allo scrutinio giudiziale onde evitare – o quantomeno limitare – conseguenze paradossali, che pur accadono nella prassi nonostante, ad oggi, il Giudice ragioni ancora con il proprio intelletto”.

E se anche questo step fosse compiuto, sarebbe imprescindibile comprendere in che modo opera la tecnologia immessa nell’IA.

Si dovrebbe fronteggiare a questo punto il problema della cosiddetta “black box” (scatola nera) che opera su due piani: è quasi impossibile, allo stato attuale delle conoscenze, “ottenere e ripercorrere i percorsi logici fatti dalla macchina (l’informatico direbbe risalire dall’output all’input)” sulla base dell’imponente quantità di informazioni indispensabili perché sia capace di ragionamenti probatori adeguati allo standard richiesto; se questi percorsi logici sono ignoti agli informatici, saranno tali anche per le parti con la conseguente compromissione del diritto di impugnare la decisione sfavorevole che è parte essenziale del diritto di difesa.

Viene intaccata nel profondo, in altri termini, la funzione della motivazione quale strumento controllabile e ove occorra contestabile di conoscibilità dell’iter argomentativo e valutativo posto dal giudice a fondamento della sua decisione.

Si prospetta infine un’ultima e imponente difficoltà.

Se anche ognuna delle sfide precedenti fosse superata grazie ai progressi della tecnologia, come potrebbe comunque concepirsi di affidare all’IA la sorte di un essere umano?

Come si potrebbe immaginare di rinunciare al postulato – la “riserva di umanità” – il quale pretende che gli esseri umani siano valutati e giudicati da altri esseri umani?

Con queste domande e con gli auspici finali si compie lo scritto di Nunzio Gallo e come tale lo si consegna ai lettori, unitamente a quello di Sergio Lorusso.

È quindi il momento di concludere ma prima si ritiene necessaria un’osservazione che nasce dalla consapevolezza dell’esistenza, testimoniata dallo stesso Gallo in apertura del suo scritto, di più modi di intendere lo scopo della motivazione.

C’è quello classico e ortodosso (Gaito, tra gli altri) che le assegna la funzione di giustificare la decisione e confutare le tesi diverse da quella prescelta.

Ma c’è anche quello anticonformista e, per certi versi, ‘eversivo’ (Amodio eIacoviello) che la riduce a mero artificio retorico volto a razionalizzare a posteriori la decisione.

In altri termini: secondo la prima teoria il giudice decide sulla base di certe ragioni che poi esplicita nella motivazione; per la seconda teoria il giudice decide e basta e poi seleziona la motivazione che meglio giustifica, a cose avvenute, la propria decisione.

Pare chiaro allora, se le cose hanno un senso, che le mille remore, comprese quelle etiche, all’utilizzo totalizzante dell’IA anche nel ‘nucleo duro’ del giudizio, composto da decisione e motivazione, valgono solo se si ritiene valida la prima teoria e con essa l’assunto della decisione come atto umano consapevole e razionale.

Se invece si propendesse per la seconda, il cui fondamento è l’inconoscibilità del processo decisionale perfino per il suo stesso artefice, quelle remore non dovrebbero valere più.

Alla black box dell’IA si aggiungerebbe infatti quella umana e allora tanto varrebbe affidarsi alla prima che, dalla sua, può vantare una capacità di processare, elaborare e mettere in fila dati con cui gli umani non possono competere neanche alla lontana.

È un problema da terzo millennio la cui soluzione richiede agli umani di comprendere se stessi come pre-condizione per comprendere le macchine che sono in grado di creare.

L’avevano già capito gli illuminati pensatori di millenni fa quando chiesero appunto all’uomo di conoscere se stesso.