di 

Giustizia digitale

Come gli algoritmi predittivi cambieranno l'amministrazione della Giustizia

Sebbene nel nostro Paese la questione venga affrontata solo a livello teorico, in ambito europeo e, soprattutto, americano gli algoritmi predittivi trovano largo impiego e da meri strumenti di lavoro di supporto alle professioni legali essi si stanno sempre più trasformando in veri e propri agenti di intelligenza artificiale in grado di sostituirsi al giudice nella decisione dei casi

Foto di pjan vandaele rilasciata sotto licenza cc - https://www.flickr.com/photos/pjanvandaele/4058055306

Nel febbraio 2013 Eric Loomis, cittadino statunitense, veniva arrestato per due reati che in Italia potremmo qualificare come ricettazione (di un’auto) e resistenza a pubblico ufficiale.

Per tali fatti Loomis veniva condannato alla pena di sei anni di reclusione, una pena particolarmente severa determinata sulla scorta dell’alto punteggio ( score) risultante a suo carico da COMPAS (Correctional Offender Management Profiling for Alternative Sanctions ), un algoritmo predittivo di valutazione del rischio di recidiva.

Loomis impugnava la sentenza della corte distrettuale sostenendo che l’utilizzo da parte del Giudice di primo grado di un algoritmo predittivo per addivenire alla decisione di condanna avesse violato le garanzie del giusto processo ( right to due process) in quanto COMPAS è un algoritmo proprietario, il cui meccanismo di funzionamento - che si basa sulla raccolta e sull’elaborazione dei dati emersi dal fascicolo processuale e dall’esito di un test a 137 domande a cui viene sottoposto l’imputato riguardanti età, attività lavorativa, vita sociale, grado di istruzione, legami, uso di droga, opinioni personali e percorso criminale - non è pubblicamente noto e dunque la sua validità scientifica non accertabile.


Questo articolo è uno degli approfondimenti raccolti nel FPA Annual Report 2016. La pubblicazione è gratuita, ma per scaricarla è necessario essere iscritti alla community di FPA. Scarica FPA Annual Report 2016.


Lo scorso luglio la Corte Suprema del Wisconsin , pronunciandosi sul ricorso, ha dichiarato, all’unanimità, la legittimità dell’uso giudiziario di algoritmi che misurano il rischio di recidiva specificando, tuttavia, che lo strumento non può essere l’unico elemento su cui si fonda una pronuncia di condanna: “… while our holding today permits a sentencing court to consider COMPAS, we do not conclude that a sentencing court may rely on COMPAS for the sentence it imposes ”.

Il caso in esame consente di fare alcune riflessioni sull’utilizzo sempre più prorompente degli algoritmi predittivi nell’amministrazione della Giustizia. I primi studi sulla calcolabilità del ragionamento giuridico possono essere ricondotti a Leibniz, più precisamente alla sua “Ars combinatoria”, pubblicata nel 1666, ma ovviamente è solo dagli anni ’60, con lo sviluppo dell’informatica, che è cominciata l’elaborazione di programmi tesi a riprodurre in maniera automatizzata la logica giuridica.

Sebbene nel nostro Paese la questione venga ancor oggi affrontata solo a livello teorico, in ambito europeo e, soprattutto, americano gli algoritmi predittivi trovano largo impiego e da meri strumenti di lavoro di supporto alle professioni legali essi si stanno sempre più trasformando in veri e propri agenti di intelligenza artificiale in grado di sostituirsi al giudice nella decisione dei casi. È, per esempio, di pochi giorni fa la notizia di un algoritmo sviluppato dalla University College di Londra e dall'Università di Sheffield che, nell’ambito di una ricerca sperimentale, è risultato capace di predire i verdetti della Corte europea dei Diritti dell’Uomo con un grado di precisione pari al 79%.

Rimanendo nell’ambito penale, negli Stati Uniti gli algoritmi predittivi del rischio di recidiva vengono da decenni abitualmente utilizzati nella fase preliminare al giudizio per la determinazione della cauzione, in fase decisoria per la valutazione dell’eventuale definizione del procedimento con una sentenza di probation (simile, ma non del tutto sovrapponibile, al nostro istituto della messa alla prova) ed in fase esecutiva per la valutazione della concessione della parole (equiparabile alla nostra liberazione condizionale).

La profonda novità della recente pronuncia della Corte Suprema del Wisconsin sta nel fatto che il programma COMPAS è stato utilizzato dalla Corte distrettuale nel percorso valutativo a fondamento di un giudizio di condanna quale elemento determinante per quantificare (inasprendola) la pena inflitta all’imputato. È evidente come l’incidenza dell’algoritmo nella vita dell’uomo in questa ultima ipotesi sia di gran lunga maggiore rispetto all’uso che veniva fatto in precedenza e, conseguentemente, i suoi effetti siano potenzialmente molto più pericolosi.

I fautori dell’uso degli algoritmi predittivi nell’amministrazione della Giustizia penale sottolineano come essi siano in grado di razionalizzare il processo decisionale estrapolando tutte le informazioni pertinenti al caso in modo più efficiente rispetto al cervello umano in tal modo garantendo un migliore equilibrio tra le contrapposte esigenze di riduzione della carcerazione e sicurezza pubblica. Non solo, i promotori sostengono che gli strumenti informatici di valutazione del rischio possano efficacemente contribuire a frenare la storia di razzismo e discriminazione insita nel sistema giudiziario penale americano.

Paradossalmente, l’argomento razziale vale anche in senso opposto atteso che da alcune analisi sul funzionamento degli algoritmi predittivi, in particolare proprio di COMPAS , è emerso che gli imputati neri sono risultati avere uno score più altro rispetto a quello reale e che i non recidivi neri hanno quasi il doppio delle probabilità di essere erroneamente classificati come a rischio più elevato rispetto ai loro omologhi bianchi.

È stato inoltre osservato che il più grosso limite degli algoritmi predittivi è rappresentato dal fatto che si basano su di un metodo statistico, per cui i punteggi di rischio sono correlati ad una probabilità di recidiva generica (calcolata su casi simili) ed non alla probabilità specifica che quel determinato soggetto a cui l’algoritmo viene applicato commetta in futuro un altro reato.

Quest’ultima considerazione coglie l’essenza del problema, il quale può essere ricondotto ad un’unica domanda: è accettabile depersonalizzare il procedimento che conduce ad una sentenza penale di condanna, ovverosia una delle decisioni (unitamente a quelle mediche) che più profondamente incidono sulla vita dell’uomo?

Per fortuna il sistema giudiziario italiano rifugge sia il cd. diritto penale d’autore che qualsiasi tipo di processo decisionale automatizzato.

Il riferimento è, da un lato, all’art.220, comma 2, del codice di procedura penale, secondo cui non è ammessa perizia per stabilire l'abitualità o la professionalità nel reato, la tendenza a delinquere, il carattere e la personalità dell'imputato e in genere le qualità psichiche dell’imputato indipendenti da cause patologiche, dall’altro, all’art.14 del codice privacy (trasfuso nell’art. 22 del nuovo Regolamento europeo in materia di protezione dei dati personali che entrerà in vigore in tutta l’UE il 25 maggio 2018) il quale stabilisce che nessun atto o provvedimento giudiziario o amministrativo che implichi una valutazione del comportamento umano può essere fondato unicamente su un trattamento automatizzato di dati personali volto a definire il profilo o la personalità dell'interessato.

Vedremo nei prossimi anni quale sarà l’effettiva resilienza del nostro sistema giuridico agli algoritmi predittivi giudiziari.