Mariangela Miceli: Il ragionevole dubbio sugli algoritmi in tribunale

Ottenuta la piena transitività, grazie al digitale ed all’Intelligenza Artificiale, del mondo reale nel mondo virtuale, quali effettivi rischi corre l’umano?

La libertà di volere, la libertà di affermarsi che fonda e legittima il riconoscimento dell’essere umano quale essere senziente e che risponde ad impulsi emozionali. Non dimentichiamo che finché si resta nel campo delle prestazioni, forse, dico forse, l’IA potrà essere più efficiente dell’uomo.

Ma la commistione mondo reale nel mondo virtuale sta eliminando ciò che di fatto caratterizza l’uomo, ovvero: le prestazioni che mettono in gioco la persona e, segnatamente, il suo corpo, la sua libertà.

Visori, sensori, avatar. Molto viene offerto come un gioco divertente e coinvolgente. Perché mai i più non comprendono che quella che reputano la propria esperienza sensoriale, in realtà, non è più la “propria”?

Perché ciò che vivono è comunque reale, rientra in ciò che appaga i loro sensi e la loro mente. Probabilmente ricreando quella comfort zone nella quale si sentono al sicuro. Mettersi in gioco è difficile, non vi è alcun dubbio che rimanere dietro uno schermo o un avatar ammette l’esistenza di uno scudo virtuale che protegge dal mondo fuori che appare sempre più lontano da istanze sociali e immune dinnanzi alle emozioni. E’ il mondo delle performance, nel quale non è permesso arrivare terzi o quarti, figuriamoci ultimi. Se dietro ad un gioco divertente arriviamo per primi, avrò sconfitto il mondo lì fuori. Certo, il rischio, ormai concreto è di ritrovarsi con un’umanità che ha ormai ridotto l’uomo oggetto tra gli oggetti.

Lei ha dedicato un saggio alle connessioni pratiche ed etiche che le nuove tecnologie, innanzitutto l’intelligenza artificiale, cagionano in ambito processuale e giuridico. Quali sono i mutamenti più eclatanti in atto?

La giustizia penale rappresenta l’ultimo grande terreno di conquista dell’intelligenza artificiale. Non vi è dubbio che ormai, la stessa intelligenza artificiale sia diventata strumento di uso comune all’interno dei mezzi di ricerca di prova. Si può immaginare l’uso di intelligenza artificiale che possa coadiuvare i periti nominati dal giudice nella ricerca di prove e nell’assistere lo stesso nella decisione da assumere nel caso dell’accertamento della imputabilità di un imputato. L’accertamento in ordine all’imputabilità, per esempio,  è stato oggetto di approfondite analisi da parte di esperti in psichiatria e psicologia che hanno condotto a risultati interessanti.

Secondo la giurisprudenza della Suprema Corte è, pertanto, onere del decidente individuare l’elaborato peritale che sia contraddistinto dai caratteri di maggior completezza, accuratezza e conformità alla migliore e più recente letteratura scientifica nelle comunità di riferimento.

Le tecnologie riproducono in modo sempre più preciso le facoltà umane. Ebbene, pensa che sia possibile che in Tribunale a giudicare gli imputati vi sia un algoritmo e che si celebri “Il processo artificiale”?

In merito richiamo lo storico Caso Loomis nel quale una discussa sentenza del 2016 la Corte Suprema del Wisconsin si è pronunciata sull’appello del sig. Eric L. Loomis, la cui pena a sei anni di reclusione era stata comminata dal Tribunale circondariale di La Crosse. Nel determinare la pena, i giudici avevano tenuto conto dei risultati elaborati dal programma COMPAS (Correctional offender management profiling for alternative sanctions) di proprietà della società Northpointe (ora Equivant), secondo cui Loomis era da identificarsi quale soggetto ad alto rischio di recidiva. Ebbene lì ci si è trovati in un vero e proprio processo artificiale, nel quale è un algoritmo che ha deciso se vi fosse recidiva o meno. Vi è da precisare che il quel caso la Corte però ha individuato i limiti dell’uso del software: “1) la comminazione di misure alternative alla detenzione per gli individui a basso rischio di recidiva; 2) la valutazione della possibilità di controllare un criminale in modo sicuro all’interno della società, anche con l’affidamento in prova; 3) l’imposizione di termini e condizioni per la libertà vigilata, la supervisione e per le eventuali sanzioni alle violazioni delle regole previste dai regimi alternativi alla detenzione”.[ Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, Case no. 2015AP157-CR, 5 April – 13 July 2016, in Giurisprudenza Penale]

All’IA manca il pensiero astratto e creativo (IA “forte”). Tenendo salda questa asserzione, può definire la “libertà”?

La Convenzione europea dei diritti dell’uomo e la Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati di carattere personale (adottata a Strasburgo il 28 gennaio 1981 e resa esecutiva in Italia con l. 21 febbraio 1989 n. 98), affermano che il rispetto dei diritti fondamentali si realizza assicurando che l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali, menzionando esplicitamente quelli concernenti l’accesso al giudice ed all’ equo processo. Pertanto, la Libertà non può mai sfociare nel sacrificio dei diritti inviolabili e fondamentali.

Le “intelligenze artificiali forti”, in  grado di pensare in modo astratto, creativo, complesso e sentire, provare emozioni, sono traguardi (o fantasmi) non ancora effettivi.

Pur non dimeno, i continui progressi tecnologici, non possono rendere la vita degli individui solo come mezzo per raggiungere un fine o uno scopo. La corrente di pensiero contemporanea definita Postumano ha come obiettivo l’abolizione del confine tra l’essere biologico – dotato di coscienza e ragione – e la macchina.

Ma se da un lato sta riscuotendo molto successo, dall’altro ci rivela quanto pericoloso sia teorizzare l’evoluzione dell’uomo solo come un cyborg.

 

 

Mariangela Miceli

Avvocato, cultrice della materia in diritto processuale penale presso l’Università degli studi di Palermo. Membro dei Giuristi per le libertà dell’associazione Luca Coscioni e contributor per il blog Econopoly24 del Sole24ore.

Giuseppina Capone

 

 

 

 

 

 

 

seers cmp badge