2° paragrafo tratto da “Dal Giudice-robot all’Avvocato-robot: l’A.I. al servizio dell’uomo (o l’uomo al servizio dell’A.I.) per un processo penale più giusto?” (CLICCA QUI PER LEGGERE IL 1° PARAGRAFO)
di AVV. TOMMASO ROSSI
Il termine “giudicare” significa pronunciare il diritto (ius dicere), e per farlo è necessario conoscere in quali termini si è realmente svolto un fatto, per poi inquadrarlo all’interno di un paradigma giuridico.
La prima delle due operazioni è quella che ci fa più difetto: l’uomo non è in grado di conoscere con esattezza la verità storica.
Il sistema delle giustizia penale, che non può ancorare la punizione di fatti che ledono beni giuridicamente tutelati alla sola certezza della verità storica, ha dunque optato per una rappresentazione fondata su regole e garanzie, affidata ad un soggetto terzo e imparziale, all’esito della quale si perviene ad una conclusione che la collettività è (o dovrebbe essere) disposta ad accettare come vera1.
Ciò in quanto essa è percepita dalla collettività come lo strumento meno imperfetto per giungere alla verità, in un determinato contesto storico (connotato da condizioni culturali e scientifiche ad esso riconducibili).
Ecco, in ciò, l’applicazione dell’A.I. alla giustizia penale potrebbe rappresentare un cambio di strumenti a disposizione, più che di vero e proprio paradigma gnoseologico, considerando che consentirebbe di sostituire le ontologicamente limitate garanzie controfattuali del diritto con le garanzie fattuali della tecnologia, potenzialmente assolute e perfette, evitando al contempo ogni condizionamento culturale, personale o cognitivo che può inquinare la decisione umana.
L’A.I. sarebbe, dunque, il coronamento degli obiettivi del diritto penale, primo fra tutti una miglior tutela dei beni giuridici?
Certo, si potrebbe obiettare, ma a quale prezzo?
L’Intelligenza artificiale potrebbe portare alla morte degli ideali del diritto penale, o forse addirittura del diritto penale stesso, quantomeno di quello tipico di una società liberale, fondato sulla presunzione di innocenza. E, oltretutto, rischierebbe di sostituire i limiti cognitivi e valoriali dell’uomo (per sua stessa natura fallibile, e dunque anche più facilmente rivalutabile da altro uomo nelle proprie decisioni) alla ricerca della verità processuale, con una una decisione frutto di limiti altrettanto grandi (si pensi a tutta la questione del c.d. “bias in, bias out”), ma meno evidenti. Una decisione più subdolamente ammantata di certezza assoluta per il solo fatto di provenire da una macchina2, ma in verità ancora più imperfetta.
I c.d. Automated decision systems, ovverosia algoritmi basati sull’A.I., sono già da qualche anno utilizzati per finalità decisionali in vari ambiti, sia pubblici (ad esempio nel settore degli appalti pubblici o dell’assistenza sanitaria)3 che privati, si pensi, ad esempio, al settore assicurativo, dove i sistemi di A.I. vengono utilizzati per la valutazione del rischio assicurabile del cliente e a quello finanziario, dove si va diffondendo sempre più la figura del c.d. robo advisor, che acquisisce i dati direttamente dal cliente ed elabora giudizi di investimento in modo autonomo, senza alcun intervento umano4.
In ambito giudiziario gli algoritmi decisionali sono perlopiù utilizzati nel campo civilistico (tra cui risarcimento danni, pratiche assicurative, danni da prodotto, etc.) e in particolare nella negoziazione volta a prevenire o comporre controversie. Non è un caso che, in Paesi quali gli Stati Uniti dove lo strumento della negotiation è particolarmente utilizzato, l’utilizzo dell’A.I. è già ad un livello di diffusione piuttosto capillare.
In sostanza, si tratta di sistemi di A.I. che attingono e processano una straordinaria mole di dati contenuti in banche dati relativi a precedenti giudiziari e accordi stragiudiziali, identificando analogie e differenze al caso concreto, e giungendo ad un risultato tendenzialmente oggettivo ovvero privo di pregiudizi valutativi.
Anche in altri Paesi, come l’Estonia, il giudice-robot è già da tempo realtà.
Dal 1997, lo stato nordico ha avviato il progetto “e-Estonia”, diventando così a livello mondiale un modello di evoluzione tecnologica.
Attraverso la piattaforma digitale “X-road” si possono comporre controversie giudiziarie del valore massimo di settemila euro. Le parti di un contenzioso inseriscono tutti i dati, gli atti e i documenti rilevanti, affidando ad un algoritmo, appositamente elaborato da un team di esperti di nomina governativa, la soluzione del caso.
Modalità similari di utilizzo sarebbero potenzialmente applicabili, con necessari adattamenti, anche alla giustizia penale.
Siamo però ancora nel campo dell’intelligenza artificiale al servizio dell’uomo. Sul punto, la già citata Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi giudiziari5, ha appunto rimarcato l’importanza del principio di garanzia del controllo umano, per evitare l’automatismo e la standardizzazione delle decisioni assunte.
Così, nel descritto sistema “e-Estonia”, al fine di garantire il controllo umano sulla decisione automatizzata, è sempre riconosciuto il diritto delle parti ad impugnare la sentenza del giudice-robot avanti ad un giudice umano.
Altro punto fondamentale, è la garanzia del controllo del soggetto nei cui confronti la decisione va ad incidere sui processi algoritmici utilizzati dalla macchina.
Ma non è questo richiesto anche all’amministrazione della giustizia affidata ai giudici umani? Il procedimento giurisdizionale di per se stesso richiede che il popolo, in nome del quale è amministrata la giustizia, possa conoscere come operi l’organo terzo e imparziale cui la stessa è affidata. E se la collettività è insoddisfatta di come l’amministrazione della giustizia opera, attraverso il potere legislativo cambia le regole che il giudice applica6.
Provando a traslare tutto il ragionamento a sistemi di I.A. ci accorgiamo che le differenze non sono (e non sarebbero) poi così tante.
Tali tematiche sono salite alla ribalta in riferimento al noto “caso Loomis”7, dal nome dell’imputato- la cui pena era stata commisurata sulla base dell’algoritmo COMPAS, acronimo di Correctional Offender Management Profiling for Alternative Sanctions– che aveva fatto ricorso alla Corte Suprema del Wisconsin per violazione del suo diritto ad un giusto processo (right to due process). In particolare lo stesso lamentava di non poter controllare i processi algoritmici poiché protetti da segreto industriale, nonché di essere stato giudicato sulla base del solo algoritmo predittivo COMPAS, contestato in quanto effettuava valutazioni non individualizzate, ma su base collettiva/di gruppo e sovrastimando il rischio commissione di reati a carico di alcune minoranze etniche8. La Corte respingeva il ricorso sulla base dell’argomentazione che non esiste un diritto dell’individuo “alla spiegazione” rispetto ad una previsione algoritmica del rischio (in quel caso relativo alla recidivanza).
Al di là della motivazione della sentenza, ossia la spiegazione dell’iter logico-giuridico seguito da un giudice per giungere ad una pronuncia assolutoria o di condanna, possiamo forse dire che esiste un diritto dell’individuo a conoscere i percorsi neurali del cervello del giudice umano, la sua formazione personale/ familiare/ sociale/ culturale, i suoi condizionamenti, le sue passioni, i suoi gusti, le sue idee che lo hanno portato a decidere in quel modo?
Ovviamente, la risposta è no.
E, anche in questo caso, ci accorgiamo che le opinioni critiche verso l’utilizzo dell’A.I. che fanno leva su questo ordine di ragioni, sono confutate da quanto già avviene nella giustizia amministrata da giudici uomini.
1Cfr. G. Giostra, Prima lezione sulla giustizia penale, Editori Laterza, Bari, 2020, p.4 ss., secondo cui «il processo è, dunque, un ponte tibetano che consente di transitare dalla res iudicanda, cioè la “cosa” da giudicare, alla res iudicata, cioè la decisione, che deve essere tenuta dalla collettività pro veritate (res iudicata pro veritate habetur)».
2Per un approfondimento su questi interrogativi, si veda C. Burchard, “L’Intelligenza artificiale come fine del diritto penale? Sulla trasformazione algoritmica della società” in Rivista italiana di diritto e procedura penale,Vol. 62, n. 4, 2019 pag. 1909-1942.
3Sull’utilizzo degli automated decision systems nella P.A. in Italia e in Argentina, si veda D.U. Galetta, J.G. Corvalàn, Intelligenza Artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in federalismi.it, Rivista di diritto pubblico italiano, comparato, europeo, n. 3, 6 febbraio 2019, secondo i quali il punto fondamentale è quello di poter sempre mantenere un controllo umano che consenta di stabilire in che modo l’algoritmo di Machine Learning sia arrivato ad una determinata decisione, ovverosia identificare in maniera chiara quali fattori abbiano condotto la macchina ad un certo risultato, evitando il fenomeno della c.d. “scatola nera”. Tale prospettiva porta gli autori a ritenere problematica l’idea che la Pubblica Amministrazione, nel porre in essere le attività ad essa attribuite dall’ordinamento in ossequio al principio di legalità, possa fare ricorso ad algoritmi di machine learning per adottare decisioni che incidono sulle posizioni giuridiche soggettive dei destinatari dell’azione amministrativa.
4Su tale ultimo aspetto, si veda E. Corapi, Robo advice, in G. Alpa (a cura di), Diritto e intelligenza artificiale, Pacini Giuridica, Pisa, 2020, p. 549 ss.
8Sul punto, si vedano C. Burchard, op. cit., p. 1925; E. Istriani, Algorithmic Due Process: Mistaken Accountability and Attribution in State v. Loomis, in Harvard JOLT Digest, 31 agosto 2017; S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giur. Pen. Web, 24 aprile 2019, consultabile online all’indirizzo https://www.giurisprudenzapenale.com/2019/04/24/lamicus-curiae-un-algoritmo-chiacchierato-caso-loomis-alla-corte-suprema-del-wisconsin/