Predictive: l’algoritmo che condanna
Sommario: I. Introduzione – II. L’avvento del Pensiero Ibrido nella Quarta Rivoluzione Informazionale – III. Predictive: l’algoritmo che condanna – IV. L’ordinamento italiano: tra tradizione ed evoluzione – V. L’intelligenza artificiale diventa la migliore amica dell’avvocato – VI. Conclusioni
I. Introduzione
Negli ultimi tempi si sente spesso ripetere che l’accelerazione dirompente della tecnica e l’interazione tra uomo e robot porterà, da qui a qualche anno, alla c.d. metamorfosi tecnologica. Già negli anni ’90 Christensen utilizzava il termine di Disruptive Innovation (1), disegnando metaforicamente la dirompente onda d’urto provocata dall’innovazione digitale. Addirittura, Richard Susskind (2), consigliere informatico presso il Lord Chief Justice, parlò di Disruptive Legal Technologies, mostrando un tono di vittoria dei personal computer contro la sconfitta dell’uomo, annunciando che, inevita- bilmente, avremmo assistito alla fine di molte professioni liberali, comprese quelle legali, fine causata dall’implementazione pervasiva dell’intelligenza artificiale.
Al fine di esporre una tesi che riconosce nella Tecnoscienza la chiave di volta per porre al servizio dell’umanità intera l’innovazione tecnologica, da intendere come un mezzo e mai come un fine, è bene fare qualche passo indietro nel tempo per provare a rispondere alle domande poste a titolo di tale saggio.
Erano gli anni della seconda guerra mondiale quelli nei quali furono realizzate le prime macchine automatiche, programmate attraverso i c.d. controlli automatici adattivi. Proprio Norbert Wiener, il padre fondatore della scienza cibernetica, pose le basi per l’automation con la creazione dei missili terra area e non solo, strada questa che preannunciava già allora la terrificante conseguenza che le fabbriche venissero popolate da robot ed il personale dimezzato, bastando solo un uomo che pigias- se il pulsante On per attivare a distanza il funzionamento di un’intera miniera: Gubernator, il timoniere. È da attribuire a Wiener l’idea di applicare i calcolatori al mondo del diritto attraverso i c.d. servomeccanismi. Sempre in quegli anni, Loevinger (3), magistrato e avvocato statunitense, propose di sfruttare i vantaggi offerti dalle nuove tecnologie elettroniche per studiare e risolvere i problemi giuridici.
Ma gli scienziati che hanno fatto la storia hanno sempre inteso l’innovazione tecnologica come un potenziamento che migliorasse la vita degli uomini e proprio Wiener pose le linee guida del suo lavoro nell’opera L’Uso Umano degli Esseri Umani (4), così sfuggendo ogni tentazione dal porre al centro la Machine à Gouverner e annullando ogni dubbio su quale dovesse essere la strada che il futuro tecnologico avrebbe dovuto intraprendere.
I tempi che viviamo possono ben contestualizzarsi in una data epoca storica: l’Iperstoria (5). Se fino a dieci anni fa pensare ad un’automobile che si potesse guidare da sola era per noi fantascienza, oggi tutto ciò non ci sconvolge più di tanto. Ma fintanto che possiamo apprezzare le positività di essere trasportati senza stressarci alla guida, ben poco riusciamo ad accettare di non essere i fautori del nostro destino, e ciò in quanto finché si tratta delle libere scelte di liberi cittadini potrebbe anche an- dar bene lanciare una monetina, ma quando si ha a che fare con le scelte di giustizia pubblica tutto cambia radicalmente.
II. L’avvento del Pensiero Ibrido nella Quarta Rivoluzione Informazionale
Partendo dal presupposto che l’Homo Tecnologicus si pone quale estrinsecazione naturale dell’uomo protesi, come potrebbe la tecnologia sostituire il giurista? E se la tecnologia si pone come un ponte tra l’uomo ed il suo potenziamento nel mondo, pensare che un algoritmo possa sostituire l’ars cogitans che da sempre distingue l’essere umano dal mondo animale, non è forse un punto di vista errato? Affermare, addirittura, che una categoria antica quanto le stesse societàs possa estinguersi non è un errore madornale?
Piuttosto, l’accelerazione tecnologica e l’interazione tra uomo e robot ci consigliano di tenersi pronti per l’avvento del Pensiero Ibrido (6) , immaginando quella commistione sublime che porta il suo creatore a fondersi con la sua creatura e con il quale si rende attuale la retorica digitale, ossimoro ambiguo coniato proprio per coniugare la metodologia, la ricerca scientifica, l’abilità intellettuale e la cultura giuridica alla Tecnica. (7)
Attraverso la Giurimetrica di Loevinger e la Legimatica si è riusciti a dar vita all’Informatica Giuridica e al Diritto dell’Informatica, tanto che l’orientamento dominante della dottrina informatica italiana afferma che il diritto, oggi, si esplichi come applicazione informatizzata di norme. Il giurista moderno non è più semplicemente un sacerdote del tempio di Atena, ma si pone quale vero e proprio automa della norma. Infatti, usando i Decision Support Sistem – DSS, il giurista trasfigura sé stesso dal suo studio, dai tribunali per migrare nel Cloud. In Italia, l’esperto del diritto continua ad interpretare le norme entro i classici canoni del sillogismo logico giuridico definiti dall’articolo 12 delle preleggi al codice civile, ma lo manipola ed elabora in formato digitale, così dimostrando di sapersi adeguare ai tempi moderni.
Ma se l’esperienza professionale, sia in riferimento al metodo logico che ai contenuti casistici, è sempre governata dal sillogismo retorico e mai da quello analitico, in quanto l’autentico metodo scientifico che è chiamato ad applicare il giurista è sempre di tipo filosofico (8), come è possibile tra- sporre il diritto ed il ragionamento giuridico in codice binario?
Posto il fatto che Ragionare è calcolare (9), risulta chiaro come la sfida per l’avvocatura contemporanea è proprio quella di dotarsi di strumenti efficaci affinché A.I. possa leggere il diritto. A tale scopo, è stato necessario creare un linguaggio simbolico che coniugasse il linguaggio giuridico a quello elettronico così da poter indicizzare le ricerche in Internet o di realizzare software per la creazione di atti e documenti giuridici e si è dovuti ricorrere alla c.d. logica simbolica di Leibniz (10). Questi, intenzionato a creare un linguaggio universale, ha inaugurato il trionfo della sintassi sulla semantica già nel 1666 nell’opera Dissertatio de Arte Combinatoria (11), nella quale ebbe ad affermare che le parti, un giorno, di fronte ad una disputa, potranno sedersi e procedere ad un calcolo. La logica simbolica ha consentito lo sviluppo di tecniche di omogeneizzazione e di standardizzazione linguistica adatte ai S.E.L. – Sistemi Esperti Legali – tecnologia dell’Informatica Giuridica che è fondamentale per l’operatore del diritto digitale. La stessa viene utilizzata dal Tecnodiritto per raggiungere vari e diversi obiettivi tra cui ritroviamo gli Smart Contract applicati alla Blockchain o i c.d. sistemi di giustizia predittiva.
L’informazione elettronica in tal modo applicata al diritto ridurrebbe incertezza, disordine ed entropia, comportando minori margini di errore e sicuramente giudizi non arbitrali. Ciò in quanto l’algoritmo assicura garanzia di certezza poiché, grazie al Design dei S.E.L., il legislatore può innovare l’ordinamento rendendolo in forma assiomatizzata attraverso l’algebra proporzionale strutturata sul paradigma razionalistico, dando vita a modelli normativi di tipo dichiarativo ispirati a logiche matematiche astratte che conducono a conclusioni logiche e conoscenze implicite basate su postulati certi e dimostrati.
Anche se alcuni hanno affermato che una tale applicazione automatica di norme rappresenterebbe quella riaffermazione dello stato di diritto andata perduta nel tempo a causa dell’enorme mole di norme oscure ed ermetiche che permette la pronuncia di decisioni giudiziarie viziate da arbitrarietà che violano manifestamente il principio di imparzialità, è anche vero che ciò vale per quei processi c.d. semplici e non anche per quelli complessi che richiedono un’interpretazione a sistema delle norme dei singoli ordinamenti. È messa a rischio la stessa certezza del diritto, principio in base al quale ogni persona deve essere posta nella condizione di valutare e prevedere, sulla scorta delle norme generali dell’ordinamento, le conseguenze giuridiche della propria condotta e che costituisce un valore al quale lo Stato deve necessariamente tendere per garantire la libertà dell’individuo e l’eguaglianza dei cittadini davanti alla legge.
III. Predictive: l’algoritmo che condanna
Per giustizia predittiva si intende la capacità di calcolare la probabilità di un esito giudiziario sulla base di un algoritmo, attraverso l’analisi dei precedenti giurisprudenziali, consentendo di quantificare le ragioni di successo o di insuccesso di una certa tesi difensiva o giungere a un provvedimento giurisdizionale.
Usare A.I. in funzione predittiva significa, dunque, far riprodurre ad un software le capacità cogni- tive degli esseri umani. Già l’Università di Cambridge ha cercato di fare analizzare ad un pc dei casi della Corte CEDU: prendendo un numero X di casi, l’elaboratore viene programmato per rispondere alla risoluzione di una questione giuridica con una precisione di risultato del 94% entro un minimo lasso di tempo di risposta, al contrario di 35 giudici che, invece, impiegano tre ore, con una precisione dell’80%. La Corte Superiore di Giustizia di Buenos Aires ha operato lo stesso test tramite Promoteia, un programma che ha risolto ben mille casi in una sola settimana con una precisione del 96%.
È chiaro che la lungaggine dei processi sia in sede civile che penale è certamente, tra tutti, il problema che maggiormente penalizza e paralizza i sistemi giuridici in ogni parte del mondo e proprio per questo motivo l’uso dell’Intelligenza Artificiale e del Deep Learning nella giustizia è incalzante, ma apre scenari tanto interessanti quanto inquietanti poiché si tratta di un settore a forte impatto sui diritti e le libertà delle persone. Chissà se Philip K. Dick (12) avesse concepito sin dal principio il suo libro Minority Report non come un’opera di fantascienza ma come il preludio di un’epoca in cui algoritmi e tecnologie avrebbero avuto applicazione nel campo della giustizia e della polizia predittiva.
Con lo sviluppo delle nuove tecnologie dalla fantascienza si passa alla realtà. In Estonia si è deciso di sperimentare giudici robot per risolvere le controversie di valore fino a 7 mila euro. In Francia ritroviamo Predictive il cui algoritmo usa come database le decisioni delle Corti di appello e della Corte di Cassazione. (13) Negli USA, il software Compas nel 2013 ha segnato la storia con il caso Loomis nel quale l’algoritmo predittivo trova applicazione nella fase di cognizione del processo, superando la prassi fino a quel momento realizzatasi in punto di mera probation (14), con ciò violando le garanzie del due process e condannando l’imputato per un mero rischio di recidiva solo sulla base di un questionario di 137 domande che riguardano età, attività lavorativa, vita sociale, istruzione, uso di droga, opinioni personali e percorso criminale.
Ma la civiltà tecnologica richiede un Recupero Umanistico ed una chiara assunzione di responsabilità etica da parte del giurista, il quale, nella sua attività, deve sempre ispirarsi alla sua antica funzione di custode della libertà soggettiva e della pacificazione sociale all’interno del processo. (15) Alla luce di ciò è necessario, dunque, affrontare il tema della giustizia predittiva entro i principi di equità del processo, del favor rei e della razionalità formale della certezza del diritto, come afferma lo stesso Max Weber.
In Europa si è pensato di porre un freno in tal senso attraverso strumenti diversi. Lo scudo del GDPR, costruito secondo una logica di prevenzione e anche di flessibilità, consente al Regolamento 2016/679/UE, anche sulla scorta del caso Loomis, di imporre il divieto di essere sottoposti a decisioni totalmente automatizzate. La presenza costante del controllo umano, chiamato a smentire o convalidare gli esiti dei processi decisionali automatizzati, è indirettamente previsto all’art. 22 del GDPR nel quale è sancito il diritto degli interessati al trattamento a non essere sottoposti a profilazione dei dati e a decisioni unicamente automatizzate che incidano sulla tutela dei loro diritti fondamentali. Anche gli articoli 13, 14 e 15 del GDPR approntano una tutela in presenza di decisioni dettate da un algoritmo, in quanto l’interessato ha il diritto di ricevere informazioni sull’esistenza di un processo decisionale automatizzato a suo carico, sul funzionamento e sulla logica utilizzata, nonché sulle conseguenze del trattamento stesso.
La Carta Etica Europea del 2018 (16) sull’uso di A.I. nei sistemi giudiziari, al fine di creare fiducia nell’intelligenza artificiale antropocentrica, enuncia, poi, cinque principi ai quali dovranno attenersi i soggetti pubblici e privati responsabili del progetto e dello sviluppo di questi strumenti e servizi di intelligenza artificiale, quali il principio di rispetto dei diritti fondamentali, il principio di non discriminazione e di non violazione della privacy e dei dati dei cittadini durante le investigazioni, il principio di qualità, sicurezza ed il rispetto del principio del giusto processo, con il quale si garanti- sce a ciascun cittadino il diritto di poter adire in ogni caso il giudice per ottenere una decisione indipendente da quella automatizzata, il principio di conoscibilità e trasparenza, di imparzialità ed equità delle decisioni giudiziarie. Anche il Parlamento Europeo nel report A.I. and Robotics del gennaio 2019 sottolinea la necessità dell’intelligibility of decisions, oltre che il diritto dell’interessato ad essere informato circa la logica del trattamento automatizzato e la garanzia dell’intervento uma- no, secondo le previsioni GDPR ut supra richiamate.
IV. L’ordinamento italiano: tra tradizione ed evoluzione
Se la giustizia predittiva, per un verso, si specchia nell’idea di un diritto razionale e linguisticamente non ambiguo e oggettivo perché fondato sull’apprendimento di un dataset standardizzato di precedenti giurisprudenziali rilevanti su base statistica, per l’altro verso, potrebbe risultare di portata limitata ai soli casi in cui ci siano numerosi precedenti, oltre che in contrasto con gli ordinamenti di civil law nei quali il metodo interpretativo è di tipo deduttivo e non induttivo, a differenza di quelli anglosassoni, e nei quali la norma scritta è preminente rispetto al formante giurisprudenziale.
In Italia ciò che conta non è, infatti, il numero di precedenti giurisprudenziali, ma il corretto utilizzo dell’art. 12 preleggi al codice civile. Questo non è altro che un algoritmo composto da una se- quenza di operazioni volte a far raggiungere all’interprete del diritto un risultato e ben potrebbe essere usato dal legislatore moderno per creare norme in forma assiomatizzata. (17)
Nonostante siano tanti i progressi realizzati per adeguare le categorie giuridiche del diritto positivo all’evoluzione digitale, l’inerzia manifestata da un legislatore prettamente analogico come quello italiano porta, comunque, la giurisprudenza a provare a far quadrare il cerchio. Così il Consiglio di Stato in diverse recenti pronunce (18) ha ritenuto legittimo l’utilizzo degli algoritmi nelle procedure valutative delle P.A. a patto che queste siano garantite da trasparenza e possibilità di verifica in sede giurisdizionale. Infatti, volendo inquadrare quali tra le norme del sistema giuridico positivo italiano possano essere trasposte in algoritmo con una certa agilità, risulta facile pensare al diritto e alla giustizia amministrativa. L’Open Source Government ben si sposa sia con i principi costituzionali di buon andamento e imparzialità dell’azione amministrativa sanciti nell’articolo 97 Cost., sia con i principi di trasparenza, efficienza, economicità, semplificazione ed imparzialità nel rispetto dei principi di uguaglianza e di non discriminazione. In questo senso il Consiglio di Stato ha dimostrato di prendere atto e di voler sfruttare i vantaggi offerti dal digitale e, in conformità al combinato disposto delle norme principe del CAD (19) – Codice dell’Amministrazione Digitale con la L. 124 del 2015 e con il GDPR, ha riconosciuto piena rilevanza ai progetti di riorganizzazione digitale della P.A. volti ad incentivare, nel rispetto dei principi di uguaglianza e di non discriminazione algoritmica, l’utilizzo delle tecnologie dell’informazione e della comunicazione nelle piattaforme API, nel Data Sharing e Data Trust e nella gestione dei procedimenti amministrativi e nei processi decisiona- li automatizzati.
Nonostante nessuna macchina moderna suscettibile di apprendimento decisionale abbia ancora superato il Test di Touring nel Premio Loebner, la Tecnologia Watson di IBM, dopo aver sviluppato Ross Intelligence, un sistema artificiale intelligente che cerca di creare assistenti di argomentazione artificiale su base cognitiva e semantica, è riuscita ad accreditarsi una buona fama nel mercato del Deep Learning, tanto che è stata installata anche in Italia come dimostra il progetto Giustizia Semplice (20) promosso nell’ambito del Patto per la Giustizia per l’attuazione del Piano strategico della Città Metropolitana di Firenze, siglato fra La Città Metropolitana di Firenze, il Tribunale di Firenze, l’Università degli Studi di Firenze, la Camera di Commercio di Firenze e la Fondazione Cassa di Risparmio Tribunale di Firenze. Sulla scorta della recente esperienza francese con Predictive, le Corti d’Appello di Bari (21), Brescia, Genova (22) e Venezia (23), in collaborazione con il mondo della ricerca universitaria, hanno realizzato dei progetti volti a predisporre database condivisi di decisioni giudiziarie che siano leggibili da un algoritmo di intelligenza artificiale. Proprio nel documento recante la Convenzione Giustizia Predittiva (24), la Corte di Brescia scrive che aprire al territorio dando visibilità agli orientamenti giurisprudenziali esistenti e ai tempi è prezioso perché crea un rapporto di collaborazione attiva col territorio (…), producendo, inoltre, un effetto deflattivo disincentivante tutte le do- mande con bassa possibilità di accoglimento e stimolando soluzioni alternative, con l’effetto (…) di contenere la domanda su determinate materie.
V. L’intelligenza artificiale diventa la migliore amica dell’avvocato
Attualmente in Italia il machine learning viene impiegato in ambito civilistico a supporto dell’atti- vità legale sia per l’analisi e predisposizione automatica di atti e documenti da caricare in appositi cloud per riversarsi poi nel PCT – Processo Telematico Civile, sia per stabilire chi, in tema di RCA, avendo violato specifiche norme del Codice della Strada, si sia reso in tutto o in parte responsabile del sinistro, oltre che per quantificare l’ammontare del danno risarcibile. Si tratta di ambiti specifici dove A.I. serve unicamente per automatizzare alcuni compiti. Il problema del cattivo funzionamento della giustizia italiana, infinita e con esiti non sempre certi e prevedibili, è un dato ormai noto. E quando, in applicazione delle logiche deflattive del contenzioso, entra in gioco la logica transattiva per il tramite della mediazione, facoltativa o obbligatoria, tale problema è risolto a monte. In Europa le iniziative in tema di ADR e ODR fanno sì che i sistemi predittivi giovino unicamente per comprendere se conviene o meno portare in giudizio una causa. Così l’intelligenza artificiale diven- ta la migliore amica dell’avvocato: quando il software consiglia di transigere una controversia, ecco che magicamente il numero delle cause iscritte a ruolo si riduce anche in Italia.
VI. Conclusioni
Alla luce di quanto detto, risulta chiaro come la tecnologia non potrà mai sostituire tout court il giurista, né la giustizia predittiva arriverà mai a sostituire il giudice. Bisognerebbe, forse, cambiare la nostra prospettiva di analisi e cominciare a domandarci se, piuttosto, sarà l’uso di determinati software a comportare l’inevitabile conseguenza che certi servizi offerti oggi, domani non risultino più necessari al soddisfacimento dei nostri bisogni. Ed è proprio questo che definiamo con il termine evoluzione. Come ci insegna il caso Loomis, i rischi di una giustizia robotizzata sarebbero comunque molteplici: sostituire l’operatore del diritto con un robot condurrebbe, inevitabilmente, a vedere sacrificati i diritti fondamentali dell’uomo a causa di una mera standardizzazione della giustizia. Per tale motivo i software di giustizia predittiva devono fungere da mero potenziamento umano che consenta al giurista di eliminare i tempi morti del processo, ottimizzando il suo operare in modo più virtuoso, godendo dei vantaggi conseguenti tanto l’intero sistema giustizia quanto i cittadini.