AI nella Giustizia amministrativa

AI nella Giustizia amministrativa

L’AI nella Giustizia amministrativa: primi progetti e annotazioni

di Michele Di Salvo

Il Segretariato Generale della Giustizia amministrativa ha pubblicato nel mese di ottobre 2024 un documento avente ad oggetto le attività in corso di realizzazione legate all’introduzione delle tecnologie di intelligenza artificiale nella Giustizia amministrativa.

Lo scopo è quello di fornire una iniziale informazione delle evoluzioni avviate dal Segretariato Generale della Giustizia amministrativa, in una fase nella quale l’interesse verso l’impiego di queste tecnologie ha raggiunto una intensità particolarmente accentuata, sia per il livello di diffusione e sviluppo tecnologico sia a seguito delle iniziative di regolazione in ambito UE e nazionale.

Nel documento sono descritte strategie, metodologie e casi d’uso dell’IA. I progetti di implementazione di AI nella Giustizia amministrativa riguardano:

a) la anonimizzazione dei provvedimenti;

b) il supporto al lavoro del giudice attività di ricerca e visualizzazione dei contenuti;

c) la cyber-resilienza.

Sul primo aspetto, quello della anonimizzazione (a), il documento si sofferma nella spiegazione della ratio seguita, attenta a contemperare due valori: la riservatezza degli interessati e la intellegibilità del provvedimento, che potrebbe essere compromessa anche con riguardo alla motivazione, da una anonimizzazione non supervisionata. “Il raggiungimento di un equilibrio tra i due aspetti (protezione della riservatezza e comprensibilità del testo) presuppone infatti un’attività interpretativa che può essere svolta solo da giudici, i quali, in tale fase, contribuiscono a definire il valore intrinseco da assegnare a ciascuna informazione, considerandone anche il rapporto con il contesto, distinguendo la natura e le caratteristiche delle controversie. L’intelligenza artificiale si modella così assecondando la variabilità del contesto, per poi verificare nel corso dell’utilizzo concreto, grazie ai feedback ricevuti dagli utenti (feedback opportunamente verificati e somministrati alla stessa IA), la correttezza dei risultati ottenuti ancora sotto il controllo dei giudici, i quali, in tale fase esecutiva, sorvegliano lo sviluppo del sistema ossia il modo in cui esso risponde ai riscontri offertigli dall’utenza, vigilandone il percorso evolutivo”.

Quanto alle attività di supporto al giudice (b), risultano escluse dalle applicazioni di AI le attività considerate ad Alto rischio dall’AI act e sono invece comprese quelle funzionali ad agevolare varie attività del giudice, nei diversi ruoli, e che, per come strutturate, “non prevedono un’attività “creativa”.

Si tratta, in particolare, di:

– identificazione di ricorsi correlati o simili pendenti nelle singole Sezioni e che devono essere fissati per la decisione. La identificazione consente di raggiungere, specifica il Report, diversi obiettivi, quali la ottimizzazione dello studio e dell’analisi; la valutazione ai fini della discussione nella stessa udienza o in udienze “tematiche”; evitare decisioni contrastanti nelle singole sezioni dei Tribunali; ottenere una migliore distribuzione dei carichi di lavoro; garantire decisioni più rapide;

– ricerca dei precedenti giurisprudenziali con uno strumento basato non solo, come ora, su parole chiave, bensì sulla rilevazione di connessioni semantiche, in questo modo garantendo un maggior grado di pertinenza dei risultati della ricerca;

– rilevazione e possibilità di visualizzazione immediata delle norme o delle pronunce della giurisprudenza indicate, esplicitamente o implicitamente, in un atto difensivo, evitando al giudice di dover interrompere l’analisi dell’atto per svolgere la ricerca su banche dati esterne, in tal modo assicurando risparmio di tempo ed evitando anche che la sua concentrazione venga distolta.

Quanto alla cyber-resilienza (c) sono state implementate specifiche strategie di difesa dalle tecniche di adversarial machine learning individuate a livello internazionale.

Secondo le intenzioni esplicitate nel documento “La linea direttrice seguita è quella della valorizzazione degli impatti positivi ritraibili dagli sviluppi tecnologici sull’organizzazione del lavoro ma con chiara attribuzione a questa tecnologia di un ruolo strumentale, di supporto al giudice nella fase di studio, aggiornamento e analisi. L’attività di elaborazione resta affidata al giudice in via esclusiva. Sul piano concettuale risulta più appropriato discorrere di “intelligenza accelerata” invece che di “intelligenza artificiale”.

I modelli di machine learning – soprattutto di deep learning (sistemi, cioè, di apprendimento automatico che simulano, attraverso reti neurali artificiali multistrato, l’azione del cervello umano, come, ad esempio i LLM – large language models che utilizzano sistemi di questo tipo a scopi linguistici) sono difficili da governare e possono determinare fenomeni di c.d. di allucinazione o anche fenomeni di overfitting, quando il modello si adatta troppo ai dati di addestramento specifici o di overgeneralization, quando il modello, all’opposto, generalizza troppo.

Le ricerche nel settore (in particolare a Stanford) hanno evidenziato la difficoltà di questi modelli di IA ad eseguire il tipo di ragionamento giuridico, individuando vari fattori di incidenza negativa, inclusa la mancanza di uniformità e la lunghezza delle frasi presenti nei documenti legali. L’approccio non può che essere cauto, consapevole dei rischi e al tempo stesso libero da pregiudizi ma caratterizzato da spirito critico e da una supervisione costante. 

Nello specifico dell’ordinamento italiano in particolare la centralità del giudice “umano” è costituzionalmente imposta: le funzioni giurisdizionali sono per Costituzione affidate al giudice persona fisica, naturale e precostituito per legge, terzo e imparziale, soggetto solo alle leggi; i valori etici e la tutela dei diritti non possono essere delegati alla tecnologia; la capacità di leadership non può essere automatizzata. Considerazioni per altro recepite nello stesso documento.

Il rischio resta comunque alto attraverso il connubio tra format uniformi e applicazioni di AI, il tutto integrato nel SIGA.

L’utilizzo dei format già di per sé confliggerebbe con l’originalità che è propria della professione intellettuale dell’Avvocato; con il decoro e, prima ancora, con la funzione del ministero forense, la quale impone che il compito dell’Avvocato non sia ristretto entro rigidi formalismi che, inevitabilmente, finirebbero per compromettere l’efficacia delle difese.

In un tempo di in cui si discute di legal design quanto già affermato va rafforzato in tema di format di giudizio e degli atti.

Un primo passo sarebbe quello di garantire ogni forma di trasversale partecipazione ai processi decisionali nell’introduzione di sistemi di AI nell’amministrazione della giustizia, non solo quindi di garantire sia la partecipazione dell’avvocatura al procedimento di regolazione dei sistemi di intelligenza artificiale, sia che quest’ultimi siano disciplinati quantomeno mediante un regolamento delegato, previa intesa con le associazioni forensi specialistiche, ma anche con le indicazioni di esperti nei rami specialistici extra-diritto, che potrebbe rilevare ed evidenziare carenze e debolezze e fragilità eterogenee, anche non tipizzate nelle dinamiche processuali strette.

Andrebbe poi disciplinato meglio l’uso dell’intelligenza artificiale nell’ambito dei procedimenti amministrativi, nel senso di imporre alle PA l’obbligo di motivazione sull’uso della AI in funzione di reale efficienza e miglioramento della specifica attività al servizio al cittadino e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo e più in generale obbligo di trasparenza; la riserva di  autonomia e del potere decisionale del soggetto competente all’adozione del provvedimento/attività e/o del responsabile del procedimento; l’esclusione dell’utilizzo dell’intelligenza artificiale per la generazione di testi di qualsiasi tipologia.

Il tema è particolarmente delicato – specie in un contesto di abrogazione del reato di abuso di ufficio e nel pieno delle vicende ad essa collegate presso la Corte Costituzionale – soprattutto perché vi sono declinazioni essenziali ancora da chiarire.

La motivazione del procedimento – momento essenziale e centrale nella legge 241/90  – deve essere umana, deve essere specifica, sul singolo/individuale provvedimento e non “per tabulas o generalizzata”, deve ripercorrere e fondarsi sull’intera vicenda procedimentale, e ancorarsi al caso specifico soggettivo. Caratteristiche intrinseche che ontologicamente escludono – oggi – la formula generica adottata con copincolla, e – domani – la meccanica delega all’automatismo digitale.

Se in tal senso la motivazione, anche se discrezionale, non può trasformarsi in arbitrio laddove la motivazione sia assente o carente o “per tabulas” ciò vale ancor di più nel caso di uso di un algoritmo discriminante in cui non sia reso pubblico il peso oggettivo di ogni elemento e valore da ponderare: in assenza quindi di una trasparenza assoluta e verificabile ex ante un uso delle AI dovrebbe ritenersi da escludere a priori.

Ancor più se parliamo della motivazione di una sentenza. Se da un lato l’integrazione di forme di AI nella ricerca è senz’altro auspicabile – del resto a nostra parziale insaputa è già così oggi nelle vicende di uso quotidiano dei classici motori di ricerca che ne fanno un uso ampio e abbondante e troppo indiscriminato – dall’altro suscita non poche perplessità in termini di rischio la ponderazione non trasparente e verificabile dei “pesi” da assegnare ai risultati: 5 sentenze contro 3 quanto pesano, come vengono valutate, quanto peso dare alla risalenza cronologica o al foro, quale discrimine garantisce rispetto alla reale riferibilità al caso specifico trattato, quali garanzie di non discriminazione posso essere offerte ex ante e in modo trasparente? 

Questi sono solo alcuni dei rilievi prima facie elencabili, su ognuno dei quali sarebbe auspicabile soffermarsi in un’analisi che solo incidentalmente è segnatamente giuridica e che coinvolge complessità che inequivocabilmente chiamano in causa professionalità ed esperienze di ricerca eterogenee.

Il giudice in questo senso, nella sua motivazione dovrà quindi prevedere di chiarire in modo completo e trasparente tutti questi aspetti di ponderazione, al di là di ogni dubbio e con possibilità di verifica… e in questo senso non è detto che l’adozione di questi sistemi possa garantire ex post effettiva economicità e celerità al procedimento. Al giudice risulta più immediato chiarire i propri parametri che non quelli adottati in sede di programmazione di una macchina – che appunto non è detto né che siano i suoi né che egli debba – giustamente – condividere – innescando un nuovo meccanismo di contro valutazione.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti