L’intelligenza artificiale e i risvolti nel diritto penale

L’intelligenza artificiale e i risvolti nel diritto penale

La tematica relativa all’intelligenza artificiale è al centro del dibattito da diversi anni ma è negli ultimi tempi, con l’approvazione di un DDL a seguito dell’AI Act da parte del Parlamento Europeo che si mira a regolare in ambito nazionale tale tematica.

Stephen Hawking, nel 2016 all’evento inaugurale del Leverhulme Centre for the future of Intelligence dell’Università di Cambrigde affermò che l’intelligenza artificiale è sia un rischio che un’opportunità da sfruttare anche se, nel suo libro post mortem pubblicato il 14 marzo del 2018, il Brief Answers to the Big Questions, il fisico avverte sulla necessità di vigilare sullo sviluppo dell’intelligenza artificiale affinché non si ponga l’essere umano in estrema difficoltà in presenza AI dotate di capacità cognitiva.

Nella Risoluzione de 2017 del Parlamento Europeo al considerando P.  si afferma che “è possibile che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana […]”  e che appare quindi necessaria una regolarizzazione della materia.

L’intelligenza artificiale ormai è presente nella nostra vita quotidiana e tale presenza impone una riflessione sulle sue implicazioni in ambito giuridico; le implicazioni in materia penale assumono rilevante interesse in un’ottica di implementazione della c.d. giustizia predittiva o sulla possibilità di considerare le macchine autori di reato ecc.

Recenti studi hanno documentato l’impatto dell’intelligenza artificiale in diverse aree criminali, in primis in ambito economico attraverso l’utilizzo dei social bot, utilizzati anche nei reati contro la persona, ma anche nel traffico di droga con l’utilizzo di droni e sottomarini controllati a distanza.

Nonostante sia sviluppata maggiormente oltre oceano, la giurimetria suscita sempre più interesse anche in Europa soprattutto grazie alla possibilità di utilizzare l’intelligenza artificiale generandosi da tale combinazione la c.d. giustizia predittiva.

Se la giurimetria si occupa dell’analisi dei fenomeni giuridici attraverso metodi quantitativi ossia, analisi di decisioni giudiziarie col fine di identificare modelli o tendenze in grado di orientare l’esito in casi futuri con l’implementazione dell’AI si potrebbe addestrare la macchina su decisioni passate al fine di formulare previsioni su esiti futuri; si potrebbe prevedere l’utilizzo di tale giustizia anche nell’ambito delle indagini preliminari per valutare le risultanze emerse.

Bisogna, però, segnalare che forse un utilizzo massiccio potrebbe disumanizzare la giustizia e inoltre, come potrebbe un algoritmo valutare le diverse sfaccettature dell’elemento psicologico oppure nell’accertamento dell’elemento oggettivo aree in cui la percezione umana è assolutamente rilevante.[1]

Tra l’altro l’implementazione di tali strumenti comporterebbe un dispendio economico rilevante.

Inoltre, in ambito europeo tale giustizia veniva utilizzata in Francia dove gli avvocati erano in grado di sapere i diversi orientamenti dei Tribunali con conseguente stima di successo di una causa incardinata in quel determinato Foro, tant’è che il Legislatore francese, successivamente, ha vietato con una norma munita di sanzione penale la profilazione di giudici e avvocati in quanto tali predizioni avrebbero inciso sulla scelta del difensore, sull’indipendenza dei giudici ecc.

Emblematico è il caso Loomis vs Wisconsin nel quale venivano posti a base della decisione i calcoli di Compas uno strumento concepito per prevedere il rischio di recidiva e per identificare i bisogni dell’individuo in vari ambiti, quali l’occupazione, disponibilità di alloggio e abuso di sostanze stupefacenti.

Ebbene, attraverso questo calcolo Loomis veniva identificato come un soggetto altamente rischioso per la società e quindi la pena veniva parametrata anche in base a tale valutazione.

Dopo un’attenta valutazione la Corte Suprema del Wisconsin, dietro ricorso di Loomis, affermò che il diritto ad un equo processo non era stato violato e respinse il ricorso perché tali valutazioni non erano state decisive per il quantum della pena ma che era comunque necessaria un’attenta sorveglianza a tali sistemi, non concepiti individualmente ma su base collettiva e che occorre sempre un attento controllo del giudice umano.

La Risoluzione del 2021 del Parlamento Europeo in materia di Intelligenza Artificiale ricerca un equilibrio tra i rischi e i vantaggi nell’utilizzo dell’AI nel settore penale in quanto si riconosce che l’utilizzo di strumenti di intelligenza artificiale hanno contribuito a velocizzare il lavoro delle FF.OO e alle autorità giurisdizionali nella lotta di crimini finanziari ma allo stesso tempo può presentare vari rischi in materia di trasparenza di sistemi algoritmici, di discriminazione e di strumenti di sorveglianza di massa.

Invero, il Regolamento del Parlamento Europeo e del Consiglio del 2024, il c.d. AI Act, all’art. 5 rubricato “Pratiche di IA vietate” vieta l’immissione sul mercato, la messa in servizio o l’uso di sistemi di intelligenza artificiale in grado di distorcere materialmente il comportamento di una persona o un gruppo di persone.

Ed ancora, l’immissione sul mercato, la messa in servizio o l’uso di sistemi AI deputati alla valutazione o classificazione delle persone fisiche o di gruppi di persone per un determinato periodo di tempo o anche per valutare il rischio o prevedere che possa commettere un reato; non applicandosi però tale ultimo divieto quando il sistema è utilizzato a sostegno di una valutazione umana del coinvolgimento di una persona in un’attività criminosa.

Il Legislatore europeo inoltre non vieta l’identificazione biometrica remota “in tempo reale” laddove essa sia resa necessaria al fine di contrastare la tratta di essere umani o sfruttamento sessuale, il terrorismo e per la ricerca di persone scomparse.

Orbene, emerge dalla lettura dell’AI Act che il legislatore non si è voluto spingere a prospettare l’intervento del diritto penale a fronte di eventi dannosi indotti dall’AI, prescrivendo solo una sorta di controllo da parte dell’uomo soprattutto per quei sistemi definiti di alto rischio e senza soffermarsi su quei sistemi di machine learning e deep Learning.

Ebbene, venendo al tema dell’imputazione, appare evidente che le entità intelligenti di ultima generazione possono mettere in crisi il modello di imputazione della responsabilità indiretta dell’uomo.

I meccanismi c.d. di machine learning sono un sistema di intelligenza artificiale capace di imparare e di modificare il proprio comportamento in base ai dati raccolti e non solo, grazie ai sistemi di cloud computing può scambiare informazioni con altre intelligenze artificiali riducendo al minimo l’intervento dell’uomo.

Si comprende, inoltre, che il comportamento del sistema non è proprio totalmente predeterminato e perciò prevedibile.

Ma se tale comportamento del sistema non è totalmente prevedibile a chi si potrebbe, nell’eventualità imputare un rimprovero?

Gabriel Hallevy, professore ordinario  di diritto penale in Israele, non esclude una possibile punibilità dei sistemi di intelligenza artificiale in quanto l’elemento oggettivo dell’actus reus potrebbe essere ricondotto direttamente all’AI sia in termini commissivi che omissivi  mentre per il profilo psicologico potrebbero configurarsi alcune forme di mens rea ciò anche sulla base che i nuovi sistemi di AI di ultima generazione, possono  prevedere e volere un certo risultato come conseguenza della propria azione o omissione.

Inoltre, nemmeno in riferimento alla pena si prospettano gravi problematiche, secondo Halley e sempre nell’ottica dei sistemi di common law, in quanto i sistemi di intelligenza artificiale sono dotati di corpi fisici e si potrebbe prevedere come pena la loro distruzione.[2]

Ma che ruolo giocherebbe la coscienza se si prevedesse tale tipo di imputazione?

Le teorie tradizionali sulla pena relative alla colpevolezza quale presupposto necessario non potrebbero concepire tale tipo di attribuzione della responsabilità in quanto ha senso infliggere una pena in quanto sussisteva in capo al soggetto il volere di compiere o omettere un determinato comportamento produttivo di una fattispecie di rilevanza penale.

Inoltre, la pena non assolverebbe nemmeno alle sue funzioni in primis a quella rieducativa.

Un sistema artificiale di ultima generazione potrebbe sì agire indipendentemente ma anche tale possibilità è programmata ab origine.

Inoltre, si potrebbe concepire l’Ai come vittima di reato?

Pensiamo a cui sistemi di intelligenza artificiali deputati all’aiuto di soggetti affetti da autismo o Alzheimer, disabili verso i quali il soggetto potrebbe sviluppare sentimenti.

La malevola distruzione, il maltrattamento potrebbe rientrare, nel caso di robot dotati di capacità cognitiva, nel reato di cui all’art. 572 c.p. o si tratterebbe semplicemente di danneggiamento; si pensi a fattispecie di reato realizzate nei confronti di androide di ultima generazione dotato anche di capacità cognitiva.

Venendo al DDL approvato dal Governo il 23.04.2024, all’art. 25 si prevede l’introduzione di una nuova norma incriminatrice di cui all’art. 612 quater rubricato “Illecita diffusione di contenuti generati o manipolati artificialmente” che possiamo definire una norma aperta in quanto viene lasciata al giudice la valutazione della rilevanza penale della condotta.

Si legge, infatti, all’art. 612 quater Chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o manipolati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità o provenienza, è punito con la reclusione da uno a cinque anni.

Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate.”

Inoltre, si prevede una modifica agli artt. 640, 640 ter, 648bis, 648 ter, 648 ter 1 e l’inserimento dell’aggravante dell’impiego di sistemi di intelligenza artificiale.

Infine, si delega il Governo a prevedere “la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, supportati da un adeguato sistema di sanzioni; una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, dirette a tutelare specifici beni esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale.[3]

In ambito di utilizzo dell’Intelligenza artificiale nell’attività giudiziaria si afferma all’art. 14 che gli strumenti di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del sistema giudiziario e per la ricerca giurisprudenziale e dottrinale lasciando sempre al magistrato la decisione sulla interpretazione della legge, valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento.

Emerge, dalle norme analizzate che c’è sempre un più ricorso al diritto penale per punire fatti illeciti e che l’uso dell’intelligenza artificiale viene limitato solamente al supporto dell’attività giudiziaria ma anche in tale ottica ci si chiede quanto potrebbe influire sull’attività interpretativa e decisionale del giudice soprattutto in riferimento a sistemi di intelligenza artificiale in grado anche di prospettare la decisione giudiziaria.

 

 

 

 

 


[1] https://www.altalex.com/documents/news/2024/01/23/intelligenza-artificiale-servizio-giustizia-penale
[2] Intelligenza Artificiale e responsabilità penale: prime considerazioni* https://www.research.unipd.it/retrieve/e14fb26f-d153-3de1-e053-1705fe0ac030/borsari.pdf
[3] https://www.programmagoverno.gov.it/media/je0lo4i0/focus-ia.pdf

Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News
The following two tabs change content below.

Articoli inerenti