Questioni giuridico-dogmatiche sull’intelligenza artificiale
Parlando di Intelligenza Artificiale si intende riferirsi alle abilità di una macchina che, grazie a determinate tipologie di software, programmi ed algoritmi, possiede capacità intellettive tipicamente umane. Questo è quanto viene statuito dalla “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi” – adottata dalla Commissione europea per l’efficienza della giustizia (Cepej) nel dicembre 2018 – che la definisce quale “insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani”1.
Più esattamente, si tratta di moderne tecnologie il cui funzionamento si fonda su processi di machine learning2, deep learning3 e su neural networks4 5 ed il cui scopo non è simulare l’intelligenza umana, bensì di riprodurla6. Difatti esse sanno elaborare, comprendere e giudicare la realtà, assumere decisioni in conseguenza e, soprattutto, auto-apprendere7. Del resto, in campo sanitario, l’esperienza ci ha testimoniato come l’I.A. possa essere d’ausilio al personale medico, non solo tramite l’esecuzione di diagnosi preventive, ma anche compiendo sibilline scoperte scientifiche. Dunque il sistema intelligente non è capace solamente di applicare regole generalmente riconosciute, ma è anche in grado di portare qualcosa di nuovo. Pertanto si prevede che in un futuro, non molto lontano, in quanto “robotizzati”, vi saranno mestieri umani destinati a scomparire come, ad esempio, i conducenti di mezzi pubblici8, i fattorini9, assieme a determinati operatori sanitari, tra cui i radiologi10.
Ad ogni modo, è certo che sono, e saranno, non poche le conseguenze di questa estensione e che, pertanto, il loro impiego pretenderà cautela. Tuttavia l’Intelligenza artificiale risulta essere ormai fondamentale, ponendosi come un imprescindibile trampolino di lancio per uno sviluppo tecnologico senza precedenti. Cosicché, l’Unione Europea è attualmente alle prese con la sfida di plasmare un nuovo “umanesimo digitale”11.
In effetti questa inarrestabile evoluzione dell’I.A. esige un’accurata riflessione sulle implicazioni che, in ambito giuridico, ha la sua venuta. A tal riguardo occorre innanzitutto riconoscergli le summenzionate capacità di auto-apprendimento e di auto-determinazione che, secondo la disciplina ingegneristica, la rendono dotata di un proprio grado di autonomia. Tali idoneità ci pongono inevitabilmente dinanzi alla necessità di intervenire normativamente in tema di responsabilità, tenendo presente come esse autonomizzino l’I.A. dal suo produttore. Da questa circostanza consegue la evidente inapplicabilità della c.d. responsabilità da prodotto difettoso in quanto bisogna riconoscere che, in un quadro così delineato, eventuali danni causati dal sistema potrebbero essere considerati azioni proprie di quest’ultimo, conseguenza di una certa interazione tra big data e algoritmi, tanto da configurare la macchina quale unico autore del fatto lesivo, essendo assente un nesso di causalità tra la condotta del sistema con quella del produttore. Pertanto, poiché all’uomo rimane, piuttosto, un controllo ex post, il summenzionato grado di indipendenza del sistema intelligente mette in crisi anche il modello tradizionale della responsabilità indiretta del produttore e\o programmatore per eventuali fatti delittuosi che si sono originati dal comportamento dell’entità tecnologica.
Da tale riflessione consegue, dunque, il bisogno di interrogarsi su quale sia la linea in cui confinare la responsabilità del produttore, oltre alla quale l’essere umano viene sollevato da ogni responsabilità.
A questo proposito la proposta di Regolamento UE n. A9-178/2020 ha prospettato la possibilità di applicare il regime di responsabilità oggettiva del produttore per i sistemi che vengono definiti “ad alto rischio”. Il problema però è che in tal modo il produttore sarebbe sempre responsabile per i danni che vengono cagionati dalla macchina, indipendentemente dalla presenza di eventuali personali profili soggettivi di dolo o di colpa.
In realtà, poiché gli algoritmi di queste macchine sono suscettibili di autonomi cambiamenti che si originano direttamente dall’esperienza, esse hanno comportamenti che non possono essere sempre preveduti ex ante dall’essere umano, sicché occorre riconoscergli certamente una qualche forma di responsabilità. E’ certo che le azioni dell’I.A. si basano su una programmazione predisposta dall’uomo, ma l’elaborazione dei dati viene compiuta dal sistema indipendentemente da una influenza esterna dell’essere umano. Si tratta di una visione che riconosce all’A.I. le suddette capacità di auto-apprendimento e di auto-determinazione la cui sussistenza, come già detto, viene ampiamente e definitivamente riconosciuta dall’ingegneria.
Dopotutto bisogna tenere a mente come il diritto investa non gli aspetti cognitivi oggettivamente individuati ma anche, e soprattutto, gli aspetti decisionali di coloro che vengono assunti quali soggetti agenti, che hanno un valore rilevante giuridicamente.
L’intento di questo progetto non è certo quello di umanizzare la macchina ma, piuttosto, quello di colmare le evidenti lacune del nostro sistema giuridico.
A tali quesiti, in cui confluiscono questioni di natura etica, oltre che giuridica, occorre rispondere con un chiaro e definitivo quadro normativo che consenta ai cittadini di fidarsi dell’I.A., grazie a regole proporzionate che tengano conto comunque degli specifici rischi.
La vera domanda da porsi è se questi nuovi quesiti trovino la loro definizione all’interno di una evoluzione interpretativa della normativa nazionale vigente oppure se, diversamente, sia necessario dare via ad una rivoluzione legislativa. Per poter chiarificare tali dubbi occorre, imprescindibilmente, indagare ed esaminare in cosa, nella sostanza, si palesi l’autonomia della macchina dotata di I.A., alla luce dei recenti sviluppi tecnologici e in prospettiva delle future innovazioni.
Ad oggi abbiamo contezza del fatto che la capacità di adottare decisioni, di metterle in atto e di auto-apprendere è una concatenazione che interrompe, palesemente, il nesso causale tra la condotta umana – del produttore o del programmatore della macchina – e del danno eventualmente causato da tale tecnologia.
Pertanto anche l’I.A. sembra legittimata ad esigere nuovi spazi di regolamentazione giuridica e, premesse le summenzionate considerazioni, appare opportuno riflettere sulla introduzione di una nuova forma di responsabilità prevista ad hoc per la macchina dotata di intelligenza artificiale. Si tratterebbe di una attribuzione che porterebbe alla previsione di una nuova e correlativa forma di responsabilità, esattamente come si è avuto per gli enti con il D.lgs 231/2001.
La costruzione di uno status giuridico specifico per la macchina intelligente consentirebbe di chiudere gli ampi spazi di irresponsabilità che equivalgono a pericolosi vuoti di tutela. Bisogna, infatti, prevedere un idoneo meccanismo di imputazione che sia pertinente alla nuova realtà dell’automatizzazione.
Riflettere su tali questioni giuridico-dogmatiche, luogo del confronto tra sviluppi tecnologici e sociali, ci affida la possibilità di colmare non irrilevanti lacune, e future inefficienze, del nostro sistema repressivo. Difatti questa attuale “crisi” costituisce, in realtà, terreno fertile per una rivoluzione che stravolga le esistenti elaborazioni giuridiche.
La complessità di questa dell’impresa richiede un approccio corale e interdisciplinare in quanto in tal caso non è certamente possibile compartimentalizzare il discorso.
Si ravvisa l’ulteriore necessità, al fine di evitare una frammentazione della normativa europea e dunque problemi di coordinamento tra i vari Stati membri, di predisporre una legislazione omogenea. L’obbiettivo è senz’altro quello di garantire un quadro giuridico armonico, basato su principi comuni, affinché uno specifico quadro normativo sull’I.A., finora mai realizzato, e un piano coordinato tra gli Stati UE garantisca la tutela dei diritti fondamentali e, nel contempo, l’innovazione.
Bibliografia:
V. COCCA, Responsabilità civile, etica e tutela dei diritti di proprietà intellettuale nei sistemi di intelligenza artificiale, il Quotidiano Giuridico, Wolters Kluwer, 13 aprile 2021;
R. CUCCHIARA, L’intelligenza non è artificiale. La rivoluzione tecnologica che sta già cambiando il mondo, Mondadori, 2021;
G. FIANDACA e E. MUSCO, Diritto penale. Parte generale, Ottava Edizione, Zanichelli Editore, 2019;
G. HALLEVY, Liability for Crimes Involving Artificial Intelligence Systems, Berlino, Springer, 2015;
U. PAGALLO, Intelligenza Artificiale e diritto. Linee guida per un oculato intervento normativo, in Sistemi intelligenti, 3, 2017, p. 615
F. PALAZZO, Corso di diritto penale. Parte generale, Sesta Edizione, Torino, G. Giappichelli Editore, 2016;
U. RUFFOLO, La responsabilità medica – L’intelligenza artificiale in sanità: dispositivi medici, responsabilità e “potenziamento”, Giurisprudenza Italiana, n. 2, 1 febbraio 2021, pp. 456 e ss.;
G. SIMEONE, Machine Learning e tutela della Privacy alla luce del GDPR, in Diritto e intelligenza artificiale, a cura di ALPA Guido, Pisa, Pacini, 2020, pp. 275-295.
1Carta etica per l’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente, App. III, Glossario, p. 47.
2Machine learning, in italiano tradotto “apprendimento automatico”, è una locuzione con la quale si indicano i meccanismi che consentono ad una macchina di apprendere, tramite l’esperienza, nuovi compiti e di migliorare, in diretta conseguenza, le proprie prestazioni. E’ opportuno sottolineare che alla base di questo tipo di apprendimento vi sono algoritmi che partono da nozioni primarie per poi “riprodursi”.
3Deep learning viene impiegato per indicare l’“apprendimento approfondito” ed automatico della macchina intelligente che si realizza grazie ad algoritmi di calcolo statistico.
4Si tratta di reti neurali artificiali concepite con riferimento alle reti neurali biologiche dell’essere umano.
5R. CUCCHIARA, L’intelligenza non è artificiale. La rivoluzione tecnologica che sta già cambiando il mondo, Mondadori, 2021.
6M. Somalvico, F. Amigoni, V. Schiaffonati.
7Si tratta della c.d. capacità di self-learning essendo tali sistemi basati sull’apprendimento per rinforzo.
8Attualmente in Europa, decisioni sono state adottate esclusivamente dal Bundestag (la Camera dei Deputati tedesca) il quale ha approvato una normativa, che dovrà successivamente passare al vaglio del Bundesrat (il Senato federale) con cui si introduce la circolazione, in determinate strade pubbliche, di veicoli automatizzati di livello 4 della classificazione SAE, in cui il sistema ha la capacità di avere la gestione ed il controllo della guida anche se, tuttavia, viene prevista a bordo del mezzo la presenza di un essere umano, capace di guidare, che sia pronto ad intervenire.
9A Stanford, in forza di ricerche compiute dall’informatico italiano Silvio Savarese, vengono costruiti robot “fattorini”, come JR-2.
10U. RUFFOLO, La responsabilità medica – L’intelligenza artificiale in sanità: dispositivi medici, responsabilità e “potenziamento”, Giurisprudenza Italiana, n. 2, 1 febbraio 2021, pp. 456 e ss.
11Ad ogni modo occorre sottolineare che nell’Unione Europea l’intelligenza artificiale non si è ancora sviluppata come negli Stati Uniti. Tuttavia quello americano non è certo un modello da seguire, essendo questo caratterizzato da un deregolamento che lascia spazio a vuoti di tutela e ad abusi. Diversamente, le autorità europee scelgono di normare per primi, esattamente come è accaduto per il trattamento dei dati personali.
Marta Fioretti
Latest posts by Marta Fioretti (see all)
- La ratio della nullità della donazione di bene altrui - 12 November 2022
- Introduzione al diritto alla salute - 18 August 2021
- Questioni giuridico-dogmatiche sull’intelligenza artificiale - 16 August 2021