Annotazioni sulla normativa italiana sull’IA
Alcune annotazioni ulteriori sulla normativa italiana sull’intelligenza artificiale
di Michele Di Salvo
Continua il difficile percorso, in Italia, per l’adeguamento normativo nazionale all’AI ACT europeo, che detta una strada precisa e che è direttamente applicabile in ciascun ordinamento nazionale dei paesi Ue, e questo nonostante nel nostro paese vi siano tra le migliori menti impegnate da moltissimi anni su questo fronte di ricerca.
Una straordinario parallelismo con quanto già avvenuto con il regolamento europeo per il Crowdfunding: l’Italia era stato nel 2012 tra i primi paesi a dotarsi di una normativa nazionale, ma quando l’Europa è intervenuta sulla materia, non solo abbiamo fatto scadere di oltre due anni i termini già dilatori, mettendo in stallo il sistema, ma siamo anche diventati l’unico paese che invece di una, ha due autorità di vigilanza, rendendo complesso e farraginoso un sistema semplice, ed al contempo notevolmente più oneroso lavorare in Italia, dove operare costa 10 volte in più che in Lituania e 3 volte più che in Francia (ad esempio).
In Italia la normativa europea la subiamo, arriviamo tardi, i termini per adeguarsi si esauriscono nella inattività, finendo per dover ovviare con normative emergenziali, ed arriviamo alle audizioni nelle commissioni referenti sempre dopo le scadenze eurounitarie.
La prima cosa che emerge dai numerosi atti che le commissioni parlamentari stanno affrontando – in primis le audizioni – è la mancanza di chiarezza normativa a partire dalla definizione di intelligenza artificiale, disallineamento con l’AI Act europeo, non proporzionalità delle norme, e loro ambiguità con riferimento all’uso dell’IA nelle professioni intellettuali; insufficienti tutele per la privacy e per i diritti dei lavoratori. Non solo. Necessità di chiarire meglio i compiti del Comitato di coordinamento presso la Presidenza del Consiglio, magari optando per la creazione di una autority terza e imparziale. In questo caso si andrebbe a sovrapporre, e non si comprende con quali criteri di riparto nelle funzioni, con la Fondazione per l’AI, l’AGID, il Garante per la Privacy, quello per la concorrenza e il mercato, nonchè con varie direzioni generali di vari ministeri, ciascuno per la propria specificità. Verrebbe ancora una volta da pensare che questa sia l’ennesima via breve per creare nuovi posti di lavoro ed al contempo elidere un vero centro di responsabilità, sia politica che amministrativa.
Sul fronte economico e industriale aumentano i timori che si possa bloccare l’innovazione e, più in generale sarebbe necessario chiarire se sia o meno il Ministero della Industria il dicastero autorizzato ad assumere la qualità di investitore di rischio nelle start up produttrici di sistema i AI.
Fioccano critiche al disegno di legge del Governo in materia di Intelligenza artificiale (AS 1146), che è in corso di esame presso le commissioni riunite Ambiente e Affari sociali del Senato.
Le critiche sono state espresse da diversi stakeholder istituzionali in occasione delle audizioni in corso sia davanti alle stesse commissioni, sia davanti alla commissione Giustizia che deve esprimere il suo parere, come hanno già fatto le commissioni Affari Costituzionali e Industria (e dovranno fare le altre).
Molte istituzioni ascoltate in audizioni hanno rilevato discrasie tra il testo del disegno di legge del Governo e l’AI Act. In un mio precedente articolo del 25 giugno [http://www.salvisjuribus.it/le-norme-italiane-sullai/] avevo rilevato una serie di criticità complessive sotto quasi tutti gli aspetti.
In questo contesto – all’esito di quanto emerso nel contesto delle numerose audizioni parlamentari – propongo una sintesi “solo” delle criticità emerse dai rappresentanti delle professioni legali. Saranno anche non sempre tecnici del settore specifico, ma certamente almeno sul piano del diritto applicato hanno manifestato delle perplessità di cui sarebbe bene prendere nota.
Confindustria critica il ddl per il mancato approccio basato sui livelli di rischio dei sistemi di AI, che ha come conseguenza l’applicazione di norme restrittive anche a sistemi di IA che sarebbero considerati a rischio minimo o nullo, facendo saltare così il principio di proporzionalità previsto dall’AI Act. Questa divergenza potrebbe influire negativamente sulle imprese, sostiene Confindustria, introducendo obblighi eccessivamente restrittivi.
Anche AIGA, l’associazione italiana dei giovani avvocati, ha criticato la divergenza del ddl governativo rispetto all’approccio basato sui rischi dell’AI Act europeo.
Una vaghezza normativa sulle definizioni di AI, e non solo, è stata evidenziata da Anitec Assinform (l’associazione di settore delle imprese che producono software, sistemi e apparecchiature e servizi di rete) che teme che la confusione nell’applicazione pratica della normativa, specialmente per le aziende che devono conformarsi. Per Anitec un secondo aspetto di ambiguità riguarda l’ambito di applicazione del disegno di legge: non è sempre chiaro quali tipi di tecnologie o settori saranno effettivamente soggetti alla nuova regolamentazione, lasciando spazio a interpretazioni differenti che potrebbero complicare l’attuazione delle norme. L’associazione lamenta il fatto che il disegno di legge non chiarisce adeguatamente le questioni legate alla responsabilità legale in caso di danni o malfunzionamenti legati all’intelligenza artificiale. In particolare, manca una definizione chiara su chi debba essere ritenuto responsabile tra sviluppatori, produttori o utenti finali.
Rete dei diritti umani, Aiga e (indirettamente) il Consiglio nazionale forense si sono occupati della tutela delle persone. La Rete per i Diritti Umani Digitali ha evidenziato due temi centrali: sorveglianza biometrica e governance. Riguardo alla sorveglianza biometrica, è considerato un errore affidare al Governo, e non al Parlamento, il compito di disciplinare la sorveglianza biometrica, un tema ad alta tensione per la tutela delle persone. Dovrebbe essere una legge a definire le condizioni e le procedure per l’eventuale utilizzo dei sistemi di identificazione biometrica e regole di garanzia, come ad esempio stabilire che sia l’autorità giudiziaria ad autorizzare l’utilizzo di queste tecnologie come strumenti di indagine e prevedere che un’autorità indipendente o il Garante per la protezione dei dati personali effettuino un monitoraggio – pubblico e trasparente – dei casi e dei reati per cui si richiede l’autorizzazione. La Rete ha comunque avanzato la richiesta tranchant di prevedere il divieto totale dell’uso di queste tecnologie, poiché i divieti parziali previsti dall’AI Act lascerebbero troppo margine alle forze dell’ordine, con il rischio di una sorveglianza universale.
Infine, sulla governance dell’intelligenza artificiale, la Rete ha chiesto che il ruolo di supervisione non sia affidato alle sole AgID e ACN, ma a un’autorità indipendente composta da esperti interdisciplinari, per garantire una supervisione neutrale e imparziale e monitorare l’impatto etico e sociale dell’IA, con un maggiore coinvolgimento del Garante per la protezione dei dati personali.
L’Aiga vede rischi per i diritti fondamentali sia nel campo del diritto del lavoro, dove denuncia l’assenza di vincoli sufficienti per evitare un uso invasivo dell’IA nei confronti dei lavoratori; sia nella tutela dei minori: la regolamentazione nazionale , per esempio, non prevede requisiti stringenti per la protezione dei dati dei minori. Anche Confindustria esprime preoccupazioni in merito alla tutela dei minori, criticando la mancanza di chiarezza sulle modalità di espressione del consenso parentale all’utilizzo di sistemi di AI e suggerendo sempre un approccio basato sul rischio, in modo da non richiedere il consenso parentale per sistemi di IA con rischi minimi o nulli.
Il Consiglio Nazionale Forense ritiene che un approccio alla produzione di sistemi di Ai lasciato al solo mercato possa favorire le law firm e danneggiare gli studi legali piccoli e, per il loro tramite, i cittadini. Ha chiesto così di prevedere strumenti che consentano a tutti gli avvocati di accedere a sistemi di AI e di stare valutando la fattibilità di un portale per l’avvocatura.
Infine, i giovani avvocati evidenziano un contrasto con il GDPR: l’articolo 4 del ddl prevede che l’utilizzo dell’IA debba garantire la liceità e correttezza del trattamento dei dati personali. Tuttavia, AIGA critica che il ddl sembri limitare il diritto di opposizione dell’interessato ai soli casi di trattamento “non corretto”, in contrasto con il GDPR, che consente un diritto di opposizione più ampio e generale. Inoltre, AIGA propone di adeguare il linguaggio e le disposizioni del Ddl al Regolamento europeo sulla protezione dei dati (GDPR).
Sempre in tema di diritti, Aiga si occupa di IP e opere generate con IA, considerando inadeguato l’articolo 24, che tutela il diritto d’autore delle opere create con l’ausilio dell’IA. I giovani avvocati sostengono che, mentre l’IA può essere uno strumento utile per la creazione di opere, è essenziale definire in modo più preciso la titolarità dei diritti d’autore e di proprietà intellettuale quando l’opera è prodotta da un algoritmo, poiché le attuali disposizioni sono vaghe.
Per Confindustria a creare problemi potrebbe essere la norma sul watermarking per i contenuti generati dall’IA (articolo 23), creando frammentazione normativa tra l’Italia e altri Paesi UE.
Il CNF ha chiesto di inserire, nell’articolo 14, il divieto esplicito, a pena di nullità, di utilizzare sistemi di intelligenza artificiale (generativa e non) per la redazione della motivazione o testi di provvedimenti giudiziari, non ritenendo sufficiente ad escludere questa eventualità il dato letterale che limita espressamente l’ utilizzo della AI alla organizzazione e semplificazione giudiziaria e alle ricerche giurisprudenziali.
Diversamente Aiga, che considera troppo limitante l’articolo 14: la riserva assoluta del potere decisionale al magistrato potrebbe privare il sistema giudiziario di strumenti IA capaci di migliorare l’efficienza del servizio, come il supporto nell’analisi dei precedenti giurisprudenziali. Non solo. Aiga ha rilevato una certa ambiguità nelle competenze sui contenziosi IA: l’articolo 15 introduce infatti la competenza esclusiva del Tribunale per le cause riguardanti il funzionamento dell’IA, ma l’associazione si chiede se la competenza si applichi anche a controversie indirettamente legate all’IA (es. danni provocati da algoritmi).
L’Aiga ha lamentato ambiguità e mancanza di sanzioni con riferimento l’articolo 12 del ddl, che prevede che i professionisti debbano informare i clienti sull’uso dell’IA ma senza specificare come debba avvenire questa comunicazione (orale o scritta) né come debba essere conservata. Inoltre, non sono previste sanzioni in caso di mancata comunicazione, rendendo la norma poco efficace. AIGA evidenzia che senza un sistema di monitoraggio e sanzioni, il rapporto fiduciario tra cliente e professionista potrebbe essere compromesso.
Confprofessioni dal canto suo ha criticato l’ambiguità del concetto di “prevalenza del lavoro intellettuale”, considerato vago e suscettibile di abusi nell’uso dell’IA per compiti che dovrebbero essere svolti dai professionisti. Ha segnalato il rischio di frodi, per la creazione di contenuti falsi o ingannevoli e uso indiscriminato di sistemi automatizzati senza un’adeguata supervisione, riducendo il controllo dei professionisti. Ha obiettato sui criteri di modulazione dell’equo compenso legata all’uso dell’IA, considerandola fonte di incertezza e rischio di disparità tra i professionisti. Infine ha contestato l’affidamento della formazione sull’IA esclusivamente agli ordini professionali, richiedendo l’inclusione di enti privati per garantire un pluralismo formativo.
Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News