Le norme italiane sull’AI

Le norme italiane sull’AI

Le norme per lo sviluppo e l’adozione di tecnologie di intelligenza artificiale: una prima disamina analitica della normativa italiana

di Michele Di Salvo

Il 23 aprile 2024, il Consiglio dei Ministri ha approvato un disegno di legge n. 1066AS con titolo “Norme per lo sviluppo e l’adozione di tecnologie di intelligenza artificiale”.

Il ddl è solo il primo, nelle intenzioni del Governo, di una serie di provvedimenti specifici di attuazione di deleghe che il Governo dovrà attuare in 12 mesi.

Lo sviluppo dei sistemi di intelligenza artificiale è affidato a una strategia predisposta da un’apposita struttura della Presidenza del Consiglio, d’intesa con le Autorità nazionali competenti in materia di innovazione tecnologica, il ministero del Made in Italy e quello dell’Università. La scelta denota l’intenzione del governo di giocare un ruolo cruciale nel processo di sviluppo dei sistemi di I.A. Del resto, ciò si evince anche dalla scelta di affidare a AgId e all’Agenzia per la Cybersicurezza Nazionale il compito di garantire l’applicazione della normativa nazionale ed europea, essendo entrambe agenzie tecniche della Presidenza del Consiglio.

Il rischio tuttavia è che su questo tema un eccessiva logica nazionale male si concilia con il gap tecnologico e di investimenti in ricerca e sviluppo: senza mezzi termini sarebbe forse stato preferibile – secondo l’opinione di chi scrive – un programma che per quanto affidi una stretta vigilanza e coordinamento sullo sviluppo e contestualmente regolamenti in modo peculiare l’utilizzo dello strumento e la gestione dei dati, fosse stata orientata a una “collaborazione specialistica”.

Per essere concreti qualcosa di simile al Cern o al modello Airbus o anche all’Esa: modelli che evidentemente funzionano, sono efficienti e organizzati e soprattutto raggiungono risultati e obiettivi.

Il rischio – nemmeno tanto nascosto – è che dietro questa “nazionalizzazione” e accentramento vi sia la smania di gestire (in tutti i sensi) e orientare le risorse (ingenti) che stanno  per piovere sul settore, anche in termini clientelari ed elettorali.

All’interno della strategia per lo sviluppo dell’intelligenza artificiale rientra anche l’attività di venture capital del Ministero delle imprese e del Made in Italy, ossia l’acquisto di partecipazioni (fino all’ammontare complessivo di un miliardo di euro) in PMI (piccole e medie imprese), operanti nel settore delle nuove tecnologie, del calcolo quantistico ovvero delle telecomunicazioni e dotate di un alto potenziale di sviluppo.

È peculiare la scelta del Governo di privilegiare fornitori che operino in territorio italiano piuttosto che, più genericamente, entro il perimetro del mercato europeo (art. 5).

Particolarmente significativa è l’interpretazione definitoria di sui all’articolo 1, secondo il quale il disegno di legge ha l’obiettivo di promuovere “un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità”.

L’approccio antropocentrico all’intelligenza artificiale emerge dall’art. 3 che prevede che l’utilizzo di questa nuova tecnologia avvenga nel rispetto dei diritti fondamentali previsti dalla Costituzione e dal diritto europeo e anche dei principi di trasparenza e proporzionalità dei processi, attendibilità e correttezza dei dati utilizzati per lo sviluppo dei sistemi di intelligenza artificiale.

E qui a parte che non è chiaro il significato di antropocentrico (in senso generale ogni strumento creato dell’uomo è in sé antropocentrico, anche l’ergonomicità di un martello è antropocentrica), qualche dubbio sorge proprio sulle affermazioni dell’articolo 3.

L’utilizzo di questa nuova tecnologia deve avvenire nel rispetto dei diritti fondamentali previsti dalla Costituzione e dal diritto europeo e anche dei principi di trasparenza e proporzionalità dei processi, attendibilità e correttezza dei dati utilizzati per lo sviluppo dei sistemi di intelligenza artificiale.

Ora, a parte il paravento dichiarativo (nelle leggi spesso si declamano affermazioni di principio altisonanti), e premesso che anche da un punto di vista tecnico-legislativo la norma non avrebbe potuto disporre diversamente. A dirla tutta se avesse diversamente disposto sarebbe stata illegittima sotto ogni profilo legale.

Nel merito non se ne comprende il contenuto. Chiarito infatti che non può statuirsi che una attività possa essere “contraria ai diritti fondamentali previsti dalla Costituzione e dal diritto europeo e anche ai principi di trasparenza e proporzionalità dei processi, attendibilità e correttezza dei dati utilizzati per lo sviluppo dei sistemi di intelligenza artificiale” nulla viene detto sul come questi diritti – già stabiliti e inalienabili – vengano difesi, valorizzati e tutelati “nel caso specifico”. 

E dato che questi diritti appaiono sempre più “volatili” – quando non mere dichiarazioni di principio nell’era del liberismo congiunto alla globalizzazione, in cui i detentori degli strumenti di base dell’IA sono multinazionali per la grande maggioranza non europee  

– sarebbe forse stato auspicabile spendere qualche parola in più su processi di tutela attiva, preventiva, prudenziale, rispetto a stabilire che “tutto deve essere controllato dal governo”.

Il disegno di legge contiene una serie di principi da applicare ai settori: dell’informazione, dello sviluppo economico, della sanità, delle professioni intellettuali, dell’attività giudiziaria, della tutela degli utenti, del diritto d’autore e, infine, anche della tutela penale.

L’art. 4 si occupa dell’uso dei sistemi di I.A. in materia di informazione, prevedendo la tutela della democraticità e del pluralismo dei mezzi di comunicazione; le informazioni relative al trattamento di dati personali devono essere chiare e accessibili a chiunque, al fine di garantire ai diretti interessati la facoltà di opporsi alla loro condivisione.

Anche in questi casi non sono né chiari né chiariti i rimedi, gli strumenti, i sistemi messi a disposizione della tutela di questi diritti (basta comparare la velocità della Ai alla nostra giustizia civile e il quadro è perfetto).

Lo sconcerto però si manifesta nel fatto – credo non trascurabile – che non si è capito proprio con cosa si ha a che fare.

L’intelligenza artificiale è un sistema di iper computazione unito a tecnologie di machine learning; per funzionare deve “macinare dati e informazioni” altrimenti ad esempio non si comprende come possa crescere una “ia generativa”.

E questi dati l’IA li prende in tutto il web.

Ora, dato che i siti web più autorevoli, come le televisioni maggiori e più accreditate, hanno chiuso i loro accessi ai loro contenuti, questo significa che l’IA generativa (ad esempio ChatGPT) quando risponderà a un vostro quesito potrà attingere a quora e ai post di facebook (per esempio).

Ecco, questo è essere concreti.

E non basta certo un generico riferimento in un comma dell’articolo 5 in cui si legge “garantiscano alle imprese impegnate nel settore l’accesso a dati di alta qualità” a risolvere la questione. Perché tale accesso non è normato, e l’alta qualità non è definita (nemmeno definibile a priori) nè questo comma può violare la proprietà industriale e di ricerca e di copyright.

In particolare, l’art. 23 prevede l’introduzione, nel contesto della disciplina dei servizi audiovisivi – previa acquisizione del consenso dai titolari dei diritti – di un obbligo di identificazione dei contenuti creati o modificati tramite sistemi di IA “che siano in grado di presentare come reali dati, fatti e informazioni che non lo sono”, tramite l’inserimento di un apposito segno di riconoscimento. Si tratta della risposta alle preoccupazioni generate dai cosiddetti “deepfakes”. Tale obbligo di trasparenza è posto in capo all’autore o titolare dei diritti su tale contenuto: saranno le modalità attuative di tale norma a chiarire su chi gravi materialmente tale responsabilità. L’inserimento del segno identificativo è escluso quando il contenuto fa parte di un’opera o di un programma manifestamente creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le dei terzi. La soluzione dei dubbi sulle modalità attuative è rimessa a fonti di soft law di autodisciplina e co-regolamentari.

Il governo punta a favorire lo sviluppo del tessuto imprenditoriale italiano; per questo motivo, l’art. 5 stabilisce che lo Stato e gli altri enti pubblici:

  • promuovano l’utilizzo nei processi di produzione dell’I.A. per migliorare l’interazione uomo-macchina e incrementare la produttività;

  • favoriscano lo sviluppo di un mercato italiano dell’intelligenza artificiale innovativo e aperto;

  • garantiscano alle imprese impegnate nel settore l’accesso a dati di alta qualità;

  • indirizzino le piattaforme digitali di approvvigionamento di cui si servono le pubbliche amministrazioni in modo che vengano privilegiate quelle soluzioni che garantiscono la localizzazione ed elaborazione dei dati critici presso data center posti sul territorio nazionale.

Non è chiaro alcun indirizzo specifico. A meno di un “modello antropocentrico che rispetti la costituzione”. E a parte un esplicito protezionismo di chiaro stampo ottocentesco, quello che pare l’asse portante è l’orientamento dell’IA a favore del processo di tecnologizzazione delle imprese di produzione.

Per quanto riguarda l’ambito sanitario, l’uso di sistemi di I.A. non deve tradursi nella selezione di criteri discriminatori per l’accesso alle cure e alle prestazione mediche. Il principio del consenso informato viene declinato nel dovere di informare il paziente circa l’utilizzo di sistemi di intelligenza artificiale.

Bene. Ma tutto questo era già previsto, per altro da norme generali consolidate da ampia giurisprudenza. Quello che viene omesso è il trattamento e la gestione e la tutela del prodotto derivato da questo utilizzo.

La questione si era posta a proposito dei metadati.

Google paradossalmente e drammaticamente afferma il vero quando diniega l’acceso a molte infomazioni richieste sul proprio conto dagli utenti: google non sa davvero alcune cose, perchè i dati trasformati sezionati riassemblati, diventano un metadato articolato e amorfo in cui il singolo individuo non è più rintracciabile.

Il punto essenziale era normare e tutelare il metadato: una sfida fallita.

Un’IA può certamente avere bisogno del consenso informato per acquisire “il primo dato” originator dell’informazione, e le norme esistenti già regolamentano tale “accesso”.

Ma l’IA non è un cloud in cui sono semplicemente conservati file in cartelle separate e riconoscibili; l’IA che analizza 1 milione di ecografie al mese in Italia (ad esempio) può scomporre il dato: il ginecologo cerca i dati vitali del feto, ma domani IA può indagare sul macrodato della microcircolazione delle parete uterine: 12 milioni l’anno di uteri anonimi ma che dicono moltissimo.

Questo dato chi lo gestisce e tutela, come? Anche economicamente (dal momento che le case farmaceutiche, le industrie produttrici di sistemi scanner etc possono trarne enormi profitti. E chi può accedere a questi dati, o chiedere cosa analizzare e cercare a questa IA a scopo di ricerca? Con quali fini?

Qui non è che manca la norma, e basta un emendamento. Qui non si è capita proprio la cosa da regolamentare, e alla base non si è proprio compreso il fenomeno, e si direbbe nemmeno di cosa si sta parlando.

La disciplina dell’uso dell’I.A. è altresì cruciale nelle professioni intellettuali, dove l’utilizzo di sistemi di intelligenza artificiale è consentito esclusivamente per esercitare attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.

Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.

Si pone, quindi e innanzitutto, un interrogativo con riguardo al significato da attribuirsi al concetto di “attività strumentali e di supporto” ed ai criteri di misurazione della “prevalenza” invocata dalla norma. A tal riguardo, non va dimenticato che i professionisti competono con colleghi di altri Paesi e con società di servizi nei cui confronti tali limitazioni non risulterebbero applicabili.

La mal celata idea sottostante a queste affermazioni è che il professionista, chiamato ad esempio a scrivere un testo, si sieda in poltrona, scriva il quesito a ChatGPT e questa lavori per lui. 

È l’antropocentrismo della logica umana fraudolenta.

Progettare un ponte o un tunnel in cui tutti i calcoli, le simulazioni virtuali, l’elaborazione 3D e i calcoli strutturali e finanche di ogni singolo componente, in questo “progetto di ponte” come si collocano?

Perchè questo già avviene: sono già sistemi di machine learning con iper capacità computazionale a fare queste cose.

In ambito giudiziario i sistemi di intelligenza artificiale saranno utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale. 

Sarà il Ministero della Giustizia a disciplinare l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari. Per le altre giurisdizioni l’impiego è disciplinato in conformità ai rispettivi ordinamenti.

Rimane riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento.

Sarà il Tribunale civile l’organo competente a decidere di cause relative al funzionamento AI.

C’è un punto poco chiaro: se tra le prove, nelle CTU e CTP, nelle ricostruzioni, nelle indagini, vengono usati sistemi di IA quanto il provvedimento adottato sulla base della loro valutazione è “esente da IA”?

Soprattutto manca ogni limite e riferimento – per quanto il dibattito non solo accademico sia ampio e diffuso – sui criteri di programmazione degli algoritmi in questa materia, soprattutto ai fini della verifica anche solo potenziale di procedimenti discriminatori e pregiudiziali.

Poiché l’uso dell’intelligenza artificiale si interseca spesso con la tutela degli utenti dei servizi audiovisivi o radiofonici e con la materia del diritto d’autore, l’art. 23 del d.d.l. stabilisce che qualsiasi contenuto informativo trasmesso su qualsiasi tipologia di piattaforma audiovisiva o radiofonica che sia stato interamente creato o modificato con sistemi di IA deve essere reso, a cura dell’autore o del titolare dei diritti di sfruttamento economico, riconoscibile da parte degli utenti mediante apposizione di un segno identificativo o una marcatura incorporata con dicitura “I.A.”.

In materia di tutela del diritto d’autore, invece, il d.d.l. all’art. 24 prevede la modifica dell’art. 1, L. 633/1941 in base alla quale rientrano tra le opere dell’ingegno, e dunque sono tutelate dalla predetta legge, anche quelle che siano state create con l’utilizzo dell’intelligenza artificiale, ove l’apporto umano sia comunque “creativo, rilevante e dimostrabile”.

Anche in questo caso l’antropocentrismo lascia il posto al “sospetto sull’uomo”.

Eppure i principi esistono e sono mutuabili ad esempio dalle esperienze di common-law (per ragioni ovvie e cronologiche sono anche i sistemi che da più tempo si occupano di casi concreti in materia), invece, il copyright dipende dalla soglia di originalità ovvero dalla c.d. “threshold of originality” data da tre presupposti ovvero: skill (competenza creativa), labour (impegno, lavoro) e judgement (capacità di discernere, distinguere e scegliere gli elementi distintivi dell’opera).

In estrema sintesi, possiamo dire che utilizzando questo triplice parametro (simultaneamente sussistente e in cui gli elementi devono essere quantomeno equipollenti, se non quantitativamente equivalenti) per la giurisprudenza anglo-americana, le opere prodotte con sistemi di intelligenza artificiale presentano skills e labour. Manca, invece, il judgement che appartiene all’essere umano.

Sono principi di buon senso, e non eccessivamente elastici come potrebbe sembrare, eppure pare evidente che a chi ha scritto la norma la cosa è sfuggita radicalmente.

Il sottosegretario Butti ha specificato che in tema di diritto d’autore la competenza è comunitaria e già le norme Ue disciplinano il tema della tutela dei contenuti in caso di web scraping, con il meccanismo dell’opt – out da parte dei titolari dei diritti.

Il ddl prevede due novità e un richiamo: la necessità di un segno di identificazione su qualsiasi tipo di contenuto sia realizzato o modificato con AI; la tutela d’autore per le opere prodotte con AI purché il contributo umano sia creativo, rilevante e dimostrabile; e il richiamo alla legge sul diritto d’autore per la riproduzione e l’estrazione di opere o altri materiali attraverso modelli e sistemi di intelligenza artificiale anche generativa, consentiti per ragioni di ricerca o quando l’utilizzo delle opere e degli altri materiali non è stato espressamente riservato dai titolari del diritto d’autore e dei diritti connessi nonché dai titolari delle banche dati.

E si qui, per essere pratici, nulla che non sia previsto ad esempio in un qualsiasi disclaimer di un libro cartaceo.

Infine, il governo interviene anche in materia penale, punendo l’uso distorto dei sistemi di intelligenza artificiale, capace di creare danno a beni giuridici come l’integrità morale degli individui.

Infatti, viene introdotta una nuova fattispecie di reato all’art. 612-quater c.p., che punisce “Chiunque, al fine di arrecare nocumento a una persona e senza il suo consenso, ne invia, consegna, cede, pubblica o comunque diffonde l’immagine, un video o la voce, falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità” (in cui rientrano ad esempio azioni cd. deep fake) con la reclusione da sei mesi a tre anni ovvero da uno a cinque anni se dal fatto deriva un danno ingiusto. 

Il delitto è punibile a querela della persona offesa, ma si procede d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate.

Sono altresì previste una serie di aggravanti concernenti l’uso dell’intelligenza artificiale agli articoli 61, comma 11-novies, 494 e 501 c.p.

Sempre sul fronte penalistico, l’utilizzo di sistemi di AI diventa inoltre circostanza aggravante per una serie di reati quali la sostituzione di persona, rialzo e ribasso fraudolento di prezzi, truffa, frode informatica, riciclaggio a autoriciclaggio, aggiotaggio.

La tutela del diritto d’autore si estende nel caso di riproduzione o estrazione di testo o dati da opere o altri materiali disponibili in rete o in banche  di dati in violazione degli articoli 70-ter e 70-quater, anche attraverso sistemi di intelligenza artificiale. 

Sotto questo profilo il provvedimento non si discosta dalla tradizione governativa per cui ogni intervento normativo interviene, talvolta anche solo incidentalmente, in materia penale.

La delicatezza della specificità penalistica richiederebbe maggiore cautela a questo modo di procedere, anche ai fini del rigore stilistico della codicistica, strumento primo di attuazione di quel principio di “conoscenza e conoscibilità” della norma penale come presupposto della consapevolezza della commissione del reato.

A furia di inserire articoli bis-ter-quater e commi “x-nonies” il codice penale italiano è più che triplicato in termini di volume senza che ciò abbia influito in maniera diretta sulla riduzione dei reati (se non quelli aboliti o trasformati nella fattispecie amministrativa). 

Ciò invece ha portato a una minore chiarezza, minore conoscibilità, e quindi minore certezza, tutti elementi accompagnati dal fatto oggettivo che quanto più inserisci tanto più si rischia di creare un conflitto tra norme, incertezza di applicabilità in concreto, conflitto tra reati – oggettivo o interpretativo – e ampliare i margini di interpretazione: tutte caratteristiche che mal si conciliano con l’articolo 27 della Costituzione e in generale con un sistema penale garantista (ma anche solo definibile come civile, e al contempo almeno utile, se no efficace).

Del 612-quater ad esempio non vi era stringente bisogno: bastava far rientrare la fattispecie come specifica nel 612. e se si voleva modificare la forbice sanzionatoria prevista bastava emendarlo. Considerare l’uso dell’IA – che è uno strumento – come un elemento aggravante della pena è più un manifesto politico che non uno strumento efficace nell’alveo penalistico. È come se il reato di strage previsto dall’articolo 422 cp (uno di quei reati per i quali non esiste il “tentativo”, ma aver solo messo un ordigno anche se esploso senza vittime umane corrisponde alla fattispecie) fosse più grave se commesso con una bomba rispetto a un mitra e meno grave se commesso con pistola.

Ciò che dovrebbe contare in ambito penale – che ricordiamo è quella branca del diritto che incide sulla libertà delle persone – dovrebbe essere, sia come aggravante che come attenuante, “il fatto”, e il conseguente danno e la lesione del diritto conseguenti.

La materia penale dovrebbe essere parsimoniosa, ma così correrebbe il serio rischio di diventare anche chiara, certa e stabile, come ogni diritto penale che si rispetti.

Ma il vizio della “politica debole” di intervenire in “modo forte” con articoli-manifesto politici in materia penale è la via breve per dire di aver fatto qualcosa di concreto. Una concretezza reificata in poche righe scritte in una legge. Ed è un tema di tecnica legislativa bipartisan.

Valorizzati i piani didattici personalizzati per studenti con alte capacità cognitive per la integrazione di formazione in AI e utilizzo di sistemi di intelligenza artificiale per il miglioramento del benessere psicofisico attraverso l’attività sportiva, anche ai fini dello sviluppo di soluzioni innovative finalizzate a una maggiore inclusione in ambito sportivo delle persone con disabilità.

Se fosse sfuggito chiariamo: l’IA va utilizzare per supportare i piani didattici personalizzati per studenti con alte capacità cognitive, mentre per le persone con disabilità vanno ricercate soluzioni innovative finalizzate a una maggiore inclusione in ambito sportivo.

È più chiaro così il modello culturale sottostante?

Si ignora completamente tutto il comparto, ormai decennale, di studi rivoluzionari dell’uso di IA (oggi) e quello quarantennale dell’uso dell’informatica (ieri) per lo sviluppo e il supporto cognitivo delle persone diversamente abili, o anche inabili.

Nel rispetto dei principi generali di cui alla presente legge, i sistemi di intelligenza artificiale possono essere utilizzati anche per l’organizzazione delle attività sportive.

Sul rapporto tra sistemi di AI e minori il Governo fissa una serie di paletti: per i minori di anni 14 occorre il consenso dei genitori; il minore tra 14 e 18 anni può esprimere il proprio consenso per il trattamento dei dati personali connessi all’utilizzo di sistemi di intelligenza artificiale, purché le informazioni e le comunicazioni (informative privacy)  siano facilmente accessibili e comprensibili (sic!). Più in generale le informazioni e le comunicazioni relative al trattamento dei dati avvengono con linguaggio chiaro e semplice, in modo da garantire all’utente la piena conoscibilità e la facoltà di opporsi ai trattamenti non corretti dei propri dati personali.

Ora, non siamo stati capaci di fare questo con Google, Facebook & soci sui dati, abbiamo perso completamente senza “capire la cosa” sui metadati, e adesso vorremmo questi principi applicati alla IA che è una ipercapacità computazionale? 

Un linguaggio chiaro e semplice per spiegare processi di gestione ed elaborazione di metadati complessi è si auspicabile, ma dovrebbe chiederlo e chiarirne le regole qualcuno che abbia almeno compreso il fenomeno. Qui è evidente che non è così.

Con quale linguaggio si dovrebbe dire con chiarezza e semplicità che il tuo dato ti viene preso, punto, alla IA in fin dei conti non solo non importa quasi nulla che sia di Mario Rossi o Maria Bianchi, anzi i nomi e cognomi sono “dati in più” che appesantiscono il processo.

Che questi dati verranno macinati, sminuzzati, selezionati, ricompattati, riformulati: è come fare una casa abbattendone tre e scegliendo i pezzi per costruire il nuovo edificio anonimizzando le provenienze. 

Ecco andrebbe spiegata così: ma è proprio così che non verrà spiegata.

Sviluppo economicocybersicurezza sono comparti nei quali è valorizzata la messa a disposizione di dati di qualità e lo storaggio in data center nazionali: ma sono principi di massima. A leggere tre volte il periodo per altro ci si accorge che è talmente vuoto da diventare assurdo, talmente inutile da non potersi nemmeno dire che è “sbagliato”

L’art. 6 individua poi le attività svolte con l’ausilio di sistemi di IA per scopi di sicurezza e difesa nazionale – ivi incluse le attività poste a tutela della sicurezza nazionale nello spazio cibernetico – che sono escluse dall’ambito di applicazione del disegno di legge.

Le disposizioni dell’art. 8 denotano il tentativo di rimuovere alcuni degli ostacoli che il quadro normativo attuale pone rispetto all’utilizzo di dati sanitari per finalità di ricerca scientifica. Si prevede tra l’altro che i soggetti no-profit siano legittimati all’uso secondario di dati personali, anche di categorie particolari, già raccolti in occasione di precedenti progetti di ricerca, senza la necessità di richiedere agli interessati un ulteriore consenso.

Naturalmente si tratta di un testo destinato ad essere discusso e rivisto in sede parlamentare ma si possono comunque evidenziare, per un verso, dei profili di incompatibilità con le previsioni del GDPR e, per altro verso, un vuoto con riguardo all’attività di ricerca scientifica da parte di organizzazioni con scopo di lucro.

Si pone, inoltre, un problema di coordinamento con le previsioni in materia di ricerca scientifica in ambito sanitario, contenute nella legge di conversione del cosiddetto decreto PNRR, approvata in via definitiva proprio il 23 aprile (lo stesso giorno della approvazione del DDL IA), e volte ad emendare l’articolo 110 del d.lgs. n. 196/2003 (Codice Privacy).

Tali disposizioni, tra l’altro, fanno venire meno l’obbligo di consultazione preventiva del Garante nel caso di trattamento di dati relativi alla salute, in assenza del consenso dell’interessato, a fini di ricerca scientifica in campo medico.

In sintesi quindi quel poco di garanzia sui dati più sensibili viene di fatto elusa, ed al contempo viene taciuto ogni riferimento alla normativa sulla gestione dei dati da parte delle società profit. 

Le pubbliche amministrazioni utilizzano l’intelligenza artificiale allo scopo di incrementare l’efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo. L’adozione di ogni provvedimento rimane nella responsabilità dei funzionari e dirigenti (responsabilità su cui non si interviene).

Il testo di 26 articoli stabilisce che la sua attuazione, anche da parte delle pubbliche amministrazioni, sia neutrale dal punto di vista finanziaria. Nessuna risorsa in più, se non il miliardo (già pre-esistente, semplicemente diversamente vincolato) a CDP Venture capital destinato al sistema imprenditoriale, che dovrebbe trainare investimenti privati pari a 3 miliardi.

“L’Italia è il primo paese ad aver varato una politica industriale sulla AI”, ha sottolineato Butti.

Affermazione decisamente enfatica, sproporzionata e tecnicamente nemmeno veritiera.

L’attenzione “industriale” c’è in tutte le normative di settore. Semmai c’è da chiedersi se per dare attenzione (ed enfasi a questa attenzione) alla industrialità non siano stati omessi altri aspetti, ontologicamente più centrali.

Per inciso su questa questione si attende di leggere la Strategia italiana, per ora uscita solo in executive summary, mentre nel ddl è dedicato l’articolo 21. 

Nelle dieci pagine di documento dell’AGID invece si prevede un’idea rivoluzionaria: creare una Fondazione per coordinare… una nuova istituzione, e se possibile anche la più old-economy (anche se tra le più flessibili).

È interessante però un’altro aspetto dell’affermazione di Butti “L’Italia è il primo paese ad aver varato una politica industriale sulla AI”: una politica industriale senza risorse e isolata. Che qualcuno spieghi a Butti cos’è una politica industriale.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News

Articoli inerenti