I.A. e diritti umani

I.A. e diritti umani

Di fronte all’emergere di nuove tecnologie e fenomeni, come l’intelligenza artificiale, è importante non limitarsi a rispondere a problemi e sfide già esistenti (approccio reattivo), ma anche anticipare e pianificare per il futuro (approccio proattivo) bilanciando le legittime esigenze di protezione dell’individuo con la necessità di non gravare il settore high-tech con oneri eccessivi che potrebbero ostacolare lo sviluppo tecnologico e scientifico.

Un esempio emblematico di questo equilibrio si trova nel settore automotive, che rappresenta uno dei casi di studio più interessanti per analizzare le problematiche giuridiche legate all’emergere dell’intelligenza artificiale. Questo riguarda sia gli aspetti regolatori, prevalentemente tecnici (come i requisiti di omologazione, gli standard di sicurezza e la gestione dei dati sul traffico), sia le norme relative alla responsabilità per danni derivanti dall’uso, dalla detenzione, dalla proprietà, dalla produzione e dalla commercializzazione di veicoli autonomi. In questo contesto, lo sviluppo di nuove interpretazioni e norme dovrà considerare che, nonostante la risonanza mediatica di rari incidenti morali associati alle auto a guida autonoma, la diffusione di tali veicoli potrebbe portare a una significativa riduzione degli incidenti stradali.

Pertanto, è essenziale evitare di imporre al settore standard e norme di responsabilità eccessivamente severe, che potrebbero ritardare o scoraggiare l’introduzione di tecnologie il cui impatto, a livello macro, sarà comunque positivo. Si pensi, ad esempio, alle argomentazioni di chi, richiamando il noto dilemma del carrello, propone norme che obbligherebbero le auto driverless a valutare il numero di bambini a bordo e sulla strada per determinare quali soggetti siano più sacrificabili in situazioni di emergenza; tali imposizioni, oltre a sollevare dubbi di liceità, potrebbero causare ritardi significativi nella diffusione dei veicoli autonomi.

Un problema generale, tra gli altri, riguarda quanto delegare a nuove norme e quanto considerare risolvibile attraverso l’interpretazione, tenendo conto delle dimensioni globali della questione, che richiederebbero soluzioni uniformi a livello transnazionale. Le innovazioni normative potrebbero riguardare le previsioni regolamentari e amministrative relative agli standard tecnici di settore (come criteri di omologazione, regolamentazioni operative e requisiti di commercializzazione), in grado di recepire e modulare le istanze tecno-etiche ritenute meritevoli, limitando al contempo il ricorso a normative settoriali specifiche, ad esempio in materia di responsabilità. Da un lato, è necessario riflettere sulla possibilità di introdurre nuovi obblighi di omologazione preventiva per i sistemi di intelligenza artificiale, prima che possano essere commercializzati e utilizzati, soprattutto nei settori considerati ad alto rischio, come la sanità e la mobilità, o in quelli che hanno un impatto significativo sui diritti individuali. Un esempio di ciò riguarda l’uso previsto dell’IA nelle attività decisionali della pubblica amministrazione e nella giustizia.

Un’altra questione, sebbene distinta, è quella di valutare l’opportunità di creare nuove forme di protezione per i diritti delle macchine, nel caso in cui a un’intelligenza non umana venga riconosciuto uno status di persona o un riconoscimento simile, o almeno alcuni diritti o tutele in quanto pensante. Nel contesto lavorativo, è importante notare che gli algoritmi, se non progettati e monitorati adeguatamente, possono riflettere e amplificare i pregiudizi umani presenti nei dati di addestramento. Questo fenomeno, noto come bias algoritmico può portare a discriminazioni e disuguaglianze nel processo decisionale automatizzato. I pregiudizi possono derivare dai dati storici utilizzati per addestrare gli algoritmi, dai criteri di valutazione scelti o dalle variabili considerate rilevanti per le decisioni. Inoltre, la rigidità degli algoritmi può escludere candidati validi con profili diversi da quelli predefiniti, limitando così la diversità e l’inclusione nel processo di selezione. Questi aspetti si collegano alla teoria del nudging, che si basa sull’idea di influenzare le scelte delle persone in modo indiretto e non coercitivo, utilizzando strategie che le orientano verso comportamenti desiderati senza limitare la loro libertà di scelta. Questo approccio è parte dell’economia comportamentale e della scienza della decisione, che analizzano come le persone prendono decisioni in contesti reali, tenendo conto dei fattori psicologici e sociali. Il nudging sfrutta i pregiudizi cognitivi e i modelli di pensiero umano per progettare ambienti decisionali che facilitino scelte più vantaggiose per gli individui e per la società. In pratica, si tratta di strumenti e interventi progettati per guidare le persone verso comportamenti che migliorino la loro salute, benessere finanziario o felicità, ad esempio semplificando le opzioni, evidenziando scelte preferibili o creando incentivi positivi.

Per affrontare queste problematiche, è fondamentale adottare approcci etici e trasparenti nella progettazione e nell’uso degli algoritmi di selezione del personale. È cruciale considerare la diversità, l’equità e l’inclusione come principi fondamentali nella creazione e implementazione di tali strumenti. Inoltre, è consigliabile integrare diversi metodi di valutazione, evitando di basarsi esclusivamente su test psicoattitudinali, per ottenere una visione più completa e accurata dei candidati.

Sebbene, quindi, l’intelligenza artificiale offra numerosi vantaggi nel processo di selezione del personale, è essenziale prestare attenzione ai potenziali rischi legati ai pregiudizi algoritmici e alla mancanza di flessibilità, per garantire un processo decisionale equo, inclusivo e non discriminatorio. L’assenza di una definizione chiara e universale di intelligenza rende difficile stabilire obiettivi e criteri per valutare i progressi nell’IA. Inoltre, la complessità e la varietà delle prospettive sull’intelligenza umana complicano ulteriormente la situazione. L’intelligenza umana è un fenomeno estremamente complesso e multifattoriale, che coinvolge una vasta gamma di capacità cognitive, emotive e sociali, rendendo difficile definire con precisione cosa significhi essere intelligenti; allo stesso modo, replicare l’intelligenza umana in un sistema artificiale presenta sfide significative, poiché non esiste una formula definita per l’intelligenza. Alcune definizioni di intelligenza artificiale si concentrano sull’imitazione delle abilità umane, mentre altre si basano su criteri più ampi, come la capacità di apprendere, adattarsi e risolvere problemi in modo autonomo. Tuttavia, anche queste definizioni possono essere soggette a diverse interpretazioni e potrebbero non catturare completamente la complessità dell’intelligenza umana. Questa mancanza di chiarezza concettuale può dar luogo a discussioni e dibattiti prolungati nel campo dell’intelligenza artificiale, con diverse scuole di pensiero che propongono teorie e approcci contrastanti. Tuttavia, è fondamentale riconoscere che questa varietà di prospettive può stimolare innovazione e progresso, permettendo a ricercatori e sviluppatori di esplorare una vasta gamma di metodologie nell’ambito dell’I.A.

In generale, la ricerca sull’intelligenza artificiale trae vantaggio da una riflessione critica e approfondita sulla natura dell’intelligenza umana e sulla sua interazione con le macchine. Questo processo può contribuire a guidare lo sviluppo di sistemi I.A. più sofisticati e adattabili, capaci di integrarsi in modo efficace ed etico nella società. L’intelligenza artificiale, indipendentemente dalla prospettiva da cui la si osserva (e ci sono sicuramente molte angolazioni diverse da considerare), offre spunti scientifici, tecnologici, epistemologici e filosofici di grande rilevanza, rendendo quindi comprensibile e giustificato l’interesse diffuso. Tuttavia, in mezzo a questo entusiasmo, iniziano a emergere anche diverse voci di dissenso, per motivi opposti. Da un lato, ci sono obiezioni storiche riguardo alla possibilità di creare qualcosa di artificiale che possa essere definito intelligente, obiezioni che hanno alimentato per decenni il dibattito scientifico, in particolare nel campo delle scienze cognitive. In contrasto, ci sono preoccupazioni da parte di coloro che ritengono che le macchine, grazie alla loro crescente capacità di accumulare ed elaborare conoscenza, possano raggiungere un punto di singolarità tecnologica in cui l’intelligenza artificiale supererebbe quella umana. Secondo una definizione condivisa da molti, l’intelligenza artificiale si occupa di sviluppare strumenti (sia software che hardware) in grado di svolgere compiti normalmente associati all’intelligenza naturale.

Questa era la visione di coloro che coniarono il termine intelligenza artificiale durante il workshop tenutosi a Dartmouth nel 1956, considerato l’evento ufficiale di nascita della disciplina. Tuttavia, il sogno di creare macchine in grado di emulare pensieri e comportamenti umani ha radici molto più antiche. Il sillogismo aristotelico, ad esempio, rappresenta il primo sistema di argomentazione logica che, partendo da premesse, consente di dedurre conclusioni, offrendo così un primo esempio di ragionamento formale, in cui la correttezza del ragionamento dipende dalla sua struttura piuttosto che dal significato dei termini utilizzati.

Tuttavia, è solo nel XIII secolo, con Ramon Llull (1232-1316), che si ha una prima formulazione esplicita dell’idea di calcolo meccanico. Llull, attraverso la sua ars combinatoria (come la definì Leibniz), non solo propose un linguaggio logico algebrico per rappresentare la conoscenza e generare nuove verità a partire da premesse note, ma fornì anche una realizzazione pratica, come diremmo oggi, del suo modello di calcolo. Ritornando alla questione iniziale, perché oggi c’è un così grande interesse, a tutti i livelli, per l’intelligenza artificiale? Cosa è accaduto negli ultimi anni che ha portato a un’esplosione, anche mediatica, di questi argomenti? La risposta risiede in una combinazione di tre fattori che hanno attivato meccanismi di rinforzo positivo, creando un circolo virtuoso per l’efficacia delle applicazioni di intelligenza artificiale.

Il primo fattore significativo è legato alla ricerca scientifica e ai progressi in alcuni settori, in particolare nel machine learning. Si è passati da un modello algoritmico tradizionale, in cui il programmatore istruisce la macchina su ogni singolo passaggio, a modelli di calcolo sub-simbolico, dove la macchina apprende dall’analisi di ampi insiemi di dati di training. Questo cambiamento ha permesso di affrontare con successo problemi che le tecniche tradizionali non riuscivano a risolvere. Inoltre, il deep learning ha fornito strumenti tecnici che hanno prodotto risultati eccellenti in ambiti come la visione artificiale.

Un secondo aspetto cruciale è la disponibilità attuale di hardware specializzati, con potenze di calcolo che, solo pochi anni fa, non erano disponibili o erano troppo costose. Infine, un terzo fattore rilevante è la quantità di dati oggi accessibili.

L’intelligenza artificiale ha il potenziale di avere un impatto significativo sulla società, sia positivo che negativo. È fondamentale considerare le implicazioni etiche e sociali dell’intelligenza artificiale prima di implementarla su larga scala. Ad esempio, potrebbe automatizzare compiti attualmente svolti da esseri umani, portando alla perdita di posti di lavoro. Inoltre, potrebbe essere utilizzata per sviluppare armi autonome, aumentando il rischio di conflitti e di vittime civili. È essenziale che l’intelligenza artificiale venga sviluppata e utilizzata in modo responsabile, tenendo conto delle sue potenziali implicazioni etiche e sociali.

Le prospettive future dell’intelligenza artificiale sono incerte. Alcuni esperti ritengono che potrebbe raggiungere un livello di intelligenza superiore a quello umano, con conseguenze potenzialmente disastrose. Altri sostengono che l’intelligenza artificiale rimarrà sempre limitata dall’intelligenza umana e non costituirà una minaccia per l’umanità. È importante essere consapevoli delle possibilità future dell’intelligenza artificiale e di come queste potrebbero influenzare la società, sviluppando strategie per affrontare i potenziali rischi associati.

L’intelligenza artificiale, come l’informatica, trae gran parte delle sue basi dalla logica, un corpus di conoscenze accumulate nel corso dei secoli.

I sistemi di intelligenza artificiale sono già impiegati in vari ambiti, come la guida di veicoli autonomi, la diagnosi di malattie e la traduzione di lingue. Ad esempio, il sistema di guida autonoma di Waymo ha percorso oltre 20 milioni di chilometri senza gravi incidenti. Il sistema di diagnostica medica di IBM Watson ha dimostrato la sua efficacia nel diagnosticare il cancro in pazienti inizialmente diagnosticati in modo errato. Inoltre, Google Translate è capace di tradurre tra più di cento lingue.

È fondamentale considerare l’impatto dell’intelligenza artificiale e dei big data sulla salute mentale e sulle dipendenze comportamentali, in particolare il Disturbo da Dipendenza da Internet (DDI). Le tecnologie moderne basate sull’intelligenza artificiale sono utilizzate dalle principali aziende tecnologiche per personalizzare e migliorare l’esperienza degli utenti nei loro servizi digitali. Questo processo implica l’analisi di grandi quantità di dati generati dagli utenti attraverso le loro interazioni online, con l’obiettivo di mantenere gli utenti sulle piattaforme digitali il più a lungo possibile, aumentando così il loro coinvolgimento.

Tuttavia, questo approccio può portare a un’eccessiva esposizione e coinvolgimento online, contribuendo allo sviluppo di dipendenze comportamentali, incluso il DDI. Gli individui possono diventare dipendenti da diverse attività online, come social media, giochi, trading e altre forme di interazione digitale, il che può causare problemi significativi per la salute mentale, le relazioni interpersonali, il lavoro e la qualità della vita complessiva.

Inoltre, il concetto di risorse attentive è particolarmente pertinente in questo contesto. L’attenzione è una risorsa limitata e preziosa, e le tecnologie digitali competono per essa in modi che possono risultare dannosi per il benessere mentale. L’iperstimolazione digitale e la continua esposizione a notifiche, messaggi e contenuti online possono sovraccaricare le nostre capacità cognitive, portando a difficoltà di concentrazione, ansia e stress. Le notifiche incessanti e il flusso continuo di stimoli dai dispositivi digitali possono esaurire le nostre risorse attentive, causando stanchezza mentale e riducendo la nostra capacità di concentrazione.

L’uso intensivo degli smartphone può anche incoraggiare comportamenti di multitasking, portandoci a passare costantemente da un’attività all’altra senza mai dedicarci completamente a una singola attività. Sebbene questo possa farci sentire più connessi e capaci di gestire più compiti contemporaneamente, può anche compromettere la qualità della nostra attenzione e delle nostre capacità decisionali. Le generazioni più giovani, cresciute nell’era digitale, possono essere particolarmente vulnerabili a questi effetti, avendo vissuto fin dall’infanzia un flusso costante di informazioni digitali e un’attenzione divisa tra molteplici dispositivi e attività.

Sebbene la tecnologia digitale e l’intelligenza artificiale possano offrire vantaggi in termini di efficienza e accesso alle informazioni, è cruciale bilanciare il loro utilizzo con la necessità di preservare le nostre risorse attentive e promuovere una gestione sana del tempo e dell’attenzione. Ciò potrebbe richiedere pratiche di consapevolezza digitale e abitudini di utilizzo degli smartphone più equilibrate, oltre a politiche e regolamentazioni che incoraggino un design responsabile delle tecnologie digitali da parte delle aziende.

È essenziale esaminare criticamente come vengono progettate e utilizzate le tecnologie digitali, considerando le loro implicazioni per la salute mentale e il benessere degli utenti. Questo richiede un approccio più consapevole e responsabile da parte delle aziende tecnologiche, insieme a interventi individuali e collettivi per promuovere un uso equilibrato e consapevole delle tecnologie digitali.


Salvis Juribus – Rivista di informazione giuridica
Direttore responsabile Avv. Giacomo Romano
Listed in ROAD, con patrocinio UNESCO
Copyrights © 2015 - ISSN 2464-9775
Ufficio Redazione: redazione@salvisjuribus.it
Ufficio Risorse Umane: recruitment@salvisjuribus.it
Ufficio Commerciale: info@salvisjuribus.it
***
Metti una stella e seguici anche su Google News
The following two tabs change content below.

avv. Silvana Adinolfi

Latest posts by avv. Silvana Adinolfi (see all)

Articoli inerenti