fbpx
rischi intelligenza artificiale

I rischi dell’AI: da un futuro apocalittico a un presente incerto

L'intelligenza artificiale potrebbe costituire una minaccia per il genere umano, secondo alcuni. Ma sicuramente rappresenta un problema presente per la tutela dei diritti umani. Cosa sta facendo l'Europa in merito?

11 minuti di lettura

Secondo un appello firmato da alcuni dei più importanti esperti nell’ambito dell’high tech, come Bill Gates e i padri dell’AI Geoffrey Hinton e Yoshua Bengio, la leadership globale dovrebbe trattare lo sviluppo dell’intelligenza artificiale come una minaccia per la vita del genere umano sulla terra, al pari della guerra nucleare e delle pandemie.

La breve nota, pubblicata sul sito del Center for AI Safety, un centro di ricerca non profit con sede a San Francisco, recita:

«Mitigare il rischio di estinzione dovuta all’intelligenza artificiale dovrebbe essere una priorità globale accanto agli altri rischi su scala sociale come le pandemie e la guerra nucleare».

Appello lanciato il 30 Maggio 2023 su Center for AI Safety

Per quanto la frase possa apparire catastrofista e l’appello sensazionalista, vista la brevità e l’assenza nel testo di ulteriori informazioni, esiste una letteratura scientifica che approfondisce il tema dell’X-Risk, cioè del rischio esistenziale posto da un’eventuale superintelligenza che, in caso comparisse sulla faccia della terra toglierebbe all’uomo il primato che gli ha permesso di dominare sulle altre specie. Il problema sarebbe, in sintesi, che a un certo punto l’AI potrebbe diventare più intelligente dell’uomo e dunque incontrollabile. Questi esperti chiedono maggiore regolamentazione e legislazione per quanto riguarda lo sviluppo di queste tecnologie, in un settore del mercato in cui gli attori privati, cioè gli enti di ricerca e soprattutto le aziende dell’high-tech sembrano essere padroni in tutto e per tutto, grazie alle opportunità che la dimensione globale del mercano offre.

Leggi anche:
Alle frontiere del Metaverso

L’intelligenza artificiale e le sfide nel rispetto dei diritti umani oggi

Accanto ai rischi che si collocano in un immaginario distopico, forse più vicino di quanto si possa immaginare oppure che più fantasiosamente ripropone le trame dei film di fantascienza più inquietanti, ci sono però i rischi che l’intelligenza artificiale rappresenta già ai giorni nostri. Queste minacce riguardano principalmente la libertà e i diritti umani fondamentali, come il diritto alla privacy, all’obiezione e all’oblio. I rischi in questi casi non derivano dal fatto che questi strumenti tecnici sfuggano al controllo umano, ma al contrario che apparati di potere li utilizzino efficacemente per perseguire i propri scopi, in particolare quelli di “sicurezza”, termine che in certi contesti si traduce sempre più spesso in repressione politica. La Cina è un esempio lampante, con il suo sistema di controllo basato su una rete di telecamere che utilizzano il riconoscimento facciale, basato proprio sugli algoritmi AI, negli spazi pubblici così come nelle case private. In particolare nella regione dello Xinjang le inchieste delle organizzazioni internazionali per i diritti umani sottolineano come la sorveglianza basata sull’intelligenza artificiale sia un mezzo chiave di repressione della comunità Uigura e che spesso dall’identificazione si passa all’imprigionamento dei membri di questa minoranza etnica nei cosiddetti campi di rieducazione del regime cinese.

L’AI in Europa e gli sforzi di regolamentazione

Nell’Occidente liberale, nell’ambito dell’utilizzo delle tecnologie di riconoscimento facciale (RFT) l’enfasi viene posta sulla dimensione della sicurezza pubblica: anti-terrorismo e strategie di prevenzione del crimine nello specifico. In Europa in particolare, lo sviluppo di sistemi di sorveglianza RFT negli spazi pubblici è ad un livello sperimentale, già nel 2021 erano presenti in 15 paesi, tra cui Italia, Francia e Germania. Non sono solo le frontiere e gli aeroporti i contesti in cui queste tecnologie vengono utilizzate, ma anche le reti di trasporti, gli stadi, le piazze che ospitano eventi di massa.

Di fronte all’avanzamento dell’AI da due anni a questa parte le istituzioni dell’Unione stanno lavorando a una proposta della Commissione Europea per regolamentare lo sviluppo e l’impiego di queste tecnologie. Non si tratta solo di normare la sorveglianza, che rischia di trasformarsi in sorveglianza di massa, definita illegale in svariate sentenza sia dalla Corte di Giustizia Europea che dalla Corte Europea per i Diritti Umani, ma di applicare l’approccio risk-based a tutti gli strumenti che impiegano l’AI in generale.

La proposta dell’Artificial Intelligence Act è stata avanzata dalla Commissione il 21 aprile 2021, ad oggi sono in corso i cosiddetti trilogues, cioè i dialoghi informali tra Commissione, Consiglio e Parlamento Europeo che discutono gli emendamenti proposti dalle due istituzioni legislative europee. Il confronto pare essere ancora ad un livello preliminare: si discute su quale definizione di AI utilizzare come riferimento fondamentale del testo legislativo, tra le oltre quaranta opzioni ancora sul tavolo. Considerando i tempi lunghi dell’iter legislativo dell’UE e la complessità del tema in questione due anni non sono un tempo fuori dalla norma, i commentatori però auspicano una ratificazione del testo finale entro la fine del 2023.

L’approccio risk-based al cuore della proposta dell’AI Act consisterebbe in una classificazione di ogni strumento di intelligenza artificiale come ad alto, medio o basso rischio e in una messa al bando di tutti quei prodotti che rappresentano un rischio alto, incompatibile con le urgenze di rispetto dei diritti del cittadino.

L’AI nel mercato globale

Numerosi prodotti oggi sperimentati in territorio europeo, prodotti da aziende europee e commercializzati nel mercato globale, che vedono come acquirenti anche regimi dispotici come quello cinese, rientrerebbero nella categoria ad alto rischio. Tra le tecnologie che verrebbero vietate dall’AI Act ci sono l’identificazione biometrica in tempo reale e in differita (con l’eccezione di specifici casi in cui viene richiesta dall’autorità giudiziaria), i sistemi biometrici di classificazione che utilizzano come parametri caratteristiche come genere, etnia, status di cittadinanza, religione e orientamento politico, sistemi di polizia predittivi basati sulla profilazione, localizzazione e ricerca di dati su comportamenti criminali passati e sistemi biometrici di riconoscimento delle emozioni.

Se da un lato le sperimentazioni in Europa che utilizzano queste tecnologie difficilmente passano allo step successivo e all’implementazione ufficiale a causa dell’opposizione dei Garanti della Privacy nazionali, dall’altro sono anche le aziende europee a vendere questi strumenti ad autorità politiche che non garantiscono in alcun modo il rispetto dei diritti umani. L’inchiesta del 2020 di Amnesty International Out of Control: Failing EU Laws for Digital Surveillance Export riporta tre casi di aziende europee che hanno venduto sistemi di sorveglianza basati sull’intelligenza artificiale, che l’AI Act vieterebbe, alle autorità cinesi.

La compagnia francese Idemia avrebbe fornito al Shangai Public Security Bureau sistemi di riconoscimento facciale per fini investigativi, la svedese Axis Communication ha venduto telecamere per il controllo da remoto e la sorveglianza di massa, l’olandese Noldus Information Technology ha fornito a diverse università sistemi di analisi del comportamento e riconoscimento emotivo, formalmente per condurre ricerche sui temi dell’educazione, tra questi istituti accademici troviamo la Shihezi University nello Xinjang e la Public Security University, la quale è sotto il diretto controllo del Ministero della pubblica sicurezza cinese.

Proprio per limitare queste attività commerciali discutibili, le istituzioni europee hanno optato per l’aggiornamento della Dual Use Regulation, originariamente datata 2009, emanando una revisione nel settembre 2021 e introducendo il principio dell’end-use control sui sistemi di sorveglianza e l’obbligo di licenze di esportazione specifiche nel caso in cui ci siano rischi che l’acquirente utilizzi i prodotti per commettere violazioni dei diritti umani.

Insomma, sia che si tratti di prevedere rischi apocalittici futuri sia che in palio ci sia il rispetto dei diritti umani nel presente, lo sviluppo tecnologico guidato da attori privati che sfuggono a codici e norme pone in primo piano la necessità urgente di tappare le falle legislative presenti nei nostri ordinamenti e di coordinarsi a livello globale, vista la dimensione globale del fenomeno e del mercato. Pur tenendo a bada gli allarmismi, una parte importante della comunità scientifica e degli attivisti per i diritti umani ci ricordano ancora una volta che quando si tratta di intelligenza artificiale e dei rischi che comporta quella che Hans Jonas definiva euristica della paura è ancora l’opzione più saggia.

Non abbiamo grandi editori alle spalle. Gli unici nostri padroni sono i lettori. Sostieni la cultura giovane, libera e indipendente: iscriviti al FR Club!

Segui Frammenti Rivista anche su Facebook e Instagram, e iscriviti alla nostra newsletter!

Francesca Campanini

Classe 1999. Bresciana di nascita e padovana d'adozione. Tra la passione per la filosofia da un lato e quella per la politica internazionale dall'altro, ci infilo in mezzo, quando si può, l'aspirazione a viaggiare e a non stare ferma mai.

Lascia un commento

Your email address will not be published.

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.