Le lacune dell’AI Act nella protezione dei migranti

Le lacune dell’AI Act nella protezione dei migranti

A marzo 2024, il Parlamento europeo ha approvato l’Artificial Intelligence Act, destinato a regolare l’uso improprio delle tecnologie basate sull’intelligenza artificiale. Tuttavia, questa nuova legge non si applica alla gestione dei confini, lasciando scoperti aspetti cruciali della protezione dei migranti.

Negli ultimi anni, l’Unione europea ha fatto sempre più ricorso alla tecnologia per rafforzare il controllo delle sue frontiere esterne, promuovendo un’idea di sicurezza basata sull’uso di strumenti digitali e innovazioni tecnologiche. Al centro di questa strategia c’è l’idea di gestire e limitare i flussi migratori verso l’Unione, spesso delegando il lavoro a Paesi terzi in un processo noto come “esternalizzazione delle frontiere”. Questo approccio ha portato alla creazione di una complessa rete di accordi con Paesi terzi, non solo per limitare gli arrivi, ma anche per migliorare la sorveglianza delle persone in movimento.

Dal 2015, con l’aumento della pressione migratoria, l’Ue ha anche accelerato l’adozione di tecnologie avanzate, come droni, satelliti, sistemi biometrici e software di analisi del comportamento pur di rendere più “efficiente” il controllo delle frontiere. Questi strumenti, supportati da ingenti finanziamenti e da accordi bilaterali tra Stati membri e Paesi terzi, mirano a trasformare i confini in “frontiere intelligenti”. Il risultato è una sorveglianza sempre più capillare e invasiva, che solleva questioni di natura etica e legale.

Tecnologie inaffidabili e sorveglianza migratoria

Uno degli sviluppi più controversi è  l’uso dell’intelligenza artificiale (AI) nei sistemi di controllo delle frontiere per decidere chi può entrare in Europa. Tali sistemi, spesso basati su presupposti potenzialmente distorti o non scientificamente fondati, rischiano di violare i diritti fondamentali e la dignità delle persone.

Un esempio di questo fenomeno è l’uso di tecnologie di riconoscimento facciale e analisi delle emozioni. Alcuni Stati membri hanno sperimentato l’impiego di questi strumenti, come i “rilevatori di bugie”, per valutare l’affidabilità delle richieste di asilo. Basandosi sull’ipotesi che il comportamento emotivo di una persona possa rivelare la veridicità delle sue affermazioni, queste tecnologie cercano di determinare se qualcuno stia dicendo la verità. Tuttavia, test indipendenti hanno dimostrato che questi sistemi sono profondamente inaffidabili e pericolosamente vulnerabili a errori. Tra le altre tecnologie utilizzate e criticate c’è anche il software di analisi del parlato, che cerca di determinare se il dialetto di una persona corrisponda alla regione di origine dichiarata.

L’introduzione di tecnologie di sorveglianza solleva nuove preoccupazioni sulla protezione dei dati personali e il diritto alla privacy. L’organizzazione Privacy International ha denunciato come l’Ue stia finanziando l’adozione di queste tecnologie anche in Paesi terzi, attraverso la fornitura di equipaggiamenti, la formazione delle forze di sicurezza locali e la promozione di legislazioni che facilitano la sorveglianza. Queste politiche di esternalizzazione hanno quindi il duplice effetto di rafforzare il controllo sui migranti e di esportare pratiche di sorveglianza a Stati con standard di tutela dei diritti umani spesso inferiori a quelli europei. Queste pratiche si inseriscono in un contesto più ampio di militarizzazione delle frontiere, che non solo riduce la migrazione a una mera questione di sicurezza, ma minaccia anche i diritti fondamentali dei migranti.

Le lacune giuridiche

Nonostante la crescente adozione di queste tecnologie dentro e fuori i confini europei, il quadro normativo che dovrebbe regolamentare l’uso rimane insufficiente. L’introduzione dell’Artificial Intelligence Act, pensata proprio per prevenire certi abusi, ha mancato di affrontare adeguatamente il problema nelle aree più critiche, come la gestione delle frontiere. L’AI Act introduce infatti un doppio standard: le disposizioni che regolamentano l’uso dell’intelligenza artificiale varranno all’interno dei confini dell’Unione, ma ai suoi margini, dove l’Ue esercita il massimo controllo sui migranti, le regole saranno più flessibili. Nelle sue intenzioni, la legge regolamenta lo sviluppo e, soprattutto, vieta l’uso di alcune applicazioni di AI considerate troppo pericolose, tra cui proprio i rilevatori di menzogne, oltre a prevedere un quadro di requisiti tecnici, di controllo e responsabilità per i sistemi ad alto rischio. Tuttavia, nonostante l’entusiasmo suscitato dalla normativa, l’AI Act presenta una lacuna significativa: non offre protezione adeguata ai migranti e alle persone in movimento, né previene i danni che l’uso dell’AI può causare in questo ambito.

In alcuni casi, la normativa “incoraggia” pratiche di sorveglianza discriminatoria che colpiscono le persone più vulnerabili. Il regolamento, infatti, non estende il divieto dei sistemi di riconoscimento delle emozioni nell’ambito migratorio, escludendo così le tecnologie di rilevamento di bugie basate sull’AI. Inoltre, molti sistemi di AI attualmente impiegati nel controllo delle migrazioni, non rientrano tra quelli classificati come ad “alto rischio” e, di conseguenza, non saranno soggetti agli obblighi previsti dalla normativa. Questo significa che tali strumenti, spesso pericolosi, non saranno adeguatamente regolamentati.

Questo quadro giuridico parallelo, previsto dalla normativa, permette ampie deroghe a favore delle forze di polizia e delle autorità migratorie, esentandole da alcune delle tutele chiave previste dalla legge, inclusi gli obblighi di trasparenza. In altre parole, le autorità di polizia e migrazione potranno continuare a utilizzare sistemi di sorveglianza basati sull’intelligenza artificiale senza dover rivelare come queste tecnologie siano impiegate, impedendo così alla società civile e ai media di monitorare tale impiego che potrebbero avere conseguenze potenzialmente dannose.

La normativa concede inoltre agli Stati membri la facoltà di esentarsi dall’applicazione delle regole nei casi in cui l’uso dell’IA sia ritenuto essenziale per la sicurezza nazionale, creando una scappatoia legale che potrebbe facilmente essere utilizzata per bypassare le tutele anche in ambito migratorio. Questo scenario riduce drasticamente la supervisione e consente un utilizzo crescente di tecnologie di sorveglianza che possono avere un impatto negativo su migranti, comunità razzializzate e altre persone emarginate, già esposte a forme invasive di controllo e discriminazione.

Tutto questo rischia di trasformare i confini dell’Europa in “zone grigie” altamente digitalizzate e non regolamentate. Droni, telecamere intelligenti e sistemi predittivi vengono dispiegati per monitorare i movimenti delle persone, prevedere le rotte migratorie e controllare chi cerca di attraversare i confini. Ma l’introduzione di tali tecnologie rischia di creare una sorveglianza sempre più capillare e intrusiva, con strumenti automatizzati che potrebbero prendere decisioni critiche – come la concessione dell’asilo o l’espulsione – senza un adeguato controllo umano. La combinazione dell’AI Act con le nuove misure del Patto su migrazione e asilo apre la strada a una crescente profilazione automatizzata e a valutazioni del rischio basate su criteri di sicurezza. Questi sistemi, avvertono gli attivisti, potrebbero contribuire a codificare pregiudizi e discriminazioni e potrebbero portare a numerose violazioni degli obblighi di protezione dei dati e violazioni della privacy aggravando le disuguaglianze già esistenti e minacciando il diritto fondamentale alla non discriminazione. Si teme che tali valutazioni automatizzate, combinate con le tecnologie di sorveglianza, possano distorcere i processi decisionali, riducendo ulteriormente le garanzie per i richiedenti asilo.

Condividi

Sullo stesso argomento