Aprile 02, 2025
Giustizia Sociale
L’uso oppressivo dell’intelligenza artificiale tra Italia, Regno Unito e Palestina
Approfondimento di Angelo Boccato
L’intelligenza artificiale viene presentata nel dibattito generalista come una nuova rivoluzione industriale, con l’idea che chatbots come ChatGPT e Deep Seek siano in competizione tra loro in una corsa all’innovazione nell’IA. Ma cosa si può dire delle applicazioni più sinistre dell’intelligenza artificiale, delle sue connessioni e usi per la profilazione razziale, la sorveglianza e la generale invasione della privacy e della libertà personale? E qual è la situazione in Italia, Regno Unito e Palestina, vero e proprio laboratorio dell’uso oppressivo dell’IA?
Sorveglianza Italia
Il più grande fautore dell’uso dell’intelligenza artificiale ai fini di sorveglianza nel governo Meloni è il Ministro dell’Interno Matteo Piantedosi. Da tempo, Piantedosi cerca di portare avanti un’agenda securitaria sul territorio nazionale, rivolta a migranti, persone razzializzate e senza fissa dimora. Un esempio è l’introduzione di zone rosse a Milano e Roma che vietano la presenza e prevedono l'allontanamento di soggetti che "determinano un pericolo concreto per la sicurezza pubblica”.
Secondo quanto comunicato da una nota del Viminale, le zone rosse dovrebbero essere rivolte a individui con precedenti per droga, furto, rapina, reati contro la persona o il porto di armi, ma resta il dubbio che queste misure possano colpire soprattutto persone razzializzate, senza dimora o, più in generale, poveri.
“Fin dal 2023, Piantedosi dice che vuole installare telecamere con riconoscimento facciale ovunque sia possibile, ma si dimentica di due cose: l’EU AI Act, cioè il primo quadro giuridico completo sull'IA a livello mondiale il cui obiettivo è quello di promuovere un'IA affidabile in Europa, e il fatto che in Italia c’è una moratoria fino alla fine del 2025, che vieta l'installazione di strumenti di sorveglianza biometrica fino al 2025. Esistono dunque sia l’AI Act, sia la moratoria benché imperfetta. In ogni caso il Garante della Privacy deve essere interpellato per ogni utilizzo di sistemi di riconoscimento facciale”, spiega a Voice Over Foundation Philip Di Salvo, ricercatore post-doc all’Institute for Media and Communications Management dell’Università San Gallo e giornalista.
Come sottolinea Di Salvo, nell’attuale contesto giuridico, l’installazione di tecnologie di riconoscimento facciale non potrebbe avvenire. È bene, però, ricordare che nel 2020 a Como furono installate sedici telecamere con riconoscimento facciale, decisione poi bloccata, dopo l’inchiesta dello stesso Di Salvo, Laura Carrer e Riccardo Coluccini su Wired Italia.
“L’installazione di telecamere per il riconoscimento facciale è un sogno sulla carta per chi ha una cultura della sicurezza e pensa che queste tecnologie possano riconoscere e arrestare chiunque con un pizzico di intelligenza artificiale, in un battito di click. In realtà non è così. La tecnologia in questione non è così efficace ed è estremamente problematica dal punto di vista della discriminazione”.
Secondo un’indagine della European Union Agency for Fundamental Rights “Being Black in the EU. Experiences of people of African Descent”, del 2023, il 71% delle persone afrodiscendenti o con background migratorio in Italia dichiara di essere stata vittima almeno una volta della profilazione razziale.
Il 22 ottobre 2024, la Commissione europea contro il razzismo e l’intolleranza (ECRI), organo del Consiglio d’Europa, ha pubblicato un rapporto sul rispetto dei diritti delle minoranze in Italia, criticando duramente le istituzioni italiane per la loro insufficiente azione nella prevenzione e nel contrasto al razzismo nel Paese ed evidenziando pratiche razziste diffuse e di profilazione razziale delle minoranze da parte delle forze dell’ordine. La reazione politica al rapporto è stata molto dura e, ad oggi, non sono stati adottati provvedimenti per attuare le raccomandazioni dell’ECRI.
Considerando il quadro giuridico e i report sulla profilazione razziale in Italia, viene da chiedersi cosa rappresentano queste tecnologie nelle mani delle forze dell’ordine?
“SARI, il sistema di riconoscimento facciale usato dalle forze di polizia è stato in parte fermato dal Garante nel 2021 (bloccando le funzioni in Real Time di riconoscimento facciale di questo sistema) ma, in realtà, la funzione da remoto, che può analizzare le riprese di vario tipo e riconoscere eventualmente le persone ritratte in quei filmati, è consentita. Non è chiaro in che modo le forze di polizia abbiano utilizzato questo sistema e sulla base di quali quadri di riferimento”, aggiunge Di Salvo.
I dati sull’impatto della profilazione razziale in Italia sono quasi inesistenti, a causa della mancanza di letteratura accademica sul tema, ma vi sono eccezioni come il Progetto Yaya, lanciato dalle associazione ferraresi Occhio ai Media e Cittadini del Mondo e il Coordinamento per Yaya, patrocinato dalla Goldsmiths University e coordinato dalla dottoressa Alice Elliot. Il Progetto Yaya ha creato sia un database, ove registrare in forma anonima esperienze di profilazione etnica, sia sinergie con una realtà britannica come Account (con base a Hackney, nell’est di Londra), portando alla nascita del progetto Profiling Inside Out, coordinato da Elliot.
Ma qual è lo stato dell’arte dell’uso di intelligenza artificiale rispetto a questi fronti nel Regno Unito, vista la fama di Londra come città sorvegliata per eccellenza?
Sorveglianza in Regno Unito
Secondo quanto riportava la compagnia di sicurezza Clarion nel 2022, a Londra vi erano 942,556 telecamere: solo questo numero è indicativo dell’apparato di sorveglianza che vige oltre Manica. Vi è poi il modo in cui le forze di polizia britanniche rinforzano il razzismo con l’uso di tecnologie predittive per il crimine, fondate sull’uso di algoritmi e dati per prevenire i crimini, come riporta Amnesty International UK nel suo rapporto Automated Racism.
I sistemi di tecnologie predittive razziste usate dalla polizia britannica si basano sulla localizzazione geografica e sulla profilazione razziale. In base alla prima vengono sorvegliate aree geografiche dove potrebbero avvenire futuri crimini, che tendono ad essere aree dove le comunità razzializzate sono più presenti e dove viene quindi praticato lo stop and search, la pratica della polizia di fermare in modo sproporzionato giovani di discendenza africana, caraibica e asiatica.
Amnesty cita, ad esempio, l’uso del Risk Terrain Monitoring da parte della Met, la polizia di Londra nei quartieri di Lambeth e Southwark dal settembre 2020: Lambeth ebbe il secondo tasso più alto di stop and search nella capitale tra il dicembre 2020 e l’ottobre 2021, mentre le persone di black ethnic appearance (apparenza etnica nera, secondo l’etichetta usata dalla Met) furono fermati dalla polizia più del quadruplo rispetto alle persone bianche.
In base alla profilazione, attraverso strumenti di intelligenza artificiale, individui di comunità razzializzate tendono ad essere inseriti in database da parte della polizia, per essere poi presentati come individui potenzialmente capaci di poter commettere crimini.
A questo si aggiunge l’ordinanza del governo britannico alla società statunitense Apple che consente l’accesso a dati cloud criptati da parte delle autorità di sicurezza. Non si deve dimenticare che il Regno Unito è stato al centro di una prospettiva securitaria fin dai tempi del caso di Edward Snowden, il quale aveva rivelato il coinvolgimento dei servizi di intelligence britannici e statunitensi nella raccolta e archiviazione di grandi quantità di comunicazioni digitali globali.
Al momento, sono stati presentati dal governo Starmeri 50 punti programmatici sull’IA ma non c’è molto altro su cui fare previsioni. Per ciò che si osserva, tuttavia, sembrerebbe che il premier Keir Starmer voglia trasformare il Regno Unito in un hub globale per l’intelligenza artificiale.
Guardando ai precedenti e al recente interesse mostrato da Starmer e dalla Ministra dell’interno Yvette Cooper di seguire Giorgia Meloni nelle politiche migratorie e nei piani di deportazione in Albania, le preoccupazioni crescono rispetto all’uso securitario che il governo potrebbe fare di questi strumenti.
Quando Chris Kaba, 22enne figlio di genitori congolesi, fu ucciso dalla polizia a Streatham, nel sud di Londra il 5 Settembre 2022, le modalità che portarono al suo omicidio erano inserite proprio nella commistione tra intelligenza artificiale e profilazione razziale.
La macchina guidata da Kaba fu identificata da una telecamera di riconoscimento automatico delle targhe, ANPR, in uso alla Metropolitan Police di Londra che la collegò a un precedente incidente con armi da fuoco, portando la polizia a fermare Kaba anche se la macchina non era intestata a lui: le telecamere ANPR sono solo uno degli strumenti di automazione usati dalle forze di polizia britanniche. L’ufficiale che sparò a Kaba fu poi giudicato non colpevole.
Ma tutto questo apparato dove è realmente sperimentato? In quale Paese inizia questa sorta di bio-politica securitaria? La risposta è la Palestina occupata.
Il laboratorio Palestina
Il caso del contratto tra il governo di Giorgia Meloni, la compagnia israeliana Paragon e lo spyware da quest’ultima sviluppata, utilizzato contro giornalisti come il direttore di Fanpage, Francesco Cancellato e attivisti come Luca Casarini, è indicativo del modo in cui le compagnie tecnologiche israeliane siano al centro dell’apparato globale di sicurezza e sorveglianza.
“Paragon è stata co-fondata dall’ex Primo Ministro israeliano Ehud Barak. Queste compagnie sono conscie del modo in cui i loro software vengono utilizzati”, spiega a Voice Over Foundation il giornalista australiano-tedesco Antony Loewenstein, autore del libro e del documentario The Palestine Laboratory.
“Non c’è una regolamentazione per gli spywares. L’Unione Europea ha provato nominalmente a farlo, ma senza successo. Gli spywares dovrebbero essere banditi, non regolamentati. Non importa chi è al potere, è una questione bipartisan: in troppi hanno paura di affrontare le compagnie di spywares e il governo israeliano che è dietro a queste”, aggiunge Loewenstein.
L’acquisizione, per la somma di 32 miliardi di dollari, da parte di Alphabet, azienda madre di Google del gruppo israeliano di cybersicurezza Wiz è indicativo di quanto siano influenti le compagnie israeliane che operano in settori di sorveglianza, cybersecurity e IA.
Wiz è stata fondata da Assaf Rappaport, Ami Luttwak, Roy Reznik, and Yinon Costica nel 2020, ex membri di Unit8200, unità dell’Israeli Intelligence Corps che sorveglia i palestinesi e usa l’IA per selezionare obiettivi a Gaza.
Nel libro e nel documentario The Palestinian Laboratory, Loewenstein mostra come l’apparato di sicurezza e sorveglianza di Israele, tra i leader di mercato globali su questo fronte, venga sperimentato sui palestinesi prima di essere esportato globalmente.
Cosa significa questo nella vita quotidiana dei palestinesi nei Territori Occupati?
“Come palestinesi, sappiamo di essere sorvegliati. So che il mio telefono non è sicuro e nessuno di noi sa fino a che punto le autorità israeliane possono avere accesso alle nostre informazioni. Normalmente, cerchiamo di essere cauti, specialmente se attraversiamo un checkpoint dove spesso i soldati controllano i nostri telefoni. Se si è postato qualcosa a loro non gradito, si sa che si può finire per essere malmenati. Sappiamo che non possiamo parlare liberamente tra noi al telefono perchè qualcun altro potrebbe essere in ascolto”, spiega a Voice Over Foundation Sara, giornalista palestinese, che preferisce rimanere anonima per una questione di sicurezza. “Non sappiamo il livello di ascolto che possono raggiungere e sappiamo che le telecamere non sono lì solo per registrare i nostri movimenti, sono lì anche per compiere azioni in quanto sono connesse a sistemi di intelligenza artificiale. Se la telecamera dovesse identificarmi come una terrorista, non registrerebbe solo i miei movimenti, ma potrei essere uccisa in un secondo dalle armi collegate a quel sistema di intelligenza artificiale, senza alcuna interferenza umana. Quando veniamo fermati ai checkpoints, ho realizzato che l’esercito usa sistemi di IA come Blue Wolf e Red Wolf che identificano e classificano il volto, determinando se si è pericolosi o meno, secondo i loro parametri. Tutto questo mi ha fatto realizzare quanto è distopica la vita che viviamo in Palestina”, conclude la giornalista.
A dispetto delle narrative che presentano l’IA come neutrale, il livello di distopia che si raggiunge in Palestina sotto l’occupazione israeliana dovrebbe fungere anche da monito ai Paesi ma soprattutto ai cittadini del “Nord Globale”, dove la sicurezza viene usata come pretesto per colpire soprattutto le persone razzializzate, i gruppi più vulnerabili e poveri.