Avevano detto che il megasistema di videosorveglianza installato a Parigi sarebbe servito solo per l'eccezionalità del grande evento delle Olimpiadi. Adesso scopriamo che non è affatto così.
jacobinitalia.it Phineas Rueckert
Ho già scritto per Jacobin della controversa videosorveglianza algoritmica che la Francia ha lanciato prima delle Olimpiadi, un test che avrebbe dovuto durare fino a marzo 2025 e riguardare solo eventi pubblici su larga scala come eventi sportivi e concerti. Esperti di sorveglianza e diritti umani mi avevano parlato degli effetti che questo tipo di sorveglianza di massa può avere sul dissenso e sulle proteste pacifiche, creando un dissuasivo «effetto agghiacciante».
«Ci si abitua a quell’ambiente di ‘capitalismo celebrativo’ delle Olimpiadi, e poi quella nuova tecnologia che è stata iniettata durante i Giochi in quello stato di eccezione diventa la norma per la polizia che la porta avanti», aveva avvertito Jules Boykoff, uno scienziato politico che ha pubblicato numerosi libri sulle Olimpiadi.
Ed ecco che non appena le Olimpiadi sono finite, un ritmo costante di politici macronisti ha iniziato a creare consenso sulla necessità di mantenere questa tecnologia, che non è ancora stata studiata o analizzata in modo indipendente.
A settembre, meno di due settimane dopo la cerimonia di chiusura delle Paralimpiadi, il capo della polizia di Parigi Laurent Nuñez si è detto «a favore» dell’estensione della tecnologia. Il canale di notizie France Info, citando una fonte governativa, ha riferito che anche il ministro degli interni di Barnier prevedeva di renderla permanente (Attualmente, un disegno di legge presentato da un membro del suo partito di destra Républicains propone un’estensione di tre anni). Il discorso di Barnier, pur non menzionando specificamente lo strumento di videosorveglianza algoritmica, ha spinto nella stessa direzione.
«Il governo farà tutto ciò che è in suo potere per consolidare [la tecnologia di videosorveglianza algoritmica] – dice al telefono Élisa Martin del partito di sinistra France Insoumise – Ne siamo assolutamente certi».
La sicurezza in vetrina
Il 26 luglio, mentre centinaia di barche con a bordo atleti olimpionici scendevano lungo la Senna durante una cerimonia di apertura inzuppata di pioggia, seguita da venticinque milioni di spettatori in tutto il mondo, un altro spettacolo si stava svolgendo sottoterra. Sulle banchine della metropolitana della capitale francese, quasi cinquecento telecamere di sorveglianza all’avanguardia catturavano e analizzavano comportamenti umani in tempo reale, assistite da uno strumento di intelligenza artificiale chiamato CityVision. La tecnologia basata sull’intelligenza artificiale, prodotta da una start-up francese, è stata implementata in tutta la rete metropolitana.
In superficie, 45.000 poliziotti nazionali e altri 20.000 militari hanno pattugliato la città. Si stima che circa cinquantatré droni siano stati abbattuti da unità anti-drone militari nei primi giorni dei Giochi.
«Le Olimpiadi, e in particolare la cerimonia di apertura sulla Senna, sono state presentate come ‘una vetrina per gli strumenti di sicurezza di fronte al mondo’ e un momento di sperimentazione», mi ha detto Noémie Levain, esperta legale presso La Quadrature du Net, Ong che si occupa di diritti digitali.
Dopo che l’Assemblea nazionale ha approvato una legge omnibus sulle Olimpiadi il 19 maggio 2023, che includeva, tra le altre cose, la legalizzazione di strumenti di sorveglianza di massa assistiti dall’intelligenza artificiale, le start-up tecnologiche francesi hanno avanzato offerte per contratti olimpici, e diverse sono state selezionate nel gennaio 2024. Una è stata paragonata a una versione francese di Palantir, la società di sorveglianza di proprietà di Peter Thiel, meglio conosciuta per il suo strumento di polizia discriminatorio utilizzato in città come Los Angeles, che ospiterà le prossime Olimpiadi estive nel 2028.
«Il pane quotidiano di queste aziende è l’analisi dei corpi umani – sostiene Levain – L’idea è di analizzarli, classificarli e ricavarne dei punti dati».
Lo strumento, per come è stato concepito, dovrebbe catturare «eventi predeterminati», come un attacco terroristico o un «movimento di folla insolito». Ma i ricercatori temono che il crescente utilizzo di algoritmi nella polizia predittiva, che utilizza statistiche basate su pregiudizi razziali come input iniziale, crei un passaggio per un’ulteriore sorveglianza delle comunità vulnerabili. «Prove crescenti suggeriscono che i pregiudizi umani sono stati incorporati in questi strumenti perché i modelli di apprendimento automatico sono addestrati su dati di polizia distorti», ha scritto Will Douglas Heaven su Mit Technology Review.
Nel caso francese, si sa poco di come funzionano effettivamente le tecnologie e a che punto vengono implementate dalla polizia, ha affermato Yoann Nabat, giurista e docente presso l’Università di Bordeaux. «È una scatola nera», mi ha detto.
La videosorveglianza algoritmica «dovrebbe rappresentare solo un modo per aiutare a prendere delle decisioni – ha aggiunto Nabat – Dovrebbe allertare la persona dietro gli schermi per dire, ‘Stai attento, devi guardare in questo posto, in questo momento’. Solo che c’è una linea sottile tra automazione e interazione umana. Sappiamo che spesso, in mancanza di risorse, il supporto decisionale si trasforma nella decisione stessa».
Dall’esperimento al fatto compiuto
Si è scritto molto sulla shock doctrine, il periodo successivo a un disastro naturale in cui aziende private si precipitano come sciacalli a impossessarsi dei servizi pubblici. Secondo Boykoff, un processo simile avviene prima, durante e dopo i mega-eventi come le Olimpiadi.
Katia Roux, responsabile dell’advocacy ad Amnesty International Francia, ha descritto un fenomeno simile. «Non abbiamo ancora un resoconto», mi ha detto a proposito degli strumenti di sorveglianza delle Olimpiadi. Eppure, «c’è un chiaro desiderio politico di legalizzare questa tecnologia e le Olimpiadi erano solo un modo per mettere un piede nella porta».
Elia Verdon, membro dell’Osservatorio francese sulla sorveglianza e la democrazia, concorda. «Dobbiamo fare attenzione alle sperimentazioni – avverte – Finiamo per accettare una tecnologia in un dato momento in risposta a una possibile minaccia, e poi alla minaccia successiva, e si prosegue».
Da quando si sono pronunciati a favore della nuova tecnologia, Barnier e Nuñez hanno ritirato le loro dichiarazioni sull’estensione delle misure. Dicono che stanno ancora aspettando i risultati di un rapporto governativo che deve essere presentato al parlamento entro la fine dell’anno. Ma sembra che il pubblico francese possa essere stato influenzato dalla retorica del governo: un recente sondaggio sostiene che il 65% dei francesi supporta l’incremento della videosorveglianza negli spazi pubblici.
«Se verrà considerato un successo, lo estenderanno – sostiene Levain di La Quadrature du Net – In caso contrario, diranno che abbiamo bisogno di altre sperimentazioni. Ci sono talmente tanti attori coinvolti, così tanti soldi, così tante lobby, che non diranno semplicemente, ‘Va bene, smettiamola e basta’».
Con un governo sempre più rigido, che usa l’immigrazione come un cuneo per approvare politiche restrittive, è difficile immaginare che l’esercito di aziende private in quella che Macron chiama la sua «nazione delle start-up» non si faccia avanti con altre offerte.
*Phineas Rueckert è un giornalista, vive a Parigi. Ha collaborato con Vice e Next City. Questo articolo è uscito su JacobinMag. La traduzione è a cura della redazione.
Nessun commento:
Posta un commento