L'Italia Mensile

NO AL RICONOSCIMENTO FACCIALE. NO AL CAPITALISMO ORWELLIANO!

Ministro Piantedosi, il riconoscimento facciale nei luoghi pubblici è una pessima idea, perché mina i diritti di movimento, di espressione e di partecipazione.

È una questione che va oltre la privacy e la sicurezza e dobbiamo affrontarla consci dei rischi e degli impatti sulle nostre vite.

È fondamentale quando si parla di riconoscimento facciale non fare l’errore di parlare solo dei rischi per la privacy e la protezione dei dati come diritto individuale.

Il riconoscimento biometrico, specie quando implementato da autorità pubbliche, apre a una serie di rischi e minacce che vanno ben oltre, e che riguardano profondamente il cuore della libertà e della democrazia.

L’esistenza stessa di questi strumenti nei luoghi pubblici, come le stazioni per esempio, dove transitano migliaia di persone diverse ogni giorno a prescindere da cosa fanno e dove il ministro dell’Interno, Matteo Piantedosi, vuole installare telecamere con riconoscimento facciale per questioni di sicurezza, sottopone chiunque a una sorveglianza continua.
Il che significa non solo raccogliere migliaia di dati su tutti noi solo perché ci troviamo in un determinato luogo, ma sovvertire uno dei principi cardine della democrazia: la presunzione d’innocenza.

Il pericolo è che il riconoscimento facciale nelle mani delle forze dell’ordine renda le persone colpevoli fino a prova contraria.

Davvero pensiamo che sarebbe la stessa cosa, poi, riunirci negli spazi pubblici per manifestare, o celebrare una festa non in linea con il governo del momento?

E con il governo attualmente in carica, temo che di queste occasioni ce ne sarebbero parecchie.

La sorveglianza biometrica mina potenzialmente ognuno di questi diritti fondamentali: libertà di movimento, di espressione, di partecipazione.

Sicuramente ci sarà chi si trova d’accordo con questa compressione di diritti, ma è fondamentale ampliare la discussione fuori dalla privacy, fuori anche dal ruolo del Garante, ed estenderla alla politica, alla società, al Parlamento, perché è di questo che stiamo parlando: siamo disposti, come società, ad accettare un simile punto di non ritorno?

Ad accettare di essere costantemente sorvegliati quando percorriamo uno spazio pubblico per poter essere costantemente riconoscibili, dovesse succedere qualcosa?

È questa la nostra idea di sicurezza?

Ed è una questione ampiamente politica, perché le posizioni sulla sorveglianza, il controllo e la repressione sono dettate dai governi e possono cambiare facilmente e rapidamente.

Basti guardare l’uso che fanno di queste tecnologie l’Afghanistan, la Cina, Israele: l’unica costante è quella di criminalizzare interi gruppi di persone (i palestinesi, i dissidenti…) per poterli sottomettere.

Non credo ci rendiamo conto dell’impatto che un simile strumento può avere sulle persone e sulle nostre vite nella società.

Anche la Commissione europea, nel contesto del futuro regolamento sull’intelligenza artificiale, riconosce che le pratiche di sorveglianza biometrica di massa hanno un impatto gravemente intrusivo sui diritti e le libertà delle persone, oltre al fatto che l’uso di queste tecnologie può “incidere sulla vita privata di gran parte della popolazione ed evocare una sensazione di costante sorveglianza (…)”.

Un altro dettaglio importante: non esistono dati di nessun tipo sull’efficacia di queste tecnologie. Semmai, purtroppo, gli unici dati e studi a disposizione sulle loro performance riguardano il loro cattivo funzionamento.

Ciò significa che molti studi si sono concentrati nel provare come, proprio nel loro utilizzo da parte di forze di polizia, le tecnologie di riconoscimento facciale si comportino molto peggio quando analizzano alcune persone.

L’anno scorso, dopo un’indagine, la polizia di Detroit ha confermato che il loro software di riconoscimento facciale aveva un tasso di errore del 90% nel riconoscere persone nere, ma nonostante questo dato, lo utilizzavano comunque.
La categorizzazione e identificazione effettuata da queste tecnologie è terribilmente problematica e anti-scientifica, perché vengono inferite molte cartteristiche sensibili (come il genere, l’età, le emozioni) senza nessun dato sull’efficacia.

E un’identificazione – accurata o meno – può costare la libertà o addirittura la vita alle persone.

Questo è ancora più vero per alcuni gruppi sociali, razzializzati o iper-criminalizzati, ed è il motivo per cui la protezione dei dati non può essere più considerata solamente come un diritto individuale, ma anche collettivo.

Purtroppo c’è un’enorme tendenza, sempre in crescita, di affidarsi a queste tecnologie senza nemmeno preoccuparsi di controllare la loro performance sulla società in anticipo, pensando che da sole possano risolvere tutti i nostri problemi sociali.

Con la tirannia sanitaria, il distanziamento, il divieto di assembramento e l’utilizzo sempre più diffuso di social e tecnologie, ormai siamo finiti una vera oppressione orwelliana…

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *