Il difensore dei diritti digitali Diego Naranjo avverte: “La normalizzazione della sorveglianza di massa” potrebbe rappresentare una minaccia alla mobilitazione sociale.

[ N.B. L’articolo è stato tradotto con l’assistenza di google translator, pertanto qua e là vi possono essere imperfezioni che possono esserci sfuggite ]

Intervista di Marta Checa apparsa sul sito Equaltimes.org  il 31 agosto 2020

Fonte:  Equaltimes.org, che ringraziamo.  Puoi leggere  l’articolo originale in lingua inglese

Molto prima dell’arrivo del 2020, l’anno zero del Covid-19, gli sforzi per salvaguardare i diritti digitali e il dibattito pubblico sui diritti fondamentali (spesso ignorati dalle nuove tecnologie) erano ben lungi dall’essere priorità pubbliche.

Dopo otto mesi di pandemia sanitaria senza precedenti nella storia recente, il dibattito sull’uso delle tecnologie di sorveglianza (al fine di prevenire e ridurre la diffusione del coronavirus) e sui nostri diritti digitali in generale (il diritto alla privacy e la protezione dei dati personali , tra le altre questioni) continua ad essere meno diffuso e completo di quanto si possa sperare. Mentre l’accettazione di uno stato del “ Grande Fratello ” è diffusa in molti paesi dell’Asia orientale , sia democratici che non, la resistenza in Europa è stata recentemente scossa, spesso a causa della paura per la sicurezza personale (prima terrorismo , ora salute), o piuttosto per ignoranza ed esaurimento. della consapevolezza effettiva.

In un’intervista con Equal Times , Diego Naranjo, responsabile delle politiche presso European Digital Rights (EDRi), un’organizzazione non governativa che comprende 44 associazioni per i diritti umani e digitali in Europa (oltre ad alcune con sede negli Stati Uniti e altre a livello globale attivo), ha descritto alcune delle misure che ci tutelano e che possiamo adottare per proteggere i nostri diritti fondamentali dalla violazione nella sfera digitale, sulla base del Regolamento generale sulla protezione dei dati (GDPR) implementato due anni fa.

Allo stato attuale, l’organizzazione (che difende i diritti e le libertà nella sfera digitale, dalla protezione dei dati all’accesso alle informazioni e alla libertà di espressione) sta mettendo in dubbio la necessità di molte delle misure proposte o improvvisate da vari governi ( dall’uso dei droni alla garantire il rispetto delle quarantene per i passaporti dell’immunità ), nonché la loro proporzionalità. Le loro preoccupazioni includono anche il modo in cui i dati raccolti sono protetti, per quanto tempo vengono archiviati, come vengono ottenuti ed elaborati, se verranno utilizzati per altri scopi e da chi.

Sullo sfondo di una pandemia come quella attuale, come conciliare la sorveglianza digitale con i valori che sono alla base dell’Europa? Stiamo assistendo a più dibattiti ora rispetto a prima di gennaio? Le responsabilità di tutte le persone coinvolte nel processo sono chiare? Qual è la necessità, la proporzionalità, la trasparenza, la legalità e le garanzie di tale sorveglianza?

La pandemia ha sottolineato la necessità di discutere della sorveglianza già in atto (riconoscimento facciale, conservazione dei dati, ecc.) Nell’ambito di questa nuova realtà, che (almeno nella sua fase iniziale) ha spinto i governi ad aumentare il monitoraggio della popolazione per motivi di salute, ma a volte utilizzando misure sproporzionate. Abbiamo reagito rapidamente con un’analisi di ciò che non si dovrebbe fare. Fortunatamente, la Commissione europea sembra averne almeno preso atto e le sue raccomandazioni agli Stati membri sono state molto buone. Ora spetta agli Stati implementarli correttamente.

Allo stesso tempo, le grandi società hanno colto al volo l’opportunità di apparire come i salvatori di questa crisi, tentando di affermarsi come “ opzione sicura ” in tempi di pandemia, sostenendo il loro dominio con più denaro pubblico, qualcosa che il lavoro di Naomi Klein rivela in tutta la sua volgarità. Per il momento abbiamo resistito alle peggiori tendenze di privatizzazione e pro-sorveglianza. Ora dobbiamo continuare a lottare per nuove libertà e non perdere nel giro di pochi mesi ciò che ci ha messo anni a guadagnare.

In numerose dichiarazioni hai sottolineato che, con una supervisione e un’opposizione limitate, le misure attualmente in corso per affrontare la pandemia – big data e sistemi di intelligenza artificiale tra gli altri – daranno forma al nostro futuro. Puoi dirci cosa ti preoccupa particolarmente?

Siamo generalmente preoccupati per la normalizzazione di misure straordinarie. Decenni fa, le telecamere di sicurezza hanno cominciato ad essere installate nelle nostre strade e in altri spazi pubblici. La scusa all’epoca era un misto di sicurezza pubblica generale (la crisi economica aumentò alcuni tipi di reati legati alla povertà come il furto) seguita da utilità anti-terrorismo. Ora ci troviamo in una situazione in cui le stesse telecamere vengono utilizzate per il riconoscimento facciale con il pretesto di controllare se le persone indossano maschere, trovano bambini smarriti o qualsiasi altra cosa. L’obiettivo finale è il controllo e l’obiettivo a breve termine è il finanziamento pubblico per le industrie di sorveglianza privata.

Se la sorveglianza statale e privata continuerà o aumenterà, le prossime lotte che coinvolgono tagli ai finanziamenti sociali, cambiamenti climatici, giustizia razziale e difesa della democrazia saranno minate da un sistema in cui tutto è registrato e molti preferiranno rimanere in silenzio ea casa piuttosto che vedere il loro lavoro precario o l’assicurazione sanitaria messi a repentaglio dalla partecipazione a movimenti di resistenza.

Al di là dell’attuale crisi sanitaria, dove state dirigendo i vostri sforzi nel campo della videosorveglianza e della tecnologia di riconoscimento facciale?

A livello locale, vogliamo assicurarci che alcune attività rimangano libere dalla sorveglianza e che l’uso di tali sistemi sia vietato anche nei luoghi in cui non vengono utilizzati, in particolare gli spazi pubblici – non solo piazze e strade, ma stazioni e centri commerciali .

A livello nazionale stiamo lavorando per garantire che anche le leggi lo vietino e che l’UE, se necessario, avvii procedimenti di infrazione contro gli Stati membri per violazione dei diritti fondamentali quando le misure che hanno imposto hanno un grave impatto sulla privacy, libertà di associazione e dimostrazione, e non sono né necessarie né proporzionate ai fini che stanno cercando di raggiungere. Il successo più modesto [di tali sforzi] sarebbe garantire che non vengano messi in atto nuovi sistemi e che quelli esistenti vengano eliminati.

E se tali misure si dimostrano utili senza arrecare danno, qual è il problema?

Solo perché qualcosa può essere utile per determinati scopi non lo rende necessario o proporzionale. Sarebbe molto utile avere una telecamera in ogni casa per prevenire la violenza contro le donne. Ma è chiaro che questo non sarebbe proporzionale, che sarebbe un abuso di potere.

In realtà abbiamo tutti qualcosa da nascondere, quindi questo argomento non funziona. E non si tratta di non avere “ nulla da nascondere ”, è che devi vivere in libertà e non sotto l’occhio di una sorveglianza costante che vede chi incontri, a quali sbarre vai con chi, a quali sindacati aderisci e chi fai sciopero con. È un mondo distopico che dobbiamo evitare. Ma sì, vedo in atto una normalizzazione della sorveglianza di massa. Cinque o dieci anni fa siamo rimasti scioccati da ciò che stava accadendo in Cina. Oggi, Slovenia, Germania, Regno Unito, Paesi Bassi, Grecia, Francia, Ungheria, Italia e Svezia utilizzano tutti il ​​riconoscimento facciale. E non c’è dibattito pubblico.

Nel caso della Serbia, le telecamere che erano già sulle strade di Belgrado vengono ora utilizzate per il riconoscimento facciale con tecnologia cinese e, se non bastasse, con gli agenti di polizia cinesi di pattuglia (a causa dei molti lavoratori cinesi che lavorano in Cina progetti di investimento).

Lo sviluppo del 5G e dell’intelligenza artificiale affronta preoccupazioni etiche che differiscono da paese a paese, da continente a continente e da organizzazione a organizzazione. Qual è il tuo interesse in questo dibattito?

La questione dell’etica è fondamentalmente guidata dal business. Le aziende non vogliono parlare di diritti perché questo è qualcosa che può essere esercitato e portato in tribunale. Preferiscono parlare di etica perché ogni azienda, ogni paese, ha la propria etica. Tutta l’IA e le altre tecnologie hanno un impatto sui diritti umani (diritto alla privacy, protezione dei dati, libertà di associazione e dimostrazione, libertà di espressione), quindi dobbiamo parlare di diritti, non di etica. Concentrare il dibattito sull’etica distoglie l’attenzione dai diritti fondamentali, che sono i più importanti per noi.

I nostri rappresentanti politici sono all’altezza del compito?

I rappresentanti qui a Bruxelles e negli Stati membri temono che siamo lasciati indietro, che non ci sia sufficiente innovazione e che questo influisca sull’occupazione. Ma è anche vero che c’è stato un calo di opinioni diverse da parte della società civile in generale. Ciò si è visto più chiaramente durante le discussioni sulla regolamentazione della protezione dei dati: quelli di noi che chiedevano una regolamentazione più rigorosa erano in minoranza. Era una battaglia di Davide e Golia (meno di 100 persone contro un esercito di lobbisti). Se moltiplichi il tuo messaggio per 100, come nel caso delle aziende, quel messaggio viene ascoltato più delle voci dei cittadini.

Nella sfera digitale, quanto dobbiamo essere vigili, sospettosi o chiaroveggenti riguardo all’uso dei nostri dati? Cosa dovremmo presumere che possano farci se usiamo, ad esempio, un’applicazione gratuita (non open source)?

Non devi immaginare il futuro, devi solo guardare al passato. Edward Snowden ha pubblicato le sue rivelazioni nel 2013 e ciò che chiariscono è che ciò che si sta evolvendo non è un sistema distopico del futuro ma un tipo di macchina del tempo, l’idea della sorveglianza costante di tutte le tue attività, online e offline, di chi parli a, quali immagini carichi, dove e come viaggi, cosa consumi. Tutto, 24 ore al giorno … così che se mai dovessi diventare un problema per un certo governo, esso possa entrare in quella “macchina del tempo” e vedere dove trova difetti. Perché tutti abbiamo difetti nella nostra vita, cose che non vogliamo rivelare, cose che non vogliamo che diventino pubbliche. L’idea è di avere il controllo totale per il giorno in cui devono agire contro qualcuno.

Quali misure possono proteggerci in questo scenario?

Il regolamento sulla protezione dei dati è stato un passo nella giusta direzione e ha stabilito l’Europa come leader mondiale nella protezione dei dati. Sebbene sia una convenzione europea, la convenzione 108 del Consiglio europeo può essere ratificata da qualsiasi paese del mondo. Il maggior numero di paesi possibile dovrebbe essere incoraggiato ad adottarlo. Sarebbe anche utile se gli Stati Uniti avessero adeguate leggi sulla protezione dei dati, sulla privacy e sulla sorveglianza, che attualmente non hanno.

Ma a livello personale, puoi anche agire oltre la lotta per le normative che ti proteggono: crittografa tutti i dispositivi, usa determinati servizi, Signal piuttosto che WhatsApp, evita Dropbox, usa BitWarden (come servizio di gestione delle password) e software gratuito quando puoi .

[In ogni caso,] la sicurezza non è un obiettivo, è un processo. Nessuna di questa tecnologia può essere considerata ciecamente affidabile, deve essere valutata e verificata. Se non è un software open source gratuito, non possiamo sapere se stanno facendo quello che dicono di fare. A livello europeo, chiediamo investimenti pubblici nel software libero. La Free Software Foundation Europe, che è uno dei nostri membri, ha una campagna chiamata Public money? Codice pubblico! : questo riassume molto bene quello che vogliamo.

Le aziende che manovrano a proprio vantaggio non sono una novità. Ma considerando i potenziali rischi, cosa ci impedisce di tutelare adeguatamente i nostri diritti?

Se ciò che avvantaggia maggiormente le aziende come Google e Facebook è la sorveglianza dell’intera popolazione che utilizza i loro servizi, continueranno a farlo finché non diremo loro che non ci piace, che questo non è un modello di business accettabile in una società democratica .

Anche la questione degli sviluppatori è interessante. Abbiamo recentemente pubblicato una guida per lo sviluppo web etico perché abbiamo scoperto che molti sviluppatori web, intendendo nessun danno, inseriscono Google Analytics e Google Fonts di default nei siti web (perché è una pratica standard e perché sono gratuiti). Ma questi servizi tracciano e monitorano per Google. Penso che sia una questione di ignoranza, c’è un lavoro educativo che deve essere fatto. Ma sì, parte del problema è che gli sviluppatori sono nel loro mondo e non sono inclini a lavorare sulla protezione dei dati e sulla privacy per impostazione predefinita e per impostazione predefinita, che sono principi di base per noi.

Quando si tratta di Amazon e del cloud storage, cosa dovremmo guardare o non perdere di vista?

Una delle proposte interessanti avanzate dalla Commissione Europea è quella di creare una sorta di cloud europeo per competere con Amazon. Non credo che creare un’Amazzonia europea, un Facebook europeo o un Google europeo sia la risposta, ma garantire la sovranità tecnologica nel senso che siamo – idealmente – in grado di monitorare pubblicamente chi gestisce i nostri dati, chi finanzia questi algoritmi e chi ha accesso allo storage in rete, sarebbe positivo per noi. [Al contrario di] questo essere nelle mani di una società straniera di cui non sappiamo chi controlla i loro server, chi ha accesso. Ma mancano risorse e investimenti, così come lo sviluppo a livello locale e statale.

Ma esiste la consapevolezza della necessità di tali misure?

Non sembra esserci alcun interesse specifico al di là della proposta della Commissione. Anche per noi non è una questione centrale. Ci sono problemi che hanno la priorità. Progetti come Gaia-X [ presentato all’inizio di giugno ], proposto per l’Europa, non ci avvantaggia necessariamente in termini di rispetto dei diritti fondamentali. Dipende da chi ha accesso a questi dati, al cloud, da chi lo possiede, ecc.

Qual è lo stato attuale di neutralità della rete (in cui Internet è inteso come un servizio pubblico e gli Internet provider non possono interrompere o bloccare il traffico dati in base ai loro interessi) in Europa?

Mantenere la neutralità della rete è una battaglia importante e le società tecnologiche sono particolarmente feroci (porre fine alla neutralità porterebbe loro molti vantaggi). Il GDPR vieta la mancanza di neutralità della rete in Europa, ma l’attuazione negli Stati membri è diversa e dipende dalle autorità di regolamentazione.

Dobbiamo chiarire che ciò non è consentito. Altrimenti, potremmo finire in una situazione come quella in India, dove le pratiche di zero rating hanno dato alle persone l’accesso gratuito a Facebook, il che significa che per gran parte della popolazione indiana, Internet è Facebook. La classificazione zero essenzialmente limita l’accesso a Internet con la falsa pretesa di fornire un servizio migliore o gratuito.

Aiuta il fatto che alcune parti della popolazione o alcuni paesi adottino tutte le misure per la privacy dei dati personali mentre altri si muovono nella direzione opposta? Questo non lo rende un compito ingrato che fa venir voglia di gettare la spugna?

A livello europeo l’obiettivo è proteggere le persone per impostazione predefinita. Ad esempio, se prendi un ascensore sei protetto per impostazione predefinita e se l’ascensore cade puoi citare in giudizio la società che lo ha costruito, la società che lo gestisce o il proprietario dell’edificio. Dovrebbe essere lo stesso con la tecnologia; non dovresti essere un hacker o un geek per usare Internet. Dovrebbero esserci protezione dei dati e privacy fin dalla progettazione e per impostazione predefinita in modo da non dover pensare a questo tipo di cose.

 

Questo articolo è stato tradotto dallo spagnolo.