Combattere nell’oscurità: come gli europei respingono l’intelligenza artificiale canaglia

 

Fonte Algorithmwatch.org  che ringraziamo 

[ Per un uso di studio o professionale raccomandiamo di  fare riferimento al testo pubblicato alla fonte   traduzione effettuata da google translate. editor ]

di Naiara Bellio , Nicolas Kayser-Bril , Mathilde Saliou e Alina Yanchur

I sistemi automatizzati vanno fuori strada, contribuiscono alla violenza sessuale sui minori, negano alle persone i loro benefici sociali o bloccano la presenza online delle organizzazioni. Le persone colpite spesso si sentono impotenti quando i loro diritti vengono violati, ma alcuni combattono mentre le leggi attuali non riescono a proteggere le vittime.
Miriam Al Adib è una ginecologa spagnola che vive ad Almendralejo. Un giorno, lo scorso settembre, ha trovato sua figlia adolescente in difficoltà. Nei gruppi WhatsApp della sua scuola circolavano foto di lei e di altri compagni di classe nudi. Le foto erano false, ha detto. Gli scolari li avevano generati, utilizzando uno strumento di intelligenza artificiale.

Al Adib ha percepito l’ansia di sua figlia ma ha capito subito cosa fare. Ha pubblicato un video su Instagram in cui denunciava l’accaduto e chiedeva alle vittime di farsi avanti. Poche ore dopo, molte altre madri le avevano mandato un messaggio, raccontando le esperienze delle loro figlie. Sono andati tutti alla polizia e i ragazzi hanno smesso di creare nudi finti.

Al Adib lavora da più di un decennio per aumentare la consapevolezza sulla violenza sessuale sui minori, sia online che offline. Sa come reagire a tali attacchi. Tuttavia, ha detto, si sente trascurata dalle istituzioni che dovrebbero prevenire un uso così crudele dell’intelligenza artificiale. Oggi, mentre le proteste si sono calmate ad Almendralejo, le app che consentono ai ragazzi di creare nudi finti rimangono disponibili – e probabilmente sono in uso – in tutte le scuole europee.

Abbiamo parlato con persone che hanno deciso di agire contro le ingiustizie causate dall’intelligenza artificiale. Tutti hanno spiegato quanto sia stato difficile riparare gli illeciti e avere un impatto. I diritti sanciti dalla legislazione europea raramente sono applicabili ai singoli individui.

“Colpa dell’algoritmo”

Quando Soizic Pénicaud ha iniziato a lavorare con gli algoritmi del sistema di gestione del welfare francese, ha organizzato corsi di formazione per le persone a stretto contatto con i beneficiari. Una volta, un assistente sociale le disse che l’unico consiglio che dava alle persone che avevano problemi con il sistema di gestione delle richieste era “non c’è niente che tu possa fare, è colpa dell’algoritmo”. Pénicaud, un ricercatore sui diritti digitali, è rimasto sorpreso. Non solo sapeva che i sistemi algoritmici potevano essere ritenuti responsabili, ma sapeva anche come farlo.

Insieme a diverse organizzazioni della società civile, ha presentato richieste di libertà di informazione all’agenzia di welfare. Nel novembre 2023 ha finalmente ottenuto i dettagli dell’algoritmo. Le analisi statistiche hanno mostrato che il sistema aveva molti difetti. In particolare, considera le persone con disabilità, le madri single e le persone più povere in generale un potenziale rischio di frode, che porta in molti casi alla sospensione automatizzata dei benefici e alla creazione di “debiti robotici”.

La vittoria di Pénicaud è stata agrodolce. Anche se dimostrasse che i controlli sul welfare erano discriminatori, come molti sospettavano, i regolatori e i politici devono ancora decidere cosa fare di quell’algoritmo adesso. A un livello più profondo, questa storia francese ha ripetuto in molti modi diversi scandali che hanno scosso i servizi di gestione del welfare nei Paesi Bassi e in Polonia. Anche lì è successo che sistemi mal progettati e un’ideologia contro le persone considerate immeritevoli della solidarietà della società hanno portato migliaia di persone a perdere il reddito loro dovuto dalla legge. E anche lì il problema è stato svelato grazie all’impegno di ricercatori e attivisti.

Scuse pubbliche

Quasi 2.000 chilometri a est di Parigi, un altro sistema automatizzato ha sconvolto la vita professionale di Jerzy Afanasjew, un ricercatore polacco. Era un membro del consiglio dell’Iniziativa Sociale per la Politica sulla Droga (SIN nel suo acronimo polacco), un’organizzazione no-profit che promuove la riduzione dei danni tra i giovani. Un giorno del 2018, SIN si è accorta che alcuni post di Facebook erano stati sommariamente rimossi dalla propria pagina ufficiale. Poche settimane dopo, era un’intera pagina, poi un account Instagram. Secondo Facebook, il contenuto violava i loro “standard comunitari”, che vietano la vendita di sostanze psicoattive illegali. Ma il fatto è che il SIN non vende farmaci, li informa.

Questo è stato un duro colpo per Afanasjew. Dato il quasi monopolio di Facebook (ora Meta), SIN ha perso il suo principale canale di comunicazione e con esso il suo pubblico di riferimento. Nel giro di pochi mesi, il numero di domande ricevute dai polacchi che cercavano di ridurre il rischio di infezione o overdose è sceso da diverse al giorno a un rivolo. Ciò è stato ancora più esasperante in quanto le persone che sfruttano i prodotti di Meta per vendere farmaci temono poco gli algoritmi del gigante. Usano semplicemente parole in codice sottilmente velate, come “calzini verdi” per la marijuana, per evitare il rilevamento automatico.

Ma Afanasjew non si è scoraggiato. Insieme ad un’organizzazione per i diritti digitali, ha fatto causa a Facebook. Non in base al diritto contrattuale (dopotutto un’azienda ha il diritto di decidere sulle proprie “linee guida comunitarie”) ma in base a una specificità giuridica del codice civile polacco, che protegge la reputazione delle organizzazioni. Rimuovendo da solo la presenza online di SIN, Facebook ha contaminato il loro buon nome, sostiene Afanasjew. Chiede scuse pubbliche. La sentenza definitiva è prevista per marzo 2024.

Nessun posto dove andare

Gli europei che cercano di proteggere i propri figli, o che vengono ingiustamente presi di mira dall’algoritmo di rilevamento delle frodi di un’agenzia di welfare o dagli scagnozzi automatizzati di un social network monopolistico, hanno poche opzioni a disposizione per reagire, e quasi nessuna se sono da soli. Al Adib, Pénicaud e Afanasjew non hanno agito da soli. Erano accompagnati da organizzazioni specializzate della società civile che hanno offerto consulenza legale e supporto logistico.

La maggior parte delle persone con cui abbiamo parlato hanno affermato di aver presentato la propria denuncia prima attraverso i canali ufficiali, invano. Afanasjew e il team SIN hanno cliccato sul pulsante di Facebook per contestare la decisione automatizzata. Non sono mai riusciti a parlare con gli esseri umani per spiegare che la riduzione dei danni non è la stessa cosa della vendita di farmaci.

Anche le autorità pubbliche raramente aiutano. Un ingegnere francese ha scoperto che il software utilizzato nel reclutamento potrebbe condividere automaticamente le liste di blocco, il che potrebbe portare alcune persone a non far mai rivedere le loro candidature da un essere umano. Ha cercato per anni di allertare l’autorità per la protezione dei dati e l’organismo per le pari opportunità. Ha ricevuto una ricevuta, niente di più.

In alcuni casi le autorità rispondono, ma tardi. Nel 2021, Anastasia Dedyukhina ha allertato l’autorità spagnola per la protezione dei dati del Mobile World Congress, una conferenza a Barcellona con circa 20.000 partecipanti, che utilizzava illegalmente il riconoscimento facciale. Ci sono voluti due anni, ma alla fine l’autorità ha multato gli organizzatori di 200.000 euro.

Sebbene Dedyukhina sia un’oratrice esperta e ben informata sulle leggi sulla privacy, ha dovuto comunque fare affidamento sull’aiuto di un’amica, specializzata nella regolamentazione dell’IA, per presentare la sua denuncia. “Avevo un’idea di come funziona il regolamento generale sulla protezione dei dati. So come chiedere quali decisioni automatizzate sono state prese su di te”, afferma. Ma sentiva di aver bisogno del supporto di un professionista legale per esercitare i suoi diritti.

Paura di ritorsioni

La mancanza di vie facili per presentare reclami contro i sistemi automatizzati non è l’unico ostacolo che gli europei devono affrontare. I sistemi gestiti dallo Stato sono potenti quanto lo sono spesso anche le inevitabili società private monopolistiche. Molti temono che qualsiasi azione possa portare a ritorsioni.

I beneficiari dei sistemi di welfare francesi possono richiedere legalmente i dettagli degli algoritmi a cui sono sottoposti. Ma molti di quelli con cui abbiamo parlato hanno affermato che non si avvarranno di questo diritto, per timore che ciò comporti un ulteriore controllo da parte delle autorità coinvolte. Tali timori potrebbero non essere senza ragione perché le richieste legali vengono elaborate dalle persone che supervisionano l’erogazione dei benefici.

Al SIN in Polonia, Afanasjew ha affermato che pochissime organizzazioni hanno espresso sostegno al loro caso, soprattutto non su Facebook. La natura della loro attività e il clima politico in Polonia all’epoca (il paese era governato da un partito di destra Diritto e Giustizia fino alla fine del 2023) potrebbero spiegare in parte questo silenzio. Ma Afanasjew è convinto che pochi siano disposti a rischiare di far arrabbiare Facebook, perché non vogliono essere presi di mira a loro volta.

Quando le istituzioni non forniscono i mezzi per far valere i propri diritti legali, chiedere che tali diritti siano rispettati richiede coraggio. “Quando le persone accettano lo status quo, permettono che i loro diritti vengano portati via”, dice Dedyukhina.

Telai tecnologici

Questi squilibri di potere contribuiscono al fatto che ci sono pochissimi modi in cui le persone possono presentare reclami sui sistemi automatizzati. Oltre alla mancanza di posti dove andare e alla paura di ritorsioni, una terza difficoltà, meno visibile, blocca il loro cammino: la natura tecnologica dell’IA rende ciechi molti alle sue conseguenze sociali.

In Francia, molte delle persone che Pénicaud aveva incontrato inizialmente le avevano detto: “è una questione di tecnologia, non capisco”. Ha la sensazione che le persone che non sono tecnologi non si sentono legittimate a esaminare attentamente i sistemi algoritmici. Questo è ciò che ha sperimentato anche Pauline Gourlet, ricercatrice presso il Medialab di Sciences-Po. Lavora al progetto Shaping AI ed è specializzata sui discorsi riguardanti l’intelligenza artificiale. Parlare semplicemente di “bias” in un sistema, ricorda, si trasformava immediatamente in una questione tecnica che faceva guardare in disparte qualsiasi persona non tecnica.

Valérie Pras, che ha lavorato con Pénicaud, dice di dedicare molto tempo a spiegare che un algoritmo può essere ispezionato, se scomposto in piccole parti. “Analizziamo tutto, per poter spiegare a quale livello interviene il sistema informatico”, dice. Questo minuzioso lavoro è il primo passo necessario per superare l’impotenza che tante persone provano di fronte ai sistemi automatizzati.

E non è solo il software. Maud Barret, dottoranda e collega di Gourlet, aggiunge che le forze sociali e politiche in gioco sono importanti almeno quanto la tecnologia. “Quando si esamina un problema specifico [come l’individuazione delle frodi nel sistema di welfare], ci si rende conto che la questione non è tecnologica di per sé, ma riguarda il cambiamento del modo in cui vengono forniti i servizi sociali”, ha affermato.

Contro l’hype

Tali voci si sentono raramente nel rumore delle notizie sui miliardi scommessi sui prossimi campioni dell’IA. I dirigenti delle start-up dell’intelligenza artificiale preferiscono intrattenere un discorso tecno-utopico in cui il software antropomorfizzato è spesso onnipotente, se non divino. Le ingiustizie combattute da Pénicaud, Afanasjew e altri, invece, richiedono la decostruzione dei sistemi algoritmici in componenti tecniche e sociologiche. Bisogna guardare i dettagli per identificare con precisione dove le cose vanno male e trovare mezzi legali o politici specifici per intervenire. Ma nella mente di molte persone, l’idea di un’entità divina non consente una revisione sfumata.

Nonostante il coraggio e la tenacia di innumerevoli europei nell’affrontare il problema delle IA canaglia, i loro sforzi difficilmente intaccano i piani di comunicazione delle aziende tecnologiche da miliardi di euro. A settembre, il presidente della Commissione europea ha parlato del “rischio di estinzione dell’intelligenza artificiale”, un argomento sostenuto dall’industria senza alcun fondamento concreto. Molti studiosi sostengono che questo scenario di rischio a lungo termine serve principalmente a distrarre dai rischi reali dell’IA. Già oggi questi rischi hanno causato danni e deragliato la vita di migliaia, se non milioni, indebitandoli, facendo scomparire la loro presenza online o sottoponendoli a una fitta rete di sorveglianza biometrica.

Ma le lotte di Al Adib, Afanasjew e altri potrebbero estendersi. “Molte persone si sono avvicinate a me dicendo che volevano fare lo stesso [lamentela sull’uso ingiustificato del riconoscimento facciale]”, dice Dedyukhina. “Quando apri questa porticina, in realtà dai il permesso agli altri di fare lo stesso.”