Combattere nell’oscurità: come gli europei respingono l’intelligenza artificiale canaglia

 

Fonte Algorithmwatch.org  che ringraziamo 

[ Per un uso di studio o professionale raccomandiamo di  fare riferimento al testo pubblicato alla fonte   traduzione effettuata da google translate. editor ]

di Naiara Bellio , Nicolas Kayser-Bril , Mathilde Saliou e Alina Yanchur

I sistemi automatizzati vanno fuori strada, contribuiscono alla violenza sessuale sui minori, negano alle persone i loro benefici sociali o bloccano la presenza online delle organizzazioni. Le persone colpite spesso si sentono impotenti quando i loro diritti vengono violati, ma alcuni combattono mentre le leggi attuali non riescono a proteggere le vittime.
Miriam Al Adib è una ginecologa spagnola che vive ad Almendralejo. Un giorno, lo scorso settembre, ha trovato sua figlia adolescente in difficoltà. Nei gruppi WhatsApp della sua scuola circolavano foto di lei e di altri compagni di classe nudi. Le foto erano false, ha detto. Gli scolari li avevano generati, utilizzando uno strumento di intelligenza artificiale.

Al Adib ha percepito l’ansia di sua figlia ma ha capito subito cosa fare. Ha pubblicato un video su Instagram in cui denunciava l’accaduto e chiedeva alle vittime di farsi avanti. Poche ore dopo, molte altre madri le avevano mandato un messaggio, raccontando le esperienze delle loro figlie. Sono andati tutti alla polizia e i ragazzi hanno smesso di creare nudi finti.

Al Adib lavora da più di un decennio per aumentare la consapevolezza sulla violenza sessuale sui minori, sia online che offline. Sa come reagire a tali attacchi. Tuttavia, ha detto, si sente trascurata dalle istituzioni che dovrebbero prevenire un uso così crudele dell’intelligenza artificiale. Oggi, mentre le proteste si sono calmate ad Almendralejo, le app che consentono ai ragazzi di creare nudi finti rimangono disponibili – e probabilmente sono in uso – in tutte le scuole europee.

Abbiamo parlato con persone che hanno deciso di agire contro le ingiustizie causate dall’intelligenza artificiale. Tutti hanno spiegato quanto sia stato difficile riparare gli illeciti e avere un impatto. I diritti sanciti dalla legislazione europea raramente sono applicabili ai singoli individui.

“Colpa dell’algoritmo”

Quando Soizic Pénicaud ha iniziato a lavorare con gli algoritmi del sistema di gestione del welfare francese, ha organizzato corsi di formazione per le persone a stretto contatto con i beneficiari. Una volta, un assistente sociale le disse che l’unico consiglio che dava alle persone che avevano problemi con il sistema di gestione delle richieste era “non c’è niente che tu possa fare, è colpa dell’algoritmo”. Pénicaud, un ricercatore sui diritti digitali, è rimasto sorpreso. Non solo sapeva che i sistemi algoritmici potevano essere ritenuti responsabili, ma sapeva anche come farlo.

Leggi tutto