
Fonte : Algorithmwatch che ringraziamo . La traduzione è stata effettuata con google translator
Berlino, 19 maggio 2025. La ONG tedesca AlgorithmWatch ha appena lanciato un nuovo modulo di segnalazione online per documentare i casi di discriminazione algoritmica.
Sempre più istituzioni e aziende si affidano a decisioni automatizzate o semi-automatizzate per esaminare le domande di lavoro, erogare prestiti e prestazioni sociali, o “prevedere” comportamenti e reati. Con questo utilizzo crescente, aumenta il rischio di discriminazione sistemica.
Con l’introduzione di questo nuovo strumento di segnalazione, AlgorithmWatch non solo offre alle persone una piattaforma per segnalare casi di discriminazione algoritmica. L’ONG indagherà anche sulle segnalazioni ricevute per individuare eventuali discriminazioni e presentare prove concrete ai fornitori di tali sistemi e ai politici.
In tutta Europa, di recente, si sono verificate ripetute segnalazioni di discriminazioni da parte di sistemi algoritmici, ad esempio:
- In Francia [1], 13 milioni di famiglie sono state colpite da un sistema di assistenza sociale che segnalava come a rischio di frode le persone con disabilità, le madri single e le persone a basso reddito. In molti casi, ciò ha portato all’annullamento automatico dei benefici.
- In Austria [2], un chatbot utilizzato dal Servizio pubblico per l’impiego AMS ha rafforzato i ruoli di genere antiquati: ha raccomandato alle donne di intraprendere studi di genere e agli uomini di dedicarsi all’informatica.
- Nei Paesi Bassi [3], la Vrije Universiteit di Amsterdam ha utilizzato un software di riconoscimento facciale per impedire agli studenti di copiare durante gli esami. Il sistema ha rilevato persone con carnagione più scura più spesso di quanto suggeriscano le statistiche.
“I sistemi algoritmici non sono né neutrali né oggettivi. Riproducono i pregiudizi esistenti nella società. I dati utilizzati per l’apprendimento automatico dei sistemi riflettono le distorsioni e i pregiudizi sociali esistenti. Di conseguenza, i sistemi algoritmici tendono a rafforzare modelli discriminatori”, afferma Pia Sombetzki, Senior Policy Manager di AlgorithmWatch.
Ulteriori informazioni:
L’introduzione dello strumento di segnalazione segna il lancio della campagna “Discriminazione algoritmica”. Durante l’estate, AlgorithmWatch si concentrerà sulla sensibilizzazione sulla discriminazione da parte dei sistemi algoritmici in ambito lavorativo, migratorio e di genere.