Lettera aperta: il governo tedesco dovrebbe difendere un forte divieto di sorveglianza biometrica nei negoziati del Consiglio dell’UE in merito alla legge sull’IA

Pubblichiamo questa lettera aperta che diverse Associazioni della società civile tedesca hanno inviato al loro governo per richiedere una iniziativa energica verso il Consiglio della UE in materia di contenimento dell’uso della sorveglianza biometrica per contrastare una deriva verso la sorveglianza di massa.

Fonte AlgorithmWatch 

Open letter: the German government should stand up for a strong ban on biometric surveillance in the Council of EU negotiations regarding the AI Act  

AlgorithmWatch and 23 other civil society organizations are calling on the German government to stand up in the negotiations on the AI Act and advocate for a strong ban on biometric surveillance as mirrored in its coalition treaty.

The Council of the EU, comprised by the member states, is at full speed towards an agreement on the Artificial Intelligence Act (AI Act) and is aiming to reach a general approach by early December. However, the ban in the Act on biometric identification practices which can lead to mass surveillance – in its current form – entails dangerous loopholes and limitations.

Continua a leggere “Lettera aperta: il governo tedesco dovrebbe difendere un forte divieto di sorveglianza biometrica nei negoziati del Consiglio dell’UE in merito alla legge sull’IA”

 155 total views,  3 views today

Per essere all’altezza dei tempi ….

 

 

I frequentatori più assidui del sito Diario Prevenzione avranno notato che da diverso tempo pubblichiamo sempre più spesso report, documenti e notizie che fanno riferimento a grandi temi come il cambiamento climatico, ai necessari interventi e adattamenti per farvi fronte. Come sempre riprendiamo questi report e articoli dalle fonti più qualificate come Enti di ricerca, siti autorevoli, riviste specializzate.Su questo tema del riscaldamento climatico e della necessaria trasformazione ecologica della società nei modi di produrre e consumare, a causa della guerra in Europa e della crisi energetica, si sta perdendo tempo e si stanno facendo molti passi indietro.

Continua a leggere “Per essere all’altezza dei tempi ….”

 1,083 total views,  35 views today

Come combattere la discriminazione algoritmica? Una guida di AutoCheck

Postiamo  questo articolo  pubblicato dal sito Algorithm Watch  Riteniamo importante che si dia visibilità alla tematica della introduzione sempre più diffusa di  ” Sistemi decisionali automatizzati” . Questi sistemi possono diventare “agenti” di scelte  che creano discriminazioni. Il Report qui segnalato …. va letto con attenzione in fattispecie da coloro che hanno responsabilità nelle scelte  in sanità, nei servizi educativi, nella giustizia e in ogni settore produttivo. editor

 

 

 

Ci troviamo di fronte a sistemi decisionali automatizzati quasi ogni giorno e potrebbero essere discriminanti, senza che nemmeno ce ne accorgiamo. Una nuova guida aiuta a riconoscere meglio tali casi e supportare le persone colpite.

Il nostro nuovo rapporto “Sistemi decisionali automatizzati e discriminazione” esamina in modo più approfondito la discriminazione algoritmica: cos’è, come è causata e cosa si può fare al riguardo. Con istruzioni complete, diagrammi e casi di studio, la guida offre ai consulenti antidiscriminazione e alle persone colpite un’introduzione di base all’argomento e li supporta nella ricerca di aiuto con liste di controllo, fonti e informazioni di contatto.

Uno dei maggiori problemi nella lotta alla discriminazione da parte dei sistemi algoritmici è che spesso passa inosservata e le persone colpite – nella maggior parte dei casi – non sanno di essere state discriminate. Ma quando i sistemi algoritmici decidono in modo discriminatorio o suggeriscono decisioni discriminanti, molte persone sono potenzialmente interessate, perché tutte le decisioni seguono lo stesso schema. Questi rischi sono sistematici e l’impatto complessivo sulla società può essere ampio.

Questa pubblicazione fa parte del progetto AutoCheck , finanziato dall’Agenzia federale tedesca per la lotta alla discriminazione. L’obiettivo del progetto è ridurre questa mancanza di consapevolezza sviluppando istruzioni e strumenti concreti e completi per i centri di consulenza antidiscriminazione. Vogliamo supportare i dipendenti degli uffici di consulenza antidiscriminazione per valutare e riconoscere meglio i rischi, e quindi supportare meglio le persone colpite. La project manager e autrice del rapporto, Jessica Wulf, ha iniziato a ricercare casi e condurre interviste con consulenti ed esperti anti-discriminazione nel febbraio 2021. La guida e i corsi di formazione si basano su questo corpus completo di lavoro.

Continua a leggere “Come combattere la discriminazione algoritmica? Una guida di AutoCheck”

 265 total views,  2 views today

I membri del Parlamento europeo potrebbero proteggerci dalla sorveglianza biometrica, se lo volessero

Riprendiamo dal sito Algorithm Watch questo articolo sui rischi derivanti dal “riconoscimento facciale” tramite dispositivi di identificazione biometrica Insieme a Reclaim Your Face e ad altre 51 organizzazioni della società civile, AlgorithmWatch chiede un divieto significativo dei sistemi di identificazione biometrica remoti negli spazi pubblici. In una lettera aperta ai membri del Parlamento europeo, li esortiamo a modificare di conseguenza il progetto di legge sull’IA.

 

In Europa e nel mondo, l’uso di sistemi di identificazione biometrica remota (RBI) come il riconoscimento facciale, nei nostri spazi accessibili al pubblico, rappresenta una delle maggiori minacce ai diritti fondamentali e alla  democrazia che abbiamo mai visto. L’uso a distanza di tali sistemi distrugge la possibilità dell’anonimato in pubblico e mina l’essenza dei nostri diritti alla privacy e alla protezione dei dati, il diritto alla libertà di espressione, i diritti di libera riunione e associazione (portando alla criminalizzazione della protesta e provocando un agghiacciante effetto) e diritti all’uguaglianza e alla non discriminazione.

Questi danni non sono ipotetici.

I musulmani uiguri sono stati sistematicamente perseguitati dal governo cinese attraverso l’uso del riconoscimento facciale. I manifestanti pro-democrazia e gli oppositori politici sono stati soppressi o presi di mira in Russia , Serbia e Hong Kong attraverso l’uso – e in alcuni casi, anche solo la paura dell’uso – dell’RBI in spazi accessibili al pubblico. Esistono già prove significative che i residenti europei siano stati sistematicamente soggetti a pratiche biometriche di sorveglianza di massa . Dagli appassionati di calcio , agli scolari, ai pendolari, agli acquirenti, alle persone che visitano i bar e i luoghi di culto LGBTQ+: i danni sono reali e prevalenti.

Continua a leggere “I membri del Parlamento europeo potrebbero proteggerci dalla sorveglianza biometrica, se lo volessero”

 311 total views,  3 views today