L’anno in cui i sistemi automatizzati avrebbero potuto essere regolamentati: 2022 in rassegna

Fonte Algorithm Watch 

Riportiamo da Algorithm Watch   [che ringraziamo] questo articolo sulle difficoltà a  regolamentare  i sistemi automatizzati  che hanno già rilevanti influenze e tendenze ad invadere nella quotidianità la nostra vita di cittadini in moltissimi ambiti. Molte decisioni sono prese  dalle agenzie statuali e dalle corporation facendo riferimento a data base estratti dai nostri comportamenti quotidiani nel campo della salute, dei nostri consumi materiali e immateriali. L’articolo fa una rassegna degli eventi di questo annus orribilis  che sta finendo vedendoli dal punto di vista dell’impatto che hanno avuto le piattaforme e i sistemi digitali …. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

I

I sistemi automatizzati erano sorprendentemente assenti dalle storie principali di quest’anno. Sul fronte normativo, le istituzioni europee hanno intensificato i loro sforzi. Quanti cambiamenti possono aspettarsi gli europei dipende dalla risolutezza delle istituzioni, e la prima prova del 2023 è già iniziata.

Nel 2022, proprio come nel decennio precedente e nei decenni a venire, la storia di sviluppo più importante è stata il crollo del nostro clima. La prolungata assenza di precipitazioni sta sconvolgendo i mezzi di sussistenza nell’Africa orientale, mentre i raccolti nell’Africa occidentale sono stati distrutti da acquazzoni torrenziali. Centinaia di milioni hanno sofferto la fame quest’anno e la situazione sta peggiorando.

Che questo sviluppo non abbia nulla a che fare con i sistemi automatizzati potrebbe sorprendere. All’inizio del 2019, ad esempio, Microsoft ha annunciato che “l’uso dell’IA [potrebbe] risolvere la fame e la malnutrizione nel mondo [entro il 2030]”. L’affermazione potrebbe essere stata esagerata.

Nel complesso, come ho valutato nel 2020 , il contributo dell’Intelligenza Artificiale alla crisi climatica è stato l’accelerazione, non la mitigazione. Nei documenti normativi delle società petrolifere e del gas, che sono le principali fonti di emissioni di gas serra, le menzioni dell’IA non sono aumentate in modo significativo rispetto al 2021, ma rimangono ai massimi storici .

Artiglieria contro visione artificiale

L’altra grande storia del 2022 è stata, ovviamente, la guerra di aggressione della Russia contro l’Ucraina. Anche qui i sistemi automatizzati non sembrano giocare un ruolo fuori misura. Sebbene migliaia di accademici e celebrità abbiano messo in guardia nel 2016 contro le armi letali automatizzate, che avrebbero dovuto essere sviluppate “entro anni”, non ci sono ancora prove che un robot killer abbia utilizzato l’apprendimento automatico per prendere di mira e attaccare gli esseri umani.

Il dispiegamento documentato di sistemi automatizzati in Ucraina migliora marginalmente i processi esistenti piuttosto che rivoluzionare la guerra. La polizia utilizza il riconoscimento facciale per identificare vittime e potenziali sabotatori, ad esempio. Il personale di un’azienda di clonazione vocale ha avviato un progetto di rilevamento acustico dei missili. Ed è del tutto possibile, anche se infondato, che i droni utilizzati negli audaci raid sulle basi militari russe facessero uso di software di visione artificiale per operare autonomamente.

(Non tutti sono d’accordo. Il capo di Palantir, un software che aiuta a dare un senso a grandi quantità di dati, ha offerto il suo strumento all’esercito ucraino. Dice che “il potere dei sistemi avanzati di guerra algoritmica è ora così grande che equivale ad avere armi nucleari tattiche”, ma non fornisce alcuna prova).

Ma nel complesso, ciò che ha sorpreso gli osservatori non è stato l’uso di tecnologie avanzate in prima linea. Era il ruolo principale dell’artiglieria , che – prima della guerra – era considerata da molti una reliquia del XX secolo.

AI inverno

Anche negli accoglienti uffici della Silicon Valley, l’intelligenza artificiale potrebbe perdere slancio, con alcuni team di intelligenza artificiale sciolti o licenziati sommariamente. È vero, l’anno è stato ricco di scoperte, con computer che generano video da suggerimenti , stronzate come veri truffatori , picchiando gli umani a Stratego e Diplomazia o prevedendo la struttura proteica . Ma è finita con licenziamenti di massa. Più di 200.000 persone che lavorano nella tecnologia avrebbero potuto essere licenziate da novembre, con Amazon e Meta in testa.

È improbabile che arrivi o meno un nuovo “inverno AI” che faccia molta differenza nella vita degli europei. Proprio come le armi autonome non hanno ancora rivoluzionato la guerra, i nuovi strumenti brillanti raramente trasformano la società. GPT-3, ad esempio, un software che produce testo che, a prima vista, non è diverso dalla prosa umana, è stato pubblicizzato come un punto di svolta quando è stato rilasciato nel 2020. Due anni e mezzo dopo, non ero in grado di trovare qualsiasi uso documentato dello strumento al di fuori delle app di nicchia (il più grande cliente di GPT-3 sembra essere Copilot di GitHub, uno strumento che suggerisce frammenti di codice ai programmatori).

Erodendo la fiducia

Lungi dall’essere trasformativi, i sistemi automatizzati di varia sofisticazione tecnologica si insinuano lentamente nelle istituzioni e, spesso, ne erodono le fondamenta. Nel 2022, come negli anni precedenti, i sistemi automatizzati sono stati introdotti o ampliati con il pretesto di migliorare l’efficienza, ma hanno finito per ridurre i benefici e diminuire la qualità dei servizi pubblici.

In Francia, il sistema nazionale di gestione del welfare continua a valutare ogni mese tutti i beneficiari per valutarne il “rischio”. Molti assistenti sociali in privato non sono d’accordo con questo approccio e se ne sono andati , aprendo la strada alla privatizzazione del sistema.

In Serbia, a marzo è stata introdotta una banca dati centralizzata dei servizi di assistenza sociale. Utilizza 130 variabili, inclusa l’etnia, per valutare i diritti dei beneficiari. In meno di un anno, 22.000 persone hanno perso il sussidio , in genere perché le attività commerciali minori (come la vendita di rottami metallici) sono ora registrate e fanno scattare la sospensione dei sussidi di disoccupazione. I Rom sono i più colpiti.

Nei Paesi Bassi, il governo prevede di introdurre un nuovo sistema di raccolta dati per valutare automaticamente le “prestazioni” dell’assistenza sanitaria mentale. “I valori fondamentali nell’assistenza sanitaria come l’autonomia professionale e un rapporto di trattamento riservato vengono erosi da un pio desiderio tecnocratico”, ha scritto sul progetto la Civil Rights Platform, un’organizzazione senza scopo di lucro .

Combattendo

Come negli anni precedenti, le organizzazioni della società civile hanno reagito a questa tendenza. In Svizzera, diverse città hanno deciso di vietare il riconoscimento facciale negli spazi pubblici a seguito delle pressioni di organizzazioni tra cui AlgorithmWatch CH.

Nei Paesi Bassi, una studentessa ha avviato un procedimento legale contro VU Amsterdam, un’università, sostenendo che il software anti-frode automatico che utilizzavano l’aveva penalizzata. Utilizza il riconoscimento facciale per verificare l’identità di uno studente e spesso non riconosce le persone con tonalità della pelle più scure. L’Istituto olandese per i diritti umani, l’ente per la parità del paese, si è pronunciato a suo favore .

In Francia, gli studenti dell’università Paris 8 sono andati in tribunale per un altro software anti-cheat automatizzato. Il giudice ha ordinato all’università di sospendere l’utilizzo dello strumento.

L’elenco delle piccole vittorie è molto più lungo. Ma gli strumenti più impattanti nella lotta all’uso sproporzionato e segreto dei sistemi automatizzati nel 2022 potrebbero essere stati attinti dalle istituzioni europee.

diritto europeo

La versione finale del Digital Services Act (DSA) è stata pubblicata a ottobre e alcune delle sue disposizioni sono entrate in vigore a novembre. I più importanti, come il diritto di accesso ai dati della piattaforma per i ricercatori, saranno applicabili da febbraio 2024 in poi. L’ AI Act (AIA), proposto per la prima volta alla fine del 2021, è stato ampiamente discusso e negoziato quest’anno. Dovrebbe diventare legge nel 2023 o nel 2024.

Nel loro insieme, questi testi impongono nuovi obblighi di trasparenza ai servizi online e agli operatori di sistemi automatizzati, soprattutto quelli di maggiori dimensioni. Sotto il DSA, i social network dovranno essere più trasparenti riguardo alle loro decisioni di moderazione e ridurre i “rischi sistemici” come l’interferenza nelle elezioni. Secondo l’AIA (nella sua forma attuale), i sistemi automatizzati “ad alto rischio” dovrebbero essere inseriti in un registro per la trasparenza e alcune forme di automazione che comportano “rischi inaccettabili” sarebbero semplicemente vietate.

Nel complesso, le nuove leggi potrebbero introdurre un nuovo standard di trasparenza e responsabilità per gli operatori di sistemi automatizzati. La questione chiave, ovviamente, è come verranno applicate. Il precedente del regolamento sulla protezione dei dati, noto come GDPR, non offre molte speranze.

Precedente GDPR

Il GDPR è stato votato nel 2016 ed è entrato in vigore nel maggio 2018, quattro anni e mezzo fa. Proibisce la raccolta e l’uso di grandi quantità di dati personali e vieta i sistemi interamente automatizzati che hanno “conseguenze legali” sulle persone. Conferisce alle autorità nazionali per la protezione dei dati (DPA) ampi poteri per far rispettare il testo.

Nel 2022, le autorità di protezione dei dati si sono avvalse di questi poteri. Clearview AI, una società che cancella immagini da Internet e fornisce servizi di riconoscimento facciale alla polizia e ad altre agenzie statali, è stata multata dalle autorità di protezione dei dati francesi, greche e italiane. Ciascuno ha comminato la sanzione massima di 20 milioni di euro. Clearview AI non ha chiesto il consenso prima di raschiare le immagini, hanno sostenuto i DPA.

Nonostante le ingenti somme, Clearview AI, che ha sede negli Stati Uniti, ha ignorato gli ordini e non ha pagato un centesimo.

Anche in altre aree il GDPR non ha mantenuto le sue promesse. Le offerte in tempo reale sono una tecnica pubblicitaria in base alla quale le aziende scambiano dati personali per decidere quale annuncio mostrare a un utente. È stato a lungo sostenuto che la pratica fosse illegale ai sensi del GDPR, ma continua senza sosta.

Una pratica simile è stata dichiarata illegale a dicembre. Il comitato europeo per la protezione dei dati ha affermato che Facebook e Instagram non possono mostrare annunci personalizzati agli utenti senza il loro esplicito consenso. Ha fatto seguito a una denuncia del 2018 dell’attivista austriaco Max Schrems.

Nonostante la notizia, e sebbene l’Europa realizzi circa un quarto delle entrate di Meta, il prezzo delle azioni della società non si è mosso (il calo del 6% nel giorno dell’annuncio è stato cancellato entro una settimana). Dimostra che gli uomini che investono ingenti somme di denaro non si aspettano la decisione di costringere Facebook a cambiare il proprio modello di business. In altre parole, non considerano il GDPR un limite per l’attività di un’azienda.

Spinta esecutiva

L’applicazione del DSA e dell’AIA potrebbe essere diversa. Istituzioni europee e governi nazionali hanno istituito gruppi di esperti per monitorare l’attività degli operatori di sistemi automatizzati. La Francia ha aperto la strada con PEReN , che è cresciuto fino a raggiungere circa 30 dipendenti nel 2022. All’inizio del 2023, l’agenzia spagnola per la supervisione dell’intelligenza artificiale aprirà a La Coruña e il Centro europeo per la trasparenza algoritmica inizierà a Siviglia. Ciò potrebbe fornire alle autorità di regolamentazione una migliore comprensione del funzionamento interno dei sistemi automatizzati e potrebbe consentire loro di essere più proattivi nei loro rapporti con le aziende che li gestiscono.

Ma il primo test per il 2023 sarà Twitter. Alla fine del 2022, un miliardario di estrema destra ha acquistato la piattaforma ed è caduto rapidamente in violazione delle normative europee. Ha licenziato i responsabili degli obblighi GDPR dell’azienda per giorni durante il suo mandato. Ha quindi modificato le regole di moderazione, con conseguente aumento drammatico dell’incitamento all’odio e ha chiuso arbitrariamente gli account dei giornalisti. Il commissario Thierry Breton lo ha avvertito che Twitter potrebbe violare le normative europee.

Il modo in cui le istituzioni europee gestiscono “Twitter 2.0” sarà un segnale per altri servizi online, grandi e piccoli. Se continuano a fornire il servizio con contenuti gratuiti e a interagire con il suo proprietario come se stesse agendo in buona fede, altri potrebbero pensare che tutto è permesso fintanto che fingono di rispettare le regole. D’altra parte, se le istituzioni europee danno la priorità ai propri canali di social media e mostrano la loro determinazione nel far rispettare la legislazione esistente, il 2022 potrebbe essere ricordato come l’anno in cui i sistemi automatizzati hanno iniziato a essere regolamentati in modo efficace.