Sbirciando nella scatola nera. Rapporti algoritmici sulla responsabilità

 

Fonte :  Algorithmwatch che ringraziamo ( l’articolo è pubblicato con licenza Creative Commons 4). La traduzione in italiano è stata effettuata con l’assistenza di  google translator. Per un utilizzo professionale e/o di studio raccomandiamo vivamente  la lettura del testo originale : clicca QUI 

di Sonja Peteranderl

Fonte Algorithmwatch che ringraziamo

Punteggio delle frodi previdenziali, polizia predittiva o ChatGPT: i legislatori e i funzionari governativi di tutto il mondo fanno sempre più affidamento sugli algoritmi e la maggior parte di essi è completamente opaca. Algorithmic Accountability Reporting dà un’occhiata più da vicino a come funzionano e agli effetti che hanno. Ma solo pochissimi media conducono tali rapporti. Perché?

Le madri single sono state viste come un rischio particolarmente elevato. Nella città portuale olandese di Rotterdam, un algoritmo ha passato anni a setacciare i dati dei beneficiari del welfare per determinare quali di loro avevano maggiori probabilità di essere coinvolti in frodi sul welfare. Secondo un progetto di segnalazione congiunto condotto da Lighthouse Reports e dalla rivista WIRED , i fattori che hanno contribuito in modo significativo a identificare una persona dall’algoritmo come ad alto rischio di frode assistenziale includevano: essere una donna, essere un genitore, mancanza di padronanza della lingua locale e difficoltà a trovare un lavoro. In questo caso, i giornalisti sono stati in grado di acquisire e analizzare il modello di apprendimento automatico dalla città, insieme a dati di formazione e manuali utente. Ha fornito uno sguardo prezioso all’interno della sala macchine.

I governi e le autorità di tutto il mondo stanno implementando sempre più algoritmi e la maggior parte di essi è completamente opaca. Hanno un’influenza significativa su chi deve accettare tagli ai pagamenti del welfare, chi viene segnalato per un controllo fiscale, chi finisce nel radar della polizia, quanto dura una potenziale pena detentiva e chi riceve un prestito o un mutuo – e chi no. Gli algoritmi fanno previsioni sul futuro successo degli scolari, prevedono i rischi per la salute e determinano a quale contenuto dei social media viene data priorità.

In una società sempre più digitale, un compito centrale del giornalismo dovrebbe essere quello di esaminare come funzionano tali algoritmi, mettendo a nudo i loro effetti discriminatori ed esplorando come i politici, le agenzie governative e i produttori di software li stanno implementando. “Ciò che generalmente ci manca come pubblico è  la chiarezza su come gli algoritmi esercitano il loro potere su di noi “, (enfasi nell’originale) ha avvertito l’esperto di giornalismo computazionale Nicholas Diakopoulos nel 2014. “Mentre i codici legali sono disponibili per noi da leggere, i codici algoritmici sono più opachi, nascosti dietro strati di complessità tecnica”. All’epoca, Diakopoulos chiamò “Algorithmic Accountability Reporting” il campo giornalistico in fusione che espone le strutture di potere e gli effetti di pregiudizio sull’automazione (vedi anche  giornalista  6/2018). 

Da allora, un numero crescente di articoli in tutto il mondo si è concentrato sull’automatizzazione della società e sui suoi effetti. Gli Stati Uniti hanno persino visto la nascita di un media, chiamato The Markup , incentrato interamente sul giornalismo tecnologico investigativo. “La grande tecnologia ti sta guardando. We’re Watching Big Tech”, è così che la redazione no-profit descrive la sua missione. Algoritmi, intelligenza artificiale e responsabilità algoritmica sono diventati argomenti di tendenza negli ultimi anni in molte conferenze giornalistiche. E alcuni media hanno persino assunto giornalisti specializzati dedicati al ritmo dell’IA. La giornalista di AI Madhumita Murgia, ad esempio, scrive per il  Financial Times, mentre l’agenzia di stampa Bloomberg ha recentemente pubblicizzato la posizione di “AI Ethics and Policy Reporter”. Solo pochissimi media tedeschi, tuttavia, conducono indagini sul potere che gli algoritmi esercitano sulla nostra vita quotidiana. 

“Sempre più spesso ci troviamo di fronte ad algoritmi di autoapprendimento e a sistemi che hanno caratteristiche di scatola nera, rendendo ancora più difficile condurre una ricerca efficace”. Christina Elmer, professore alla TU Dortmund University

“È complicato”, afferma Christina Elmer, professoressa di giornalismo digitale e data journalism alla TU Dortmund University. “Anche se ci sono alcuni progetti, il campo non si è sviluppato molto negli ultimi anni, anche se ci troviamo sempre più di fronte ad algoritmi di autoapprendimento e a sistemi che hanno caratteristiche di scatola nera, rendendo ancora più difficile condurre una ricerca efficace”.

Un approccio iniziale di Algorithmic Accountability Reporting che tentava di analizzare gli algoritmi tramite il reverse engineering è stato rapidamente scartato dai giornalisti, afferma Elmer. In particolare con gli algoritmi implementati per formulare raccomandazioni iper-personalizzate su piattaforme come TikTok, ad esempio, è difficile, afferma, misurare gli effetti discriminatori o persino dimostrarne l’esistenza. Elmer afferma che i giornalisti devono investire molta energia nello sviluppo di un progetto quasi scientifico per produrre risultati fondati. Pertanto, i progetti di rendicontazione algoritmica della responsabilità tendono ad essere estremamente complessi e richiedono molto tempo e molti media semplicemente non dispongono delle risorse. “I team in Germania e a livello internazionale che si occupano di reporting di responsabilità algoritmica tendono ad essere gruppi di giornalisti di dati”, afferma Elmer.

Elmer ha trascorso molti anni lavorando per la rivista di notizie tedesca  Der Spiegel  in vari ruoli, tra cui capo dello sviluppo, membro del comitato editoriale di  Spiegel Online e capo del dipartimento di data journalism. Ha anche preso parte a OpenSCHUFA , una delle prime grandi imprese di rendicontazione algoritmica in Germania. Per il progetto, la Open Knowledge Foundation Deutschland e l’ONG AlgorithmWatch hanno invitato i cittadini tedeschi nel 2018 a richiedere i loro rating di credito a Schufa, la principale agenzia di rating del credito in Germania. I dati donati sono stati poi esaminati dai data team di  Der Spiegel e l’emittente pubblica tedesca Bayerischer Rundfunk (BR). Sono stati in grado di mostrare quante persone sono state dichiarate a rischio di credito attraverso processi automatizzati, rendendo così più difficile per loro ottenere contratti di telefonia mobile, mutui per la casa e appartamenti in affitto. “Se vuoi produrre reportage di qualità e raccontare la storia in modo dettagliato, entusiasmante e pertinente, devi investire molto e potresti non ottenere sempre molto indietro”, afferma Elmer. “La portata e il numero di abbonati che attirano spesso, sfortunatamente, non sono così alti come le storie potrebbero meritare”.

Ciò rende difficile comunicare la rilevanza di tale ricerca tecnologica ai responsabili delle decisioni nei dipartimenti editoriali. “Se vogliamo potenziare in modo sostenibile la rendicontazione algoritmica della responsabilità, dovremo esaminare modelli di finanziamento alternativi, perché altrimenti queste storie vengono spesso trascurate a favore di altre questioni”, ritiene Elmer. Molte delle storie prodotte da redazioni senza scopo di lucro come ProPublica e The Markup non sarebbero mai state riportate da pubblicazioni a scopo di lucro.

Il giornalista di dati Uli Köppen di BR afferma anche che l’entusiasmo per l’IA alle conferenze giornalistiche non si riflette sempre nelle decisioni quotidiane prese in redazione. “Il reporting algoritmico sulla responsabilità sta emergendo dalla sua nicchia e sta diventando un elemento del reporting tecnologico”, afferma. “È stato enormemente pubblicizzato ed è considerato interessante, ma pochissimi punti vendita investono davvero risorse in esso”. Köppen, tuttavia, ritiene che la tendenza verso l’automazione dovrebbe essere trattata più come il cambiamento climatico, che non è più solo un problema scientifico ed è invece diventato ancorato in tutte le sezioni. “C’è bisogno di team specializzati in grado di fare immersioni profonde, ma deve anche esserci consapevolezza in tutte le sezioni che l’IA è un problema che riguarda tutta la società”, afferma Köppen.

“Per le redazioni, le questioni relative all’intelligenza artificiale sono spesso meno attraenti perché sono astratte e difficili da illustrare”. Karen Naundorf, ricercatrice responsabile AI presso il Pulitzer Center

Köppen è a capo del primo team in assoluto riunito da un media tedesco per specializzarsi in automazione e intelligenza artificiale: l’AI + Automation Lab di BR. “Non hai necessariamente bisogno del tuo team di intelligenza artificiale, puoi anche integrare il problema nei team di dati esistenti, ma per tutti i progetti di reportistica tecnologica, hai bisogno di molto tempo e competenza, ovvero membri del team che hanno un certo background in statistica, programmazione, beat journalism o una conoscenza più approfondita dell’IA e della regolamentazione dell’IA”, afferma Köppen.

Tali conoscenze specialistiche, tuttavia, non fanno ancora parte dei programmi di formazione giornalistica. “Il modo in cui i giovani sono attratti dalla professione e il modo in cui vengono formati deve e sarà cambiato”, ha chiesto un rapporto (in lingua tedesca) pubblicato di recente intitolato “L’educazione al giornalismo per la generazione di TikTok”, compilato dall’iniziativa #UseTheNews dell’agenzia di stampa tedesca dpa in collaborazione con l’Università di scienze applicate di Amburgo e basato su interviste con 20 esperti di media. “Alcuni luoghi sembrano ancora digerire la digitalizzazione ed ecco che arriva la prossima tecnologia rivoluzionaria, sotto forma di apprendimento automatico e intelligenza artificiale, che avrà un impatto significativo e duraturo sulla società e sul giornalismo”, afferma il rapporto. E gli specialisti della tecnologia spesso non pensano nemmeno a cercare lavoro nei media, in parte perché gli stipendi non sono sempre particolarmente allettanti. “Non ci sono abbastanza filiere di talenti tra corsi di laurea tecnici e media,” concorda Uli Köppen.

L’AI + Automation Lab di BR è stato istituito in cima al team di dati esistente. I tre team – BR Data, BR Reporting e AI + Automation Lab – lavorano in modo interdisciplinare e collaborano in diverse costellazioni. Sviluppano sia contenuti che prodotti, come dati o applicazioni AI. Ma quanto tempo rimane per la rendicontazione algoritmica della responsabilità se i team sono coinvolti anche nello sviluppo del prodotto? Köppen dice un bel po’. “Poiché lavoriamo in sotto-team più piccoli, c’è sempre un progetto di segnalazione in corso.”

Köppen afferma che a causa delle diverse mentalità, flussi di lavoro e ritmo di lavoro, la struttura insolita può essere impegnativa. “Il team del prodotto lavora secondo un programma chiaro. Nella squadra investigativa accade sempre qualcosa che non ti aspettavi, il che sconvolge completamente la cronologia”, dice. “Ciò presenta problemi pratici che non possono essere evitati del tutto, ma è fantastico quando si ha la possibilità di creare team ad hoc provenienti da tre diverse aree per lavorare insieme su un progetto e applicare le proprie conoscenze specialistiche.”

Ogni progetto di reportistica nell’AI + Automation Lab di BR inizia con un’ipotesi formulata nel modo più chiaro possibile e radicata nel pre-reporting. Un piano di ricerca delinea come raccogliere le informazioni e quali strategie hanno più senso. “Si tratta di questioni estremamente complicate. Potresti investire anni e scrivere un dottorato di ricerca. tesi su di loro, ma dobbiamo rimanere pragmatici e concederci quattro settimane”, afferma Köppen. “Se poi siamo in grado di produrre un’ipotesi decente, allora andiamo avanti. Altrimenti, non lo facciamo.

L’obiettivo è sempre quello di sollevare il velo e scoprire qualcosa di nuovo sull’uso degli algoritmi. Ma se il team non è in grado di produrre uno scoop investigativo, il risultato a volte è un pezzo esplicativo. Per quanto possibile, i risultati del progetto sono presentati in modo interattivo e attraente. Di recente, ad esempio, il team BR ha dimostrato che le foto di donne hanno molte più probabilità di essere classificate come erotiche dai programmi di riconoscimento delle immagini rispetto alle foto di uomini. In un video che accompagna la storia, si può vedere un reporter di BR che indossa un reggiseno e l’immagine viene rapidamente classificata come “molto erotica”. Un test del software di reclutamento videodimostra – attraverso i video di un’attrice – come cambiano i profili di personalità dei candidati non appena indossano gli occhiali o il velo, o quando si trovano davanti a un muro bianco invece che a una libreria. Mostra che l’intelligenza artificiale dietro il programma può essere facilmente ingannata da fattori esterni.

Uli Köppen ritiene che la missione del laboratorio sia principalmente educativa, aumentando la comprensione da parte della società dell’impatto che hanno gli algoritmi. “Vogliamo che le persone capiscano che potrebbero essere vittime di algoritmi”, afferma. Inoltre, il suo team sta cercando di diffondere le loro scoperte il più ampiamente possibile e di spiegarle nel modo più semplice possibile in modo che il loro pubblico “non abbia bisogno di una laurea in informatica”.

“Devi parlare con le persone per sapere come sperimentano i sistemi”. Nicolas Kayser-Bril, giornalista di AlgorithmWatch

Nicolas Kayser-Bril ritiene inoltre che sia fondamentale affrontare la questione dal punto di vista di coloro che sono interessati dalla tecnologia e non dalla tecnologia stessa. “Devi parlare con le persone per sapere come sperimentano i sistemi”, afferma Kayser-Bril, che dal 2019 si occupa di automatizzazione per l’ONG AlgorithmWatch. È infastidito dall’attenzione che crede che molti giornalisti continuino ad avere sulla tecnologia. “Se c’è un problema con la tecnologia, di solito lo fanno risalire a un problema con la piattaforma o con l’algoritmo”, dice. “Ma se vedono i problemi solo da un punto di vista tecnico, scrivono per l’industria, perché i problemi tecnici possono essere risolti dall’industria”. I giornalisti, a suo avviso, dovrebbero concentrarsi maggiormente sui problemi della società e mettere in discussione il grado in cui tali problemi possono essere risolti dalla tecnologia.

Lo stesso Kayser-Bril ha iniziato evidenziando problemi concreti con alcuni servizi con i suoi reportage, come il razzismo incorporato in Google Vision . Ha dimostrato che il software di riconoscimento delle immagini identificava erroneamente come arma un dispositivo elettronico nella mano di un uomo di colore, mentre lo stesso errore non veniva commesso nel caso di un soggetto bianco. L’esperimento è diventato virale su Twitter. “Fare cose del genere è semplice ed è ben accolto dal pubblico”, afferma Kayser-Bril. “Ma essenzialmente è solo un controllo di qualità gratuito per le aziende, motivo per cui non lo faccio più”.

Per Kayser-Bril, il clamore che circonda ChatGPT è un esempio delle continue inadeguatezze nella copertura degli algoritmi da parte della stampa. “A dicembre, un numero enorme di giornalisti è caduto nella trappola tesa loro da Open AI”, afferma criticamente, aggiungendo che c’erano troppe interviste con ChatGPT e poche analisi critiche. Un’analisi eseguita dal Reuters Institute su oltre 700 rapporti sui media britannici ha rivelato nel 2018 quanto sia significativa l’influenza del settore sui rapporti sull’intelligenza artificiale: circa il 60% delle storie si concentrava su prodotti, iniziative o annunci del settore tecnologico. Un terzo delle fonti proveniva dall’industria, il doppio rispetto alle istituzioni scientifiche.

Sono state istituite nuove sovvenzioni per il giornalismo per promuovere la qualità dei reportage sugli algoritmi: all’inizio del 2023, AlgorithmWatch ha iniziato a fornire borse di studio sulla rendicontazione algoritmica ai giornalisti in Europa. (Nota sulla trasparenza: l’autore di questo pezzo è attualmente un collega di AlgorithmWatch.) Dallo scorso anno, le borse di studio sulla responsabilità dell’IA assegnate dal Pulitzer Center, con sede negli Stati Uniti, hanno finanziato progetti di reportistica internazionale. Le sovvenzioni di segnalazione di 10 mesi sono finanziate fino a $ 20.000. Inoltre, il Pulitzer Center sta sviluppando l’Artificial Intelligence Accountability Network per i giornalisti di tutto il mondo che si occupano di intelligenza artificiale.

Karen Naundorf, ricercatrice responsabile dell’intelligenza artificiale presso il Pulitzer Center, ritiene che i giornalisti debbano sempre soppesare i punti deboli delle applicazioni di intelligenza artificiale rispetto ai loro possibili vantaggi. Il programma la aiuta a farlo, ad esempio attraverso regolari incontri online con altri borsisti, oltre a sessioni di formazione e assistenza da parte di mentori. “Certamente non diventerò mai un programmatore, e anche questo non è il mio obiettivo”, dice il giornalista tedesco che lavora come corrispondente a Buenos Aires. “Credo nel classico lavoro di cronaca. Ma solo chi ha una conoscenza di base dei problemi dell’IA può lavorare insieme in un team di specialisti”.

Naundorf sta studiando gli effetti dell’automazione sulla sicurezza pubblica in Sud America. “I politici lì spesso considerano l’intelligenza artificiale come una pallottola magica contro gli alti tassi di criminalità, e tali affermazioni vengono raramente contestate”, afferma. Nel suo reportage sulla questione, Naundorf collabora con la fotografa Sarah Papst. “I problemi di intelligenza artificiale sono spesso meno attraenti per le pubblicazioni perché sono astratti ed è difficile trovare immagini per illustrarli”, afferma Naundorf. Nei loro reportage degli ultimi mesi, il duo ha ripetutamente incontrato ostacoli. “C’è una mancanza di trasparenza, non importa dove ti giri, ed è spesso praticamente impossibile acquisire informazioni dettagliate sulle tecnologie”, dice.

I partenariati tra i media e le strutture accademiche possono anche aiutare a completare complessi progetti di reportistica. “Siamo sempre alla ricerca di sparring partner nelle università dove possiamo ottenere feedback sulla metodologia per vedere se ciò che stiamo facendo ha senso”, afferma Köppen di BR. Christina Elmer dell’Università tecnica di Dortmund è coinvolta nel Science Media Center Germany, che supporta gratuitamente i giornalisti con i loro reportage su questioni scientifiche. Crede che un think tank simile nel settore dell’intelligenza artificiale sarebbe utile.

I media, secondo Elmer, devono sbrigarsi se non vogliono essere lasciati indietro. Ma anche l’interesse della società per la questione è una necessità, e lo sono anche i responsabili politici pronti a introdurre regolamenti per garantire che tutto si muova in una direzione produttiva, afferma Elmer. “Altrimenti, scateni regolarmente scandali quando evidenzi i problemi, ma svaniscono rapidamente.”

Questo articolo è stato pubblicato per la prima volta sulla rivista “giornalista”.