Risky business: How do we get a grip on social media algorithms?

Fonte : Algorithmwatch

licenza Creative Commons Attribution 4.0 International (CC BY 4.0) .

     

Since personalized recommender systems have the power to influence what we think and do, we need to understand the risks they pose to our society. The DSA’s new transparency regime is a promising step forward, but we still need external, adversarial audits by independent research facilities.

If social media is the water we’re swimming in, there are more than a few reasons to be alarmed by its undercurrents. Hate speech is trending on Twitter following Elon Musk’s chaotic takeover of the company. TikTok—the most influential platform among teenage users—bombards vulnerable young people with content promoting eating disorders and self-harm. And despite early warnings, a range of platforms including Facebook and YouTube continued carrying extremist content that helped enable the January 8th antidemocratic insurrection in Brazil—and turned a profit in doing so.

These examples are the results of a growing collection of public interest research that call out social media platforms for their role in facilitating the spread of toxic content. Now, thanks to the Digital Services Act (DSA), there is expanded scope for researchers seeking to formally access and make sense of platforms’ internal data. This kind of research will be crucial to help identify risks emerging from online platforms.

While the DSA’s new transparency regime is a promising step forward, it will take some time before we know its true effectiveness. Meanwhile, our collective ability to hold platforms accountable will continue to rely on the work of adversarial researchers—researchers who are capable and willing to employ tools that shine a light on the inner workings of platforms’ opaque algorithmic systems.

What kind of social media algorithms are we talking about?

One of the main features that social media platforms use to hook and monetize our attention is what is known as recommender systems. Recommender systems are composed of a set of algorithms which work together to harvest our data and present us with highly personalized, scrollable feeds of content. Many times, these systems have a clear underlying logic: to keep users engaged for as long as possible in order to show us more ads and thus rake in greater profits.

Such personalized recommender systems have the power to influence our opinions and our behavior, particularly as more and more people come to rely on them for news, information, and social interactions. Given the influence that platforms wield, we need to understand how they are fueling serious societal risks like the spread of disinformation, hate speech and gender-based violence, just as we need to understand the risks they pose to mental health and democracy itself. But how can we do that?

Until recently, our ability to monitor social media algorithms has largely depended on platforms’ voluntary disclosures, either in the form of highly curated transparency reports or through limited (and often unreliable) data sharing with select researchers. But there is much more to the story than what the platforms willingly tell us. We know this thanks to revelations from investigative journalists, independent researchers, and whistleblowers, many of whom have worked at considerable personal risk.

EU regulators recognized that we can’t simply rely on the goodwill of platforms to be transparent about how their algorithmic systems work or to take appropriate measures to mitigate risks. Now, they have promised a new era of public oversight and accountability for these platforms under the Digital Services Act (DSA).

Among other things, the DSA will obligate the largest platforms like YouTube, TikTok, and Facebook, to formally assess and report on how their products, including recommender systems, may exacerbate risks and to take measurable steps to prevent them. These self-assessments won’t simply be taken on faith—the largest platforms will also be forced to share their internal data with independent auditors, EU and Member State authorities, as well as researchers from academia and civil society to provide further scrutiny.

The ink has barely dried on the DSA, however. There is still much work that needs to be done before it becomes fully applicable across the EU in February 2024.

Why we can’t wait for official audits to hold platforms accountable

Meanwhile, the societal risks that emerge from social media are not going to go on pause to wait for an official audit. That’s why researchers and civil society organizations are conducting so-called adversarial audits to try to understand how algorithmic decision-making systems are influencing society. Together with partner organizations, AlgorithmWatch currently conducts the DataSkop investigation into the TikTok “For You” page, in which we are inviting TikTok users to donate their data so that we can better understand the platform’s recommendation logic. We want to know how and where trends and niches emerge on TikTok, and whether there are any indications that the platform is spreading certain content into user feeds.

Such a data donation project can be regarded as a type of external, adversarial audit, in that it does not rely on cooperation from the platforms or access to their internal data in order to glean insights into how their systems work. Adversarial audits have shown, for example, that Instagram disproportionately pushed far-right political content via its recommender system and that TikTok promoted wartime content that was supposedly banned to users in Russia.

While adversarial audits alone cannot capture the full story of how recommender systems work (they may, for example, be limited to publicly available data or suffer from selection bias), they also have certain advantages to regulated data access, like giving researchers more flexibility to reformulate research questions after the data has been collected. And adversarial audits provide one of the few available means to independently verify whether the data and compliance reports provided by big tech companies are accurate.

Adversarial audits have a proven track record. They are crucial to exposing risks on social media, raising public awareness and putting pressure on the platforms to make necessary changes for the good of their users and the public. This kind of research will remain an important complement to regulated data access in the DSA to expose risks, and it must be protected given platforms’ track record of hostility toward such external scrutiny. At this moment, a wide range of stakeholders from regulators and industry to academia and civil society are grappling with practical questions around how to effectively conduct independent audits of Big Tech platforms within the scope of the DSA—with the understanding that, if left unchallenged, platforms themselves will set the terms. In the meantime, watchdogs will continue the important work of conducting algorithmic audits of Big Tech platforms. We need greater transparency on all fronts if we are to truly hold platforms accountable for the risks that their services pose to society.

Read more on our policy & advocacy work on the Digital Services Act.

____________________________________________

Postiamo una traduzione effettuata con google translator per facilitare la lettura dell’articolo . Per un uso professionale e/o di studio raccomandiamo di fare riferimento al testo originale alla fonte Algorithmwatch

Affari rischiosi: come possiamo controllare gli algoritmi dei social media?

Poiché i sistemi di raccomandazione personalizzati hanno il potere di influenzare ciò che pensiamo e facciamo, dobbiamo comprendere i rischi che rappresentano per la nostra società. Il nuovo regime di trasparenza del DSA è un promettente passo avanti, ma abbiamo ancora bisogno di audit esterni e contraddittori da parte di strutture di ricerca indipendenti.

Se i social media sono l’acqua in cui nuotiamo, ci sono più di alcuni motivi per essere allarmati dalle sue correnti sotterranee. L’incitamento all’odio è di tendenza su Twitter dopo la caotica acquisizione dell’azienda da parte di Elon Musk. TikTok, la piattaforma più influente tra gli utenti adolescenti, bombarda i giovani vulnerabili con contenuti che promuovono disturbi alimentari e autolesionismo. E nonostante i primi avvertimenti, una serie di piattaforme, tra cui Facebook e YouTube, ha continuato a trasmettere contenuti estremisti che hanno contribuito a rendere possibile l’insurrezione antidemocratica dell’8 gennaio in Brasile, realizzando un profitto nel farlo.

Questi esempi sono i risultati di una crescente raccolta di ricerche di interesse pubblico che richiamano le piattaforme dei social media per il loro ruolo nel facilitare la diffusione di contenuti tossici. Ora, grazie al Digital Services Act (DSA) , c’è un ambito più ampio per i ricercatori che cercano di accedere formalmente e dare un senso ai dati interni delle piattaforme. Questo tipo di ricerca sarà fondamentale per aiutare a identificare i rischi che emergono dalle piattaforme online.

Sebbene il nuovo regime di trasparenza del DSA sia un promettente passo avanti, ci vorrà del tempo prima di conoscerne la vera efficacia. Nel frattempo, la nostra capacità collettiva di ritenere responsabili le piattaforme continuerà a fare affidamento sul lavoro di ricercatori antagonisti, ricercatori che sono capaci e disposti a utilizzare strumenti che fanno luce sul funzionamento interno dei sistemi algoritmici opachi delle piattaforme.

Di che tipo di algoritmi di social media stiamo parlando?

Una delle caratteristiche principali che le piattaforme di social media utilizzano per agganciare e monetizzare la nostra attenzione è ciò che è noto come sistema di raccomandazione. I sistemi di raccomandazione sono composti da una serie di algoritmi che lavorano insieme per raccogliere i nostri dati e presentarci feed di contenuti altamente personalizzati e scorrevoli. Molte volte, questi sistemi hanno una chiara logica di fondo: mantenere gli utenti coinvolti il ​​più a lungo possibile per mostrarci più annunci e quindi ottenere maggiori profitti.

Tali sistemi di raccomandazione personalizzati hanno il potere di influenzare le nostre opinioni e il nostro comportamento, in particolare perché sempre più persone si affidano a loro per notizie, informazioni e interazioni sociali. Data l’influenza esercitata dalle piattaforme, dobbiamo capire come stanno alimentando gravi rischi per la società come la diffusione di disinformazione, incitamento all’odio e violenza di genere, così come dobbiamo capire i rischi che rappresentano per la salute mentale e la stessa democrazia. Ma come possiamo farlo?

Fino a poco tempo fa, la nostra capacità di monitorare gli algoritmi dei social media dipendeva in gran parte dalle divulgazioni volontarie delle piattaforme, sotto forma di rapporti sulla trasparenza altamente curati o attraverso la condivisione di dati limitata (e spesso inaffidabile) con ricercatori selezionati. Ma c’è molto di più nella storia di quello che le piattaforme ci raccontano volentieri. Lo sappiamo grazie alle rivelazioni di giornalisti investigativi, ricercatori indipendenti e informatori, molti dei quali hanno lavorato a rischio personale considerevole.

I regolatori dell’UE hanno riconosciuto che non possiamo semplicemente fare affidamento sulla buona volontà delle piattaforme per essere trasparenti su come funzionano i loro sistemi algoritmici o per adottare misure appropriate per mitigare i rischi. Ora, hanno promesso una nuova era di controllo pubblico e responsabilità per queste piattaforme ai sensi del Digital Services Act (DSA).

Tra le altre cose, il DSA obbligherà le più grandi piattaforme come YouTube, TikTok e Facebook, a valutare e riferire formalmente su come i loro prodotti, compresi i sistemi di raccomandazione, possono esacerbare i rischi e ad adottare misure misurabili per prevenirli. Queste autovalutazioni non saranno semplicemente prese per fede: le piattaforme più grandi saranno anche costrette a condividere i propri dati interni con revisori indipendenti, autorità dell’UE e degli Stati membri, nonché ricercatori del mondo accademico e della società civile per fornire un ulteriore controllo.

Tuttavia, l’inchiostro si è appena asciugato sul DSA. C’è ancora molto lavoro da fare prima che diventi pienamente applicabile in tutta l’UE nel febbraio 2024.

Perché non possiamo aspettare che gli audit ufficiali ritengano responsabili le piattaforme

Nel frattempo, i rischi sociali che emergono dai social media non andranno in pausa in attesa di una verifica ufficiale. Ecco perché i ricercatori e le organizzazioni della società civile stanno conducendo i cosiddetti audit contraddittori per cercare di capire come i sistemi decisionali algoritmici stanno influenzando la società. Insieme alle organizzazioni partner, AlgorithmWatch attualmente conduce l’ indagine DataSkop sulla pagina “For You” di TikTok, in cui invitiamo gli utenti di TikTok a donare i propri dati in modo da poter comprendere meglio la logica di raccomandazione della piattaforma. Vogliamo sapere come e dove emergono tendenze e nicchie su TikTok e se vi sono indicazioni che la piattaforma stia diffondendo determinati contenuti nei feed degli utenti.

Tale progetto di donazione di dati può essere considerato come un tipo di audit contraddittorio esterno, in quanto non si basa sulla cooperazione delle piattaforme o sull’accesso ai loro dati interni per raccogliere informazioni su come funzionano i loro sistemi. I controlli in contraddittorio hanno dimostrato, ad esempio, che Instagram  ha spinto in modo sproporzionato contenuti politici di estrema destra  tramite il suo sistema di raccomandazione e che TikTok ha promosso contenuti in tempo di guerra  che sarebbero stati vietati  agli utenti in Russia.

Sebbene gli audit in contraddittorio da soli non possano catturare l’intera storia di come funzionano i sistemi di raccomandazione (possono, ad esempio, essere limitati a dati pubblicamente disponibili o soffrire di bias di selezione), hanno anche alcuni vantaggi nell’accesso regolamentato ai dati, come dare ai ricercatori maggiore flessibilità per riformulare le domande di ricerca dopo che i dati sono stati raccolti. E gli audit in contraddittorio forniscono uno dei pochi mezzi disponibili per verificare in modo indipendente se i dati e i rapporti di conformità forniti dalle grandi aziende tecnologiche sono accurati.

Gli audit in contraddittorio hanno una comprovata esperienza. Sono fondamentali per esporre i rischi sui social media, sensibilizzare l’opinione pubblica e fare pressione sulle piattaforme per apportare le modifiche necessarie per il bene dei loro utenti e del pubblico. Questo tipo di ricerca rimarrà un importante complemento all’accesso regolamentato ai dati nel DSA per esporre i rischi e deve essere protetto dato il  track record di ostilità delle piattaforme verso tale controllo esterno. In questo momento, un’ampia gamma di parti interessate, dalle autorità di regolamentazione e dall’industria al mondo accademico e alla società civile, è alle prese con questioni pratiche su come condurre efficacemente audit indipendenti delle piattaforme Big Tech nell’ambito del DSA, con la consapevolezza che, se lasciati incontrastati, le piattaforme stesse fisseranno i termini. Nel frattempo, i watchdog continueranno l’importante lavoro di condurre audit algoritmici delle piattaforme Big Tech. Abbiamo bisogno di maggiore trasparenza su tutti i fronti se vogliamo veramente ritenere le piattaforme responsabili dei rischi che i loro servizi rappresentano per la società.

Per saperne di più sulla nostra politica e attività di advocacy sul Digital Services Act .