23 Maggio 2025
Immagine creata per noi con Bing Creator
***
Fonte : AlgorithmWatch che ringraziamo 

AlgorithmWatch ha inviato un contributo di esperti all’UE sui rischi sistemici derivanti da piattaforme online e motori di ricerca. Abbiamo sostenuto che i rischi non derivano solo dalla tecnologia, ma anche (1) dagli atteggiamenti delle aziende e (2) dalla mancanza di trasparenza in merito all’applicazione delle norme. Questo contributo è stato fornito su invito dell’European Board of Digital Services e della Commissione UE, per aiutare a preparare il loro primo rapporto sui rischi sistemici ai sensi del Digital Services Act. Leggi la nostra risposta completa qui:

La nostra ricerca

AlgorithmWatch ha condotto ricerche sui rischi derivanti da Large Language Models , piattaforme di social media e misure di mitigazione non conformi agli standard delle aziende tecnologiche. Abbiamo anche collaborato con i ricercatori per segnalare come affrontano i rischi sistemici ai sensi del DSA. Questo si aggiunge al nostro lavoro sulla politica DSA riguardante l’accesso ai dati , le linee guida elettorali e il coinvolgimento degli stakeholder .

Per quanto riguarda il nostro lavoro sui Large Language Model (LLM), desideriamo in particolare segnalare che (i) questi strumenti vengono sempre più integrati in funzionalità rilevanti per la DSA, in particolare come “riepiloghi generati dall’IA” nei motori di ricerca e (ii) la nostra ricerca ha incontrato barriere sostanziali all’accesso a dati realistici su larga scala dai chatbot. Sollecitiamo un’ulteriore considerazione su come gli LLM possano essere affrontati nel quadro della DSA, inclusi i rischi derivanti da “uso normale” e oltre gli usi dannosi da parte di cattivi attori.

Più in generale, continuiamo a temere che molti rischi sistemici derivino fondamentalmente dalle priorità e dalle pratiche organizzative interne delle grandi aziende tecnologiche. Il recente impegno con i rappresentanti di alcuni VLOP e VLOSE ha suggerito, in linea con le dichiarazioni di alcuni CEO, una crescente riluttanza ad andare oltre ciò che i VLOP e i VLOSE interpretano come conformità di base con il DSA (o addirittura a conformarsi del tutto).

È fondamentale chiarire gli obiettivi di base ampiamente condivisi del DSA, per garantire uno spazio online responsabile in cui i rischi per la società e i diritti fondamentali siano identificati e ridotti al minimo, e l’importanza della trasparenza e delle opportunità per un autentico controllo esterno delle piattaforme e dei motori di ricerca. Ulteriori indicazioni per le aziende e altre parti interessate dalla Commissione europea potrebbero aiutare a garantire un migliore raggiungimento di questi obiettivi, anche se rischiano di creare un “minimo indispensabile” a cui le aziende possono mirare in termini di conformità.

Utilizzo della ricerca nel DSA

Accogliamo con favore il fatto che la Commissione stia invitando a fornire contributi in modo chiaro e aperto. Ciò continua un modello che alcuni di noi hanno sperimentato, di membri della Commissione che si impegnano proattivamente con individui e organizzazioni per cercare prove. Abbiamo ascoltato numerosi esempi di funzionari EUCOM che si sono impegnati con ricerche pubblicate, tra cui lavori accademici appena pubblicati, e che hanno contattato i loro autori. Accogliamo inoltre con favore il fatto che il concetto di “rischi sistemici” e la relativa raccolta di prove siano mantenuti ampi, consentendo così a una serie di ricercatori (accademici, organizzazioni della società civile, giornalisti e altri) di apportare una serie di prospettive pertinenti, tra cui minacce emergenti che potrebbero non adattarsi facilmente ai quadri esistenti.  Questa ampiezza deve essere mantenuta nella futura attuazione del DSA , anche nel modo in cui vengono interpretate le richieste dell’articolo 40, al fine di garantire che la ricerca possa corrispondere a rischi diversi e potenzialmente inaspettati. 

Tuttavia, come abbiamo proposto nella nostra proposta in corso di un approccio “Dual Track” ai rischi sistemici ( qui in breve sintesi politica , e qui una discussione più lunga prodotta da colleghi accademici ), è importante che l’ampiezza del concetto di “rischio sistemico” sia bilanciata da procedure chiare e trasparenti su come questa ricerca alimenta l’azione di contrasto. Le attuali fonti per comprendere ciò consistono in gran parte in comunicati stampa; occasionali grandi tavole rotonde (che non consentono facilmente il dialogo); e un coinvolgimento ad hoc che può essere più dialogico ma è spesso limitato in chi può partecipare. Sebbene questi abbiano il loro posto, da soli, questi approcci non costituiscono modi trasparenti ed efficaci per coinvolgere i ricercatori. 

In un recente workshop sulla DSA e la ricerca, con la partecipazione di molti ricercatori accademici, siamo rimasti colpiti dal fatto che molti ricercatori che svolgono un lavoro pertinente non sanno come coinvolgere efficacemente la Commissione. Non è chiaro, ad esempio, quanti ricercatori accademici abbiano ricevuto questa richiesta di contributo. Vorremmo in particolare indicare gli accademici che stanno conducendo revisioni sistematiche, come Philipp Lorenz-Spreen sulla polarizzazione . Tale lavoro di revisione sistematica è un esempio di attività che gli accademici possono condurre laddove le OSC sono nella posizione migliore per evidenziare e identificare rischi specifici, anche per gruppi particolari.

Al contrario, molte OSC si sentono più in grado di presentare prove alla Commissione, ma non hanno chiaro in che modo ciò contribuisca all’applicazione delle norme. C’è il rischio che i ricercatori esterni si concentrino eccessivamente su argomenti chiaramente salienti come i social media durante le elezioni. Ciò potrebbe non cogliere le lacune della ricerca nell’attuale base di conoscenze della Commissione. È importante notare che ciò potrebbe includere lacune di cui la Commissione stessa potrebbe non essere a conoscenza, che non possono essere affrontate dalla Commissione dichiarando le proprie preferenze per gli argomenti.   

Esistono varie tecniche che possono essere impiegate per cercare un coinvolgimento in modi diversi. Queste potrebbero includere un coinvolgimento specifico e di grande attualità che consenta dialoghi tra la Commissione e i ricercatori e in cui il processo di partecipazione sia trasparente. La verifica dei ricercatori potrebbe essere utilizzata per i dialoghi che coinvolgono informazioni che la Commissione non desidera rendere pubbliche e/o per garantire partecipanti altamente pertinenti. Potrebbero esserci bandi aperti per singoli esperti, nel modo visto per l’EU AI Act . Esiste una ricerca esistente su come coinvolgere gli esperti e impostare una condivisione di competenze dialogica, che potrebbe essere utilizzata per sviluppare formati di coinvolgimento.  

Ci sono, naturalmente, dei rischi per l’eccessiva trasparenza. Ma le circostanze attuali lasciano i ricercatori poco chiari su come (e se) dovremmo pianificare o condurre il lavoro in modi che possano supportare il DSA; e a disagio per la mancanza di comprensione di come il nostro lavoro si inserisca in un corpus più ampio di prove che possono essere utilizzate per l’applicazione. In definitiva, l’obiettivo deve essere, come suggerisce questa richiesta di contributo, quello di attingere a una vasta e diversificata gamma di prove per informare la comprensione dei rischi sistemici e delle mitigazioni. Se supportato da un processo più chiaro e trasparente per comprendere come le prove vengono utilizzate nell’applicazione, ciò dimostrerebbe fortemente il contributo legittimo e positivo del DSA nel supportare un ambiente online migliore per tutti i cittadini dell’UE.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *