Cosa aspettarsi dalla prima agenzia europea di supervisione dell’Intelligenza Artificiale

Postiamo la traduzione effettuata con translator google di questo articolo pubblicato dalla Fondazione Algorithmwatch. Per un uso professionale o di studio si raccomanda l’utilizzo del testo in lingua originale.
La Spagna ha annunciato la prima agenzia nazionale per la supervisione dell’Intelligenza Artificiale. Nella sua forma attuale, il piano è molto favorevole all’industria e lascia poco spazio alla società civile.

CC-DI NOEL | FEANS

La Spagna vuole essere all’avanguardia nella regolamentazione dell’Intelligenza Artificiale in Europa. “Non vogliamo essere testimoni ma protagonisti dei grandi cambiamenti digitali”, ha dichiarato in una recente intervista Carme Artigas, segretario di stato del governo spagnolo per la digitalizzazione e figura chiave in queste aspirazioni . Nei prossimi mesi, grazie anche al suo impegno, aprirà la prima agenzia nazionale del continente creata per supervisionare e controllare queste tecnologie con l’acronimo AESIA (che sta per Agencia Española de Supervisión de la Inteligencia Artificial ).

L’AI Act, un prossimo regolamento europeo attualmente in fase di negoziazione, richiederà molto probabilmente agli Stati membri di designare le autorità nazionali per monitorare la conformità. Sebbene la maggior parte dei paesi non abbia ancora spiegato come lo faranno, la Spagna ha già affermato che creerà un’entità indipendente dal governo, incaricata di supervisionare gli algoritmi del settore pubblico e privato.

La capacità di AESIA di porre il veto e sanzionare l’uso di sistemi potenzialmente dannosi sarà strettamente legata alla versione finale dell’IA Act che sarà approvata a Bruxelles. Le risorse disponibili e il funzionamento interno dell’agenzia sono attualmente oggetto di discussione all’interno del governo spagnolo. Ma la documentazione ufficiale e le fonti consultate da AlgorithmWatch per questo articolo permettono di abbozzare quelle che saranno le linee principali dell’agenzia.

Testare gli standard europei

La scorsa estate, Carme Artigas e Thierry Breton, commissario europeo per il mercato interno e i servizi, hanno presentato un “sandbox normativo” per le aziende spagnole per testare il nuovo regolamento.

L’obiettivo del governo spagnolo con questa sandbox è, da un lato, identificare le “buone pratiche” tra le aziende su come implementare il regolamento europeo. Questi saranno inclusi in una guida che la Spagna dovrebbe presentare durante la sua presidenza del Consiglio europeo nella seconda metà del 2023. D’altra parte, la sandbox aiuterà a definire come funzionerà AESIA e quale sarà il suo rapporto con gli operatori spagnoli di Intelligenza Artificiale Essere. È quanto emerge da un bando pubblico pubblicato a dicembre e dalle spiegazioni offerte dal governo ad AlgorithmWatch.

“Ribalta la logica normativa. Normalmente si sviluppa e si scrive la legge e si osservano le conseguenze. E in base a ciò si possono apportare le modifiche legali pertinenti. In questo caso, è il contrario: le società con sistemi più avanzati I sistemi di intelligenza artificiale partecipano e vedono i casi d’uso e dove può verificarsi la discriminazione. Sulla base di ciò, cercheremo di ridurre al minimo i pregiudizi dei sistemi “, afferma Carlos Ruiz de Toledo, consulente legale dell’ufficio di Artigas, in una videochiamata.

Nei mesi scorsi un provider esterno al governo – costituito dalla società di consulenza Deloitte e dall’associazione OdiseIA – ha redatto diverse guide e manuali per spiegare in modo pratico alle aziende come attuare i requisiti del regolamento. Queste guide includono autovalutazioni di conformità e liste di controllo e si concentrano sui casi d’uso considerati ad alto rischio dall’AI Act.

Tra marzo e aprile 2023 (cinque mesi in ritardo rispetto a quanto inizialmente previsto) la sandbox sarà aperta alle aziende che vorranno partecipare su base volontaria, spiega Miguel Valle del Olmo, vicedirettore generale per l’IA presso il ministero degli affari economici e della trasformazione digitale per e-mail.

Sigillo nazionale e l’automazione del monitoraggio

Il bando pubblico pubblicato a dicembre descrive in dettaglio i piani del governo per i primi passi dell’agenzia. L’impresa aggiudicataria dell’appalto (diviso in due lotti) dovrà, tra le altre funzioni, aggiornare e redigere le linee guida finali del sandbox ma anche “definire i processi interni” per il funzionamento dell’agenzia e i profili professionali necessari per la sua attuazione.

Tra questi piani c’è la creazione di un “sigillo nazionale AI”. In altre parole, un certificato che accredita che i sistemi distribuiti nel Paese soddisfano i requisiti richiesti dall’Europa. Questo sigillo, però, sarà volontario, almeno fino all’entrata in vigore del regolamento europeo. Il governo non è chiaro su come incoraggerà le imprese a sottoporsi a questo riconoscimento, ma accenna alla possibilità di legare a questo sigillo di qualità l’accesso ai finanziamenti europei per le imprese.

Anche Artigas, il segretario di stato, prevede di automatizzare il più possibile il lavoro di monitoraggio dell’agenzia. A tal fine, è stato commissionato lo sviluppo di uno strumento basato sul web che sarà accessibile sia al personale dell’agenzia che alle aziende che utilizzano sistemi di intelligenza artificiale ad alto rischio.

Le aziende saranno in grado di autovalutare se i loro sistemi sono conformi al regolamento, nonché monitorare la loro conformità una volta che sono stati implementati sul mercato. Lo strumento, secondo la documentazione ufficiale consultata, includerà un’analisi del codice e dei dataset dei sistemi.

Secondo Amparo Alonso Betanzos, membro di questo consiglio e ricercatore di intelligenza artificiale, all’interno del comitato consultivo sull’IA del governo, negli ultimi mesi si è discusso internamente della parziale automazione degli audit degli algoritmi. Lei, come altri, riconosce i limiti di un’analisi automatizzata per misurare il potenziale impatto dannoso di un algoritmo. “L’automazione di certe cose è piuttosto complessa. Ci saranno parti che possono essere misurate automaticamente: i dati raccolti, le variabili utilizzate, ecc. Ma, ad esempio, l’interfaccia con gli esseri umani è più complicata”, afferma.

Risorse dell’Agenzia

Come ogni agenzia pubblica di nuova creazione, AESIA ha bisogno di risorse finanziarie e umane sufficienti per iniziare a operare. La sua dotazione di bilancio è precisamente il principale oggetto di contesa tra il dipartimento di Carme Artigas e altri ministeri del governo spagnolo.

Inizialmente, è stato riferito che l’agenzia avrebbe a disposizione 5 milioni di euro. Ruiz de Toledo assicura che la loro intenzione è di aumentare questo budget prima che venga lanciato, ma chiarisce che ciò dipenderà dall’approvazione del Ministero delle Finanze. Precisa che una delle opzioni per aumentare le risorse è che le future sanzioni economiche dell’agenzia nei confronti di imprese o amministrazioni vadano a confluire nel proprio bilancio.

Gran parte del denaro finalmente stanziato andrà a pagare gli stipendi del personale dell’agenzia. In autunno il governo ha stimato un organico di 40 lavoratori, tutti funzionari statali con profili tecnici, amministrativi e legali. L’assenza di altri profili ha sollevato sospetti tra ricercatori e sostenitori della giustizia algoritmica.

“Senza profili umanisti o sociali in questo staff, come osserverai l’impatto sociale dei sistemi di intelligenza artificiale?” chiede Judith Membrives, un’attivista per i diritti digitali. Ruiz De Toledo non esclude la possibilità di aprire l’organico a professionisti o collaboratori esterni nei prossimi mesi, pur riconoscendo le difficoltà nel giustificarne l’inserimento in un ente pubblico come questo.

Le risorse finanziarie e umane di AESIA, fondamentali per definire la sua reale capacità di supervisione, saranno inserite in statuti interni che dovrebbero essere pronti prima dell’estate. La previsione più ottimistica del team di Artigas è di disporre di tutta la documentazione entro giugno e dare al governo il tempo di elaborare le leggi pertinenti in estate. Pertanto, se nulla va storto, l’agenzia sarà operativa il prossimo autunno.

Ufficialmente, il governo ha finora annunciato solo che la sede fisica dell’agenzia sarà nella città galiziana di A Coruña (nella foto sopra), dopo una controversa competizione tra diversi candidati.

Impatto sociale dell’IA

Resta da vedere se le prossime normative europee e le agenzie di vigilanza nazionali saranno in grado di rilevare (e prevenire) l’impatto sociale negativo dei sistemi di IA.

Già nel 2020, il governo spagnolo ha incluso nella sua strategia nazionale di IA la creazione di un osservatorio pubblico dell’impatto sociale algoritmico. Più di due anni dopo, non si sa nulla di questa entità. Ora, sotto l’ombrello dei nuovi regolamenti europei, Madrid propone un piano teoricamente più ambizioso per proteggere i cittadini dagli effetti dannosi di queste tecnologie.

Nei bandi pubblicati, il governo prevede la creazione di un “piano nazionale per la protezione dei gruppi vulnerabili di IA” con diverse azioni. Questi includono uno studio delle implicazioni e dei rischi dell’IA per gruppi e aree e la stesura di manuali di buone pratiche per i sistemi di AI nelle pubbliche amministrazioni – che dovrebbero essere applicati agli algoritmi che sono stati utilizzati in Spagna per anni, come RisCanvi , Veripol e Viogen .

Precisa inoltre la creazione di un “laboratorio di osservazione dei rischi” che effettuerà “audit informali” sui sistemi considerati ad alto rischio. Questo piano di lavoro sarà realizzato da società esterne e dal team Artigas, afferma Miguel Valle del Olmo. E i suoi risultati saranno consegnati ad AESIA una volta che l’agenzia inizierà a lavorare.

Il ruolo della società civile

Questi piani sulla carta contrastano con il ruolo che il governo spagnolo sta finora lasciando alla società civile nella progettazione e costruzione dell’agenzia. La Spagna ha assistito negli ultimi anni a una proliferazione di entità che difendono i diritti umani nella sfera digitale e dell’intelligenza artificiale.

È il caso della Fundación Civio, che ha citato in giudizio il governo per un software utilizzato per l’assegnazione di un sussidio ; il collettivo Algorights ; e l’ Observatorio de Trabajo, Algoritmo y Sociedad (TAS) , che difende i diritti dei lavoratori delle piattaforme.

Queste e più di cinquanta altre organizzazioni sociali hanno chiesto in una lettera pubblica al governo lo scorso settembre di partecipare alla progettazione e alla strategia della nuova agenzia di vigilanza. Alcune settimane dopo, Carme Artigas e il suo team hanno ricevuto diversi rappresentanti per ascoltare le loro richieste.

Diversi partecipanti a questo incontro sottolineano che, al di là delle belle parole, Artigas ha respinto la loro inclusione nel processo di progettazione dell’agenzia. Infatti, quattro mesi dopo questo incontro, il governo non li ha più contattati, può confermare AlgorithmWatch.

Albert Sabater, ricercatore e direttore dell’Osservatorio di etica nell’IA in Catalogna (OEIAC), chiede la necessità di aumentare il peso della società civile in questo tipo di processo. “I cittadini non solo prenderanno posizione quando c’è qualcosa che non va [con l’IA]. Vogliono essere ascoltati in modo che questi sistemi siano progettati in modo tale che, oltre alla parte più meccanica, il loro impatto sulla società sia anche preso in considerazione”. “Stiamo assistendo a un processo dirompente in cui devono essere coinvolti molti più attori, su questo non ci sono dubbi, altrimenti sarà troppo tardi”, aggiunge.

Un altro elemento sorprendente di questo progetto è il modo in cui la progettazione e lo sviluppo di molti dei piani e delle azioni della futura agenzia vengono appaltati esternamente. David Cabo, condirettore della Fondazione Civio, ipotizza che il governo si stia affrettando a rispettare le scadenze e stia cercando di far funzionare l’agenzia quest’anno.

“Il design dell’agenzia dovrebbe essere nelle mani del pubblico. Se vuoi che l’agenzia accumuli conoscenze per tenere d’occhio gli altri, se inizi a fare gare d’appalto invece di assumere dipendenti pubblici, quella conoscenza non rimarrà all’interno dell’agenzia”, ​​ha affermato. avverte.

Modificato il 2 febbraio per correggere il nome di Amparo Alonso Betanz