L’approccio europeo alla regolamentazione dell’IA: comprendere la grande tecnologia e gli estremisti della sicurezza

Fonte Algorithmwatch che ringraziamo 

[ la traduzione è automatica tramite google, per un uso di studio o di ricerca raccomandiamo di fare riferimento al testo originale ]

L’Europa sta per adottare due importanti regolamenti sull’intelligenza artificiale: la legge sull’intelligenza artificiale dell’UE e la convenzione sull’intelligenza artificiale del Consiglio d’Europa. Tuttavia, sebbene entrambi i regolamenti fossero inizialmente pensati per ribaltare la situazione sulla Big Tech e per proteggere efficacemente le persone dall’abuso della tecnologia IA da parte dei governi, gli interessi delle aziende tecnologiche e dei sostenitori della sicurezza dei governi potrebbero prevalere.

Nel comitato sull’intelligenza artificiale del Consiglio d’Europa che si riunisce questa settimana a Strasburgo, i negoziatori discutono le opzioni che consentirebbero agli Stati di limitare l’applicabilità del trattato sull’intelligenza artificiale alle autorità pubbliche e di mantenere le società private ampiamente fuori dal campo di applicazione. Nell’UE, l’accordo di compromesso sulla legge sull’AI lascerebbe molte persone in situazioni vulnerabili senza una protezione affidabile contro la sorveglianza e il controllo del governo, esentando allo stesso tempo le aziende da una serie di doveri.

Open AI, Google/Alphabet, Microsoft, Amazon, Meta: questi sono i nomi che beneficiano del grande clamore attorno all’intelligenza artificiale innescato nel novembre 2022, con il rilascio di ChatGPT. Solo poco dopo, questi sono stati anche i nomi dietro le forti richieste di una regolamentazione dell’IA, cioè di norme legali su come questa tecnologia viene sviluppata e utilizzata. Le Big Tech e i loro alleati tendono a spiegare le loro richieste di norme legali sull’intelligenza artificiale indicando scenari futuri non realistici, come ad esempio che l’intelligenza artificiale potrebbe un giorno assumere il controllo sull’umanità.

La Convenzione di Strasburgo sull’IA che mira a proteggere i diritti umani

Sebbene questa argomentazione – gli sviluppatori di intelligenza artificiale che chiedono il controllo del governo sullo sviluppo e sull’uso dell’intelligenza artificiale – possa sembrare sconcertante all’inizio, ora potrebbe rivelarsi una strategia intelligente che alla fine si rivela vincente: il Consiglio d’Europa – l’organizzazione internazionale che ospita la Convenzione europea dei diritti dell’uomo a Strasburgo – sta per concludere una Convenzione sull’IA che mira a proteggere i diritti umani, la democrazia e lo stato di diritto, con una sessione finale di negoziati prevista per metà marzo . E come rivela il progetto di convenzione pubblicato : è sul punto di concordare un trattato internazionale che regoli l’intelligenza artificiale, ma che darebbe agli stati un ampio margine di manovra per ritagliare esenzioni per lo sviluppo e l’uso dell’intelligenza artificiale da parte delle aziende tecnologiche.

Tenete presente che tra le parti negoziali ci sono anche stati che non sono membri del Consiglio d’Europa, compresi gli Stati Uniti – sede della maggior parte delle grandi aziende tecnologiche mondiali e con un noto interesse a non interferire con la Silicon Valley.

«Se la regolamentazione dell’IA non ci protegge in modo affidabile dai rischi e dai danni che lo sviluppo e l’uso dell’IA da parte di aziende private possono comportare, allora si apre un assegno in bianco per le Big Tech. Non è questa la tutela effettiva dei nostri diritti»

Angela Müller, responsabile policy e advocacy presso AlgorithmWatch

In una lettera aperta pubblicata oggi, insieme a più di 30 organizzazioni della società civile, AlgorithmWatch invita gli Stati negoziatori a garantire che le aziende tecnologiche non restino incontrollate.

Intanto a Bruxelles l’AI Act dell’Ue

La legge dell’Unione Europea per regolamentare l’IA – la cosiddetta legge sull’intelligenza artificiale – è già un passo avanti: è stata concordata a porte chiuse e la sua adozione sembra solo una questione di approvazione formale. Sebbene si discosti dalla Convenzione sull’AI in quanto, in linea di principio, si applica sia al settore pubblico che a quello privato, i negoziatori dell’AI Act hanno anche scelto di includere una serie di scappatoie per le aziende tecnologiche . Importanti disposizioni e vittorie della società civile nella legge sull’IA – come l’obbligo di condurre una valutazione d’impatto sui diritti fondamentali prima di implementare un’intelligenza artificiale ad alto rischio e di registrare tali implementazioni in un database pubblico – non si applicano alle aziende private. Inoltre, i fornitori di sistemi di IA potrebbero sfuggire al nocciolo della legge sull’IA – vale a dire i requisiti sui sistemi di IA ad alto rischio – semplicemente dichiarando che i loro sistemi svolgono solo compiti preparatori o procedurali ristretti.

L’AI Act contiene garanzie contro i danni e l’uso improprio dei sistemi di IA che sono abbastanza importanti da non essere sacrificati. Tuttavia, in entrambi i processi normativi si è riscontrata una tendenza:

«Le dichiarazioni audaci volte a tenere sotto stretto controllo le Big Tech tendono a dissolversi nel corso dei negoziati politici. Molto probabilmente, ciò è dovuto anche ai milioni di euro che le Big Tech spendono per esercitare pressioni sui decisori»

Matthias Spielkamp, ​​direttore esecutivo di AlgorithmWatch

I diritti umani hanno perso terreno

Sotto un altro aspetto, la Convenzione sull’intelligenza artificiale del Consiglio d’Europa e la legge sull’intelligenza artificiale dell’UE sono molto più chiaramente allineati: entrambi i regolamenti probabilmente garantiranno che tutto ciò che viene fatto con l’aiuto dell’intelligenza artificiale sotto l’egida della “sicurezza nazionale” possa continuare a volare sotto il controllo dell’intelligenza artificiale. radar – semplicemente non si applicheranno a tali sistemi.

«Non solo le aziende private, ma anche i difensori della sicurezza dei governi hanno esercitato pressioni sui loro interessi nelle norme europee sull’IA. Alla luce dei molti modi in cui i sistemi di intelligenza artificiale possono essere utilizzati per influenzare e violare i nostri diritti e gli interessi delle nostre società – per curare le notizie che vediamo online o gli annunci che ci vengono mostrati, per selezionare i candidati a un posto di lavoro, per monitorare i migranti o per determinare la presenza delle forze di polizia in determinate aree – questo è semplicemente inaccettabile»

Kilian Vieth-Ditlmann , vice responsabile del team per le politiche e il patrocinio presso AlgorithmWatch

Piccola finestra a sinistra

Anche se la legge sull’intelligenza artificiale è già in fase avanzata, ai politici di Strasburgo resta ancora un piccolo margine per correggere queste carenze e riportare i diritti fondamentali al centro della governance europea dell’IA – e in particolare, per mettere al centro il mandato La Convenzione si basa e si limita a: proteggere i diritti umani, la democrazia e lo stato di diritto.