Il governo del Regno Unito non riesce a proteggere i lavoratori dall’essere sfruttati dalle tecnologie AI

Fonte: ETUI

Il 18 aprile 2023, il Trade Union Congress (TUC) ha avvertito che il governo del Regno Unito non riesce a proteggere i lavoratori dall’essere “sfruttati” dalle nuove tecnologie di intelligenza artificiale. L’avvertimento è arrivato quando politici, leader tecnologici, regolatori e sindacati si sono incontrati per la conferenza TUC AI a Londra.

Il comunicato stampa sottolinea

Le tecnologie basate sull’intelligenza artificiale stanno ora prendendo decisioni ad alto rischio e che cambiano la vita, comprese quelle relative all’assunzione, alla gestione e al licenziamento del personale. “L’intelligenza artificiale viene utilizzata per analizzare le espressioni facciali, il tono della voce e gli accenti per valutare l’idoneità dei candidati ai ruoli”. 

Inoltre, molti lavoratori vengono tenuti all’oscuro di come l’IA viene utilizzata per prendere decisioni che li riguardano direttamente. Un sondaggio condotto dal TUC lo scorso anno mostra che solo al 6% dei lavoratori era stato chiesto il consenso prima dell’uso di tecnologie di reclutamento e gestione basate sull’intelligenza artificiale, mentre solo il 5% ha affermato che si sarebbe fidato di tali tecnologie. Un altro sondaggio condotto da BritainThinks e commissionato da TUC nel 2020 ha approfondito aree specifiche in cui viene utilizzata l’intelligenza artificiale e ha evidenziato un forte sostegno dei lavoratori per una maggiore consultazione. Ad esempio,

Se non controllata, avverte il TUC, l’IA potrebbe portare a discriminazioni diffuse, intensificazione del lavoro e trattamento iniquo. Ma non è la prima volta che il TUC suona il campanello d’allarme. Il sindacato ha già ripetutamente sottolineato la necessità di una regolamentazione più forte per proteggere i lavoratori dai rischi di IA. “L’UE sta attualmente mettendo in atto leggi che si occupano specificamente dell’uso dell’intelligenza artificiale, mentre il Regno Unito non ha nulla di simile”, si legge in un altro comunicato stampa pubblicato lo scorso anno . Ancora “un altro esempio del Regno Unito che rimane indietro rispetto ai suoi omologhi dell’UE sui diritti dei lavoratori”.

Nel marzo 2023, il governo del Regno Unito ha presentato un white paper sull’IA che descrive un “quadro proporzionato, a prova di futuro e favorevole all’innovazione” per la regolamentazione dell’IA. La proposta è stata accolta con condanna dai sindacati, che l’hanno definita un “triste fallimento” fornendo solo vaghe indicazioni alle autorità di regolamentazione e nessuna capacità o risorse aggiuntive per far fronte all’aumento della domanda. “I ministri si rifiutano di introdurre i necessari guardrail per salvaguardare i diritti dei lavoratori”, ha affermato l’organismo sindacale.

Negli Stati Uniti, l’amministrazione Biden ha recentemente annunciato una serie di azioni  per affrontare i problemi di sicurezza e privacy. “L’intelligenza artificiale è una delle tecnologie più potenti del nostro tempo, ma per cogliere le opportunità che presenta, dobbiamo prima mitigarne i rischi”, ha affermato la Casa Bianca in una nota. Questo nuovo sforzo si basa sui precedenti tentativi dell’amministrazione Biden di promuovere una qualche forma di innovazione responsabile. Nell’ottobre 2022, l’amministrazione ha presentato un progetto per una “Carta dei diritti dell’IA” e un quadro per la gestione del rischio dell’IA. Più recentemente, ha spinto per una tabella di marcia sulla creazione di una risorsa nazionale per la ricerca sull’IA.

Tuttavia, queste misure non hanno alcun fondamento giuridico e, ad oggi, il Congresso non ha avanzato alcuna legge che possa tenere a freno l’IA. Reagendo a queste iniziative, il vicepresidente e illustre analista di Gartner Research Avivah Litan ha dichiarato: “Abbiamo bisogno di normative significative come quelle che vediamo essere sviluppate nell’UE con l’AI Act. Sebbene non stiano ottenendo tutto perfetto in una volta, almeno stanno andando avanti e sono disposti a ripetere. Le autorità di regolamentazione statunitensi devono intensificare il loro gioco e il loro ritmo’.

Nell’UE, i legislatori hanno finalizzato il testo dell'”AI Act” prima del voto nelle principali commissioni parlamentari dell’11 maggio 2023. L’AI Act è una proposta legislativa storica per regolamentare l’intelligenza artificiale in base al suo potenziale di causare danni. La proposta originale classificava i sistemi di IA in quattro categorie: proibiti, ad alto rischio, a basso rischio e a rischio minimo. Tuttavia, il recente successo di ChatGPT e di altri modelli generativi ha portato all’inclusione di una quinta categoria: sistemi di IA generici, con un regime più rigoroso che include un riepilogo obbligatorio dei dati di addestramento e multe più elevate in caso di violazione delle regole.

Sebbene l’AI Act sia spesso descritto come un buon esempio negli Stati Uniti e nel Regno Unito, è stato comunque pesantemente criticato tra gli accademici del diritto del lavoro per non aver preso in considerazione i diritti dei lavoratori. Allo stesso modo, la Confederazione europea dei sindacati ritiene che la legge sull’IA non sia adatta a regolamentare l’uso dell’IA negli ambienti di lavoro. “Una direttiva UE sui sistemi algoritmici sul posto di lavoro, basata sull’articolo 153 TFUE, dovrebbe definire standard minimi europei per la progettazione e l’uso di sistemi algoritmici nel contesto lavorativo”, ha affermato il Comitato esecutivo della CES in una risoluzione adottata il 6 dicembre 2022 .