Condividiamo da ETUI.ORG , L’Istituto di studi e ricerche sindacali della Confederazione dei Sindacati dei Lvoratori Europei questo articolo di cui è autrice Aude Cefaliello che ringraziamo. editor
Crediti fotografici: Tony Studio da Getty (Canva)
L’intelligenza artificiale (IA) continua a dominare il dibattito sociale e politico, con eventi recenti come il lancio del chatbot cinese DeepSeek, l’iniziativa statunitense Stargate e l’AI Summit di Parigi (10-11 febbraio 2025) che amplificano le preoccupazioni sul suo potenziale economico e sull’impatto sui diritti dei lavoratori. Sebbene l’IA prometta la creazione di posti di lavoro, presenta anche rischi significativi, in particolare per le donne e i settori lavorativi meno qualificati, innescando dibattiti urgenti sulla sua implementazione e regolamentazione.
I rischi dell’integrazione dell’IA sul posto di lavoro
Una delle principali preoccupazioni riguarda il modo in cui l’intelligenza artificiale viene integrata nei luoghi di lavoro, con implicazioni diverse a seconda del suo utilizzo. Quando l’intelligenza artificiale viene applicata per ottimizzare le linee di produzione, come strumento per i lavoratori o come metodo di sorveglianza e controllo dei lavoratori, si presentano rischi specifici per la salute e la sicurezza sul lavoro. L’introduzione di robot collaborativi basati sull’intelligenza artificiale (“co-bot”) , sebbene spesso promossa come strumento per supportare, proteggere e responsabilizzare i lavoratori, solleva preoccupazioni in merito a questioni ergonomiche e a un aumento del rischio di incidenti sul lavoro, soprattutto quando esseri umani e co-bot operano a stretto contatto . A differenza dei sistemi di produzione tradizionali progettati per ridurre al minimo il contatto uomo-macchina, i co-bot lavorano a stretto contatto con gli esseri umani. Incidenti passati, come un incidente industriale mortale avvenuto in Corea del Sud nel 2023 e un caso simile in uno stabilimento Volkswagen nel 2015, evidenziano i pericoli. Senza adeguate misure di sicurezza, i miglioramenti dell’efficienza guidati dall’intelligenza artificiale potrebbero andare a scapito della sicurezza dei lavoratori.
Quando l’IA viene utilizzata come strumento per i lavoratori, spesso viene concepita come un mezzo per alleviare i compiti ripetitivi, consentendo ai dipendenti di concentrarsi su attività di maggior valore. Tuttavia, questa prospettiva trascura problematiche cruciali. I nuovi obiettivi di produttività presuppongono un funzionamento impeccabile dell’IA, ma di fatto portano a un aumento del carico di lavoro e dello stress . L’ottimizzazione delle attività guidata dall’IA può anche creare un sovraccarico cognitivo eliminando i compiti più leggeri, il che aumenta lo stress mentale. L’idea che l’IA si limiti ad assistere i lavoratori anziché intensificare le loro mansioni rimane discutibile, soprattutto se le aspettative di produttività aumentano senza considerare il benessere dei lavoratori.
Gestione algoritmica
La gestione algoritmica, intesa come l’uso di software, inclusa l’intelligenza artificiale, per automatizzare completamente o parzialmente compiti tradizionalmente svolti da manager umani, è uno sviluppo che merita un’attenzione specifica dal punto di vista della SSL, data la crescente evidenza dei suoi effetti potenzialmente dannosi sulla salute (mentale) dei lavoratori. Questo tipo di tecnologia è già diffuso nella logistica e si prevede che si espanderà in altri settori. Sebbene non possa sostituire completamente i posti di lavoro, ne altera i ruoli aumentando la sorveglianza, riducendo l’autonomia dei lavoratori ed esacerbando i rischi esistenti.
Le recenti normative tentano di mitigare i rischi legati all’intelligenza artificiale
Sebbene esistano diverse disposizioni giuridiche che possono essere rilevanti per affrontare i rischi professionali creati dall’uso dell’IA sul luogo di lavoro, tra cui la Direttiva quadro 89/391/CEE in materia di salute e sicurezza sul lavoro (SSL), le Direttive sulle attrezzature e sui luoghi di lavoro dotati di videoterminali, la Direttiva sull’orario di lavoro, il Regolamento generale sulla protezione dei dati e la Direttiva Macchine, tali disposizioni costituiscono un panorama normativo frammentato e “non specifico”. In assenza di un quadro normativo completo in materia di salute e sicurezza sul lavoro specifico per l’IA, l’approccio attuale si basa sull’interpretazione e sulla combinazione delle misure esistenti per affrontare i rischi emergenti. La recente adozione dell’Artificial Intelligence Act e della Platform Work Directive rappresenta un progresso significativo, in particolare nel migliorare esplicitamente la trasparenza, la responsabilità e le tutele dei lavoratori soggetti a gestione algoritmica. Ciononostante, permangono importanti sfide, in particolare nel garantire un’attuazione coerente in tutti i settori e gli Stati membri e nel tenere il passo con la rapida evoluzione delle tecnologie di IA nel mondo del lavoro.
Direttiva sul lavoro tramite piattaforma
La direttiva UE sul lavoro tramite piattaforme affronta il ruolo dell’intelligenza artificiale nella gestione algoritmica, ma si applica solo a un settore limitato, ovvero le piattaforme.
Alle piattaforme è vietato utilizzare sistemi automatizzati di monitoraggio o di processo decisionale per trattare determinati tipi di dati personali, come informazioni sullo stato emotivo o psicologico dei lavoratori o sulle loro comunicazioni private con colleghi e rappresentanti. È inoltre vietato raccogliere dati quando i lavoratori non sono al lavoro.
Le piattaforme devono informare per iscritto i lavoratori e i loro rappresentanti sui sistemi automatizzati in uso, comprese le categorie di monitoraggio, i tipi di decisioni prese dalla tecnologia e le motivazioni alla base delle decisioni di limitare, sospendere o chiudere gli account o rifiutare i pagamenti. Le decisioni prese dai sistemi automatizzati richiedono la supervisione umana e i lavoratori devono avere il diritto di contestare tali decisioni. Le decisioni relative alla sospensione o alla chiusura degli account dei lavoratori devono essere prese da un essere umano, non da un algoritmo.
Inoltre, la Direttiva sul Lavoro prevede un intero articolo (12) dedicato alla salute e alla sicurezza dei lavoratori. In questo articolo, per la prima volta in un testo giuridico europeo, viene stabilito un collegamento tra la Direttiva Quadro 89/391/CEE, l’uso della gestione algoritmica e i rischi psicosociali. Ai sensi di questo articolo, le piattaforme (quando agiscono in qualità di datori di lavoro) devono valutare i rischi dei sistemi di monitoraggio automatizzati e dei sistemi decisionali automatizzati per la sicurezza e la salute dei lavoratori, in particolare per quanto riguarda i possibili rischi di infortuni sul lavoro, rischi psicosociali ed ergonomici. Sono previsti anche obblighi aggiuntivi in merito alle modalità di utilizzo (o non utilizzo) del software. Ad esempio, le piattaforme di lavoro digitali non dovrebbero utilizzare il monitoraggio o i processi decisionali automatizzati in modo da esercitare un’indebita pressione sui lavoratori della piattaforma o da mettere a rischio la loro sicurezza e la loro salute fisica e mentale. È anche la prima volta che la salute mentale è esplicitamente contemplata in un atto legislativo dell’UE in materia di SSL. Anche se non sufficiente, rappresenta un significativo passo avanti.
Legge sull’intelligenza artificiale
In modo più completo, l’AI Act, in vigore da febbraio 2025, introduce nuovi obblighi per i fornitori di sistemi di intelligenza artificiale e i datori di lavoro. L’AI Act classifica i sistemi di intelligenza artificiale in base ai loro potenziali rischi e all’impatto che possono avere sugli individui e sulla società, incluso il loro impatto sulla sicurezza e la salute dei lavoratori. I datori di lavoro devono garantire la formazione dei lavoratori in materia di intelligenza artificiale per accrescere la consapevolezza dei benefici e dei rischi dell’IA. L’AI Act vieta inoltre i software di IA che generano rischi inaccettabili, come il riconoscimento emotivo sul posto di lavoro, l’inferenza di dati biometrici sensibili o la valutazione dei dipendenti in base al comportamento. Tuttavia, l’IA può ancora essere utilizzata per valutare le condizioni fisiche per motivi medici o di sicurezza , come la videosorveglianza per gli autisti di camion e autobus . Inoltre, gli obblighi di trasparenza, monitoraggio e supervisione umana garantiscono che i datori di lavoro mitighino i rischi prevedibili legati all’IA.
Direttiva quadro sulla salute e sicurezza sul lavoro
La Direttiva quadro sulla salute e sicurezza sul lavoro (OSH) “consolidata” è rilevante anche per quanto riguarda la mitigazione dei rischi correlati all’IA sul luogo di lavoro. Ai sensi della Direttiva quadro sulla salute e sicurezza sul lavoro (OSH), i datori di lavoro sono tenuti a tutelare la salute dei lavoratori, incluso l’impatto dell’IA. Ciò richiede valutazioni approfondite dei rischi prima dell’implementazione dell’IA, la consultazione dei lavoratori e la protezione contro un’eccessiva intensificazione del lavoro. I datori di lavoro devono adattare i luoghi di lavoro per ridurre al minimo la monotonia e garantire che l’implementazione dell’IA non comporti condizioni di lavoro malsane.
Analizzando le diverse disposizioni legislative esistenti, emerge chiaramente come le misure normative consolidate ed emergenti possano rafforzare la capacità di responsabilizzare i lavoratori e i loro rappresentanti. In primo luogo, ogni volta che un software di intelligenza artificiale viene introdotto sul luogo di lavoro, classificato o meno come ad alto rischio, il datore di lavoro dovrebbe condurre una valutazione completa del rischio, valutando il suo potenziale impatto sul benessere fisico e psicologico dei lavoratori, sulla base delle disposizioni della Direttiva quadro sulla salute e sicurezza sul lavoro.
Inoltre, durante il processo di consultazione per la valutazione dei rischi professionali sul luogo di lavoro, ai lavoratori e ai loro rappresentanti dovrebbe essere concesso pieno accesso a tutte le informazioni pertinenti fornite ai datori di lavoro dai fornitori di software di IA. Dovrebbero inoltre essere pienamente informati sulle misure adottate dai datori di lavoro per adempiere ai propri obblighi ai sensi della legge sull’IA. Tuttavia, garantire questi diritti presuppone la consapevolezza fondamentale che, qualora l’IA rappresenti un potenziale rischio per i lavoratori, debbano essere adottate adeguate misure preventive. Ove necessario, l’implementazione dell’IA dovrebbe essere modificata o, in alcuni casi, completamente abbandonata.
Ci troviamo in una fase critica in cui è fondamentale ribadire che la salute e il benessere dei lavoratori non devono mai essere considerati danni collaterali nel perseguimento della crescita economica. Indipendentemente da quanto promettente o dirompente possa essere l’innovazione guidata dall’intelligenza artificiale, la tutela dei diritti dei lavoratori e della salute sul lavoro deve rimanere una priorità.
Per ricevere un aggiornamento mensile sulle novità in materia di SSL da tutta Europa, iscriviti alla newsletter HesaMail qui .