15 Maggio 2025

Ringraziamo per davvero   Rory O’Neill per questo articolo e per l’importante che svolge con la pubblicazione di Hazards 

Fonte HAZARDS 

 

C’è un vocabolario completamente nuovo in gioco. Gestione algoritmica, processo decisionale automatizzato (ADM), lavoro su piattaforma o “gig working”, robotica, intelligenza artificiale (IA), realtà estesa, esoscheletri.

Con la tecnologia è nata una miriade di lavori e modalità di lavoro che non esistevano molto tempo fa: autisti e fattorini per le consegne controllati tramite app, annotatori di dati, moderatori di contenuti, analisti di big data, addetti alla selezione in magazzino e ingegneri di apprendimento automatico.

E tutto questo viene presentato come una forza tecnologica per il bene comune, un dividendo tecnologico elevato che offre ai lavoratori maggiore flessibilità su quando, dove e per chi lavorare, eliminando dai lavori la noia che distrugge l’anima e il lavoro duro che distrugge il corpo e rovina vite, e lasciando che siano le macchine, e non i lavoratori, ad affrontare rischi mortali dovuti a disastri, sostanze chimiche pericolose e radiazioni. Ma per chi svolge questi lavori, il quadro non è sempre così roseo.

Non si tratta necessariamente di lavori nuovi, puliti e appaganti. Possono presentare tutti i rischi dei vecchi lavori, a cui si aggiungono una serie di problemi che comportano le nuove umiliazioni delle nuove tecnologie.

I membri del GMB nel Regno Unito hanno proclamato ” non siamo robot” , poiché Amazon utilizzava algoritmi per stabilire i ritmi di lavoro e i lavoratori con prestazioni insufficienti, destinati alla disoccupazione, nell’ambito del suo modello di “alto tasso di abbandono”. La battuta sui robot ha toccato il cuore del pubblico ed è stata ripresa dai sindacati Amazon di tutta Europa.

Si trattava di una gestione disumanizzante in tutti i sensi.

Oggi puoi essere reclutato da una macchina. Supervisionato e disciplinato da una macchina. E infine licenziato o sostituito da una macchina.

Le grandi aziende tecnologiche dominano

Si tratta di un pericolo che alcuni ritengono venga ignorato mentre il governo del Regno Unito insegue l’oro nella tecnologia.

Quando il 13 gennaio 2025 Sir Keir Starmer annunciò la sua strategia per fare della Gran Bretagna una “superpotenza” dell’intelligenza artificiale, i sindacati e gli esperti di diritti dei lavoratori avvertirono che la Gran Bretagna rischiava una “corsa al ribasso per i lavoratori” se non avesse avuto voce in capitolo su come la tecnologia veniva utilizzata sul posto di lavoro.

Annunciando il suo “progetto per dare una spinta all’intelligenza artificiale”, Starmer ha citato esempi di come l’intelligenza artificiale possa aiutare gli insegnanti a pianificare le lezioni, ridurre i tempi di attesa per il Servizio Sanitario Nazionale e persino “individuare le buche più velocemente”.
Ma il primo ministro ha suscitato timori per i diritti dei lavoratori, aggiungendo: “In materia di regolamentazione, saremo a favore della crescita e dell’innovazione”, insistendo sul fatto che i cambiamenti contribuiranno a rivoluzionare i servizi pubblici scricchiolanti e a risollevare l’industria e, con essa, l’inerte economia britannica.

Si tratta di un approccio che ha assunto un’importanza sempre maggiore nel marzo 2025, quando ha promesso di “eliminare” la burocrazia e di mettere a tacere gli organismi di controllo, tra cui l’Health and Safety Executive (vedi: Stato dell’organismo di controllo ).

“L’intelligenza artificiale non è qualcosa di relegato dietro i muri delle grandi aziende; è una forza di cambiamento che trasformerà in meglio la vita dei lavoratori”, ha affermato Starmer mentre spiegava con insistenza il suo piano per l’intelligenza artificiale.

James Harrison, direttore dell’Institute for Employment Rights, ha avvertito che “senza adeguate tutele per i lavoratori, ciò potrebbe portare a una corsa al ribasso per i lavoratori.

Starmer ha parlato dell’intelligenza artificiale “al servizio dei lavoratori”, ma non ha citato esempi in cui ciò avviene senza intaccare retribuzione, termini e condizioni, violare la privacy, danneggiare la salute e la sicurezza e intensificare il lavoro, cosa che la nostra ricerca ha evidenziato accadere con troppa regolarità quando a queste tecnologie viene data carta bianca.

LAVORO INFERMIERISTICO A ROTOLI  L’ipotesi che i lavoratori a cottimo siano per lo più impegnati a trasportare pacchi o pizze non è più valida, e i lavoratori dell’assistenza sono ora tra coloro che si trovano in prima linea nello sfruttamento gestito dalle app .

Sharon Graham, segretaria generale di Unite, ha affermato: “Il Regno Unito deve adottare le nuove tecnologie, ma abbiamo anche bisogno di adeguate protezioni dalle insidie ​​dell’intelligenza artificiale e i lavoratori devono avere voce in capitolo su come ciò avviene.

“Nutriamo inoltre serie preoccupazioni su questioni quali la sorveglianza basata sull’intelligenza artificiale e la discriminazione tramite algoritmi, in particolare per quanto riguarda decisioni “ad alto rischio” come il reclutamento, la valutazione delle prestazioni e la disciplina.

“L’introduzione dell’intelligenza artificiale sul posto di lavoro deve essere qualcosa che avviene con i lavoratori e non ai lavoratori.”

Pochi lavori sono immuni dalla gestione algoritmica e dall’intelligenza artificiale (IA).
Un tempo, ai conducenti delle consegne veniva assegnato il lavoro direttamente nella banchina di carico, ora gli incarichi vengono assegnati direttamente al loro telefono, con il GPS che ne traccia gli spostamenti.

Nel settore manifatturiero, i robot collaborativi basati sull’intelligenza artificiale (cobot ) lavorano a fianco degli esseri umani in ambienti di lavoro che vanno dalle officine meccaniche ai magazzini. In medicina, l’intelligenza artificiale guida un chirurgo nella diagnosi di tessuti o escrescenze sospette, migliorando, accelerando e automatizzando la diagnosi.

Qualunque sia il tuo lavoro, l’intelligenza artificiale e la gestione algoritmica possono avere anche un’altra funzione, meno edificante : aiutare i datori di lavoro a controllare ogni tuo movimento sul lavoro, dalla tua posizione, al sorriso sul tuo viso , al mal di schiena . Questo significa che è un grosso problema per i lavoratori e un grosso problema per i sindacati.

Richiesta di precauzione

Alcuni governi stanno prendendo in considerazione un approccio più misurato e incentrato sulla sicurezza per affrontare questi rischi.

Ad esempio, un rapporto dell’11 febbraio 2025 di un’indagine australiana sulla trasformazione digitale del lavoro raccomanda che i sistemi di intelligenza artificiale e di processo decisionale automatizzato (ADM) utilizzati per scopi lavorativi siano classificati come soggetti ad “alto rischio” di “microgestione estrema” e altri problemi psicosociali.

La relazione ufficiale del comitato permanente aggiunge che gli usi “ad alto rischio” dovrebbero essere soggetti a “limiti di sicurezza” obbligatori e che i datori di lavoro dovrebbero attenersi a un nuovo codice di buone pratiche in materia di salute e sicurezza sul posto di lavoro.

Il rapporto Future of Work raccomanda al governo di collaborare con l’ente regolatore della sicurezza sul lavoro per elaborare un codice ufficiale che “identifichi e affronti specifici rischi per la salute e la sicurezza sul lavoro associati all’intelligenza artificiale e all’ADM” e includa “limiti all’uso dell’intelligenza artificiale e dell’ADM nei luoghi di lavoro per mitigare i rischi psicosociali”.

Avverte: “La realizzazione dei vantaggi dell’intelligenza artificiale e dell’ADM non deve far dimenticare la responsabilità fondamentale dei datori di lavoro di garantire la salute e la sicurezza dei propri dipendenti”.

La federazione sindacale nazionale ACTU ha accolto con favore la raccomandazione contenuta nel rapporto secondo cui il governo dovrebbe seguire il quadro di salute e sicurezza sul lavoro del tripartito governo-sindacato-datore di lavoro per garantire una maggiore supervisione sull’introduzione dell’intelligenza artificiale.

Ciò include l’imposizione di un obbligo positivo ai datori di lavoro di identificare e mitigare i rischi dell’IA e di stabilire diritti di consultazione per i lavoratori, in modo che i rischi dei nuovi sistemi di IA possano essere gestiti meglio.

Il concetto di protezione dalle operazioni di intelligenza artificiale “ad alto rischio” è riconosciuto anche nella legge dell’UE sull’intelligenza artificiale , entrata in vigore nell’agosto 2024.

Ciò richiede “l’identificazione e l’analisi dei rischi noti e prevedibili associati a ciascun sistema di intelligenza artificiale ad alto rischio”, che include l’uso dell’intelligenza artificiale “per prendere decisioni sulla promozione e la risoluzione di rapporti contrattuali correlati al lavoro, per l’assegnazione dei compiti e per monitorare e valutare le prestazioni e il comportamento delle persone in tali rapporti”.

Si teme che il desiderio del primo ministro britannico di salire sul carro dell’intelligenza artificiale possa portarlo a sorvolare su queste preoccupazioni in materia di sicurezza e a fare concessioni dannose a favore delle grandi aziende in un eventuale nuovo accordo commerciale tra Regno Unito e Stati Uniti.

Global Justice Now aveva avvertito nel febbraio 2025 che un accordo commerciale con Donald Trump avrebbe potuto “stendere il tappeto rosso all’oligarchia miliardaria della tecnologia” che gioca un ruolo di alto profilo nella sua amministrazione.

“La gente nel Regno Unito non vuole vedere una palla da demolizione lanciata contro le nostre normative, i nostri standard e i nostri servizi pubblici, soprattutto quando si parla di nuove tecnologie come l’intelligenza artificiale, di cui stiamo solo iniziando a comprendere i pericoli”, ha affermato Nick Duerden, direttore del gruppo di campagna. “È ancora peggio che tali colloqui si svolgano a porte chiuse, consentendo ai titani della tecnologia di avanzare le loro richieste lontano dagli occhi del pubblico”.


In che modo la digitalizzazione sta trasformando la sicurezza?

Un rapporto dell’ILO dell’aprile 2025 afferma che la digitalizzazione e l’automazione stanno avendo un impatto su milioni di posti di lavoro in tutto il mondo. “ Rivoluzionare la salute e la sicurezza: il ruolo dell’intelligenza artificiale e della digitalizzazione sul lavoro ” afferma che, sebbene la tecnologia abbia il potenziale per migliorare la sicurezza, questo non è scontato e “sono necessarie politiche proattive per affrontare i potenziali rischi”. L’ILO afferma:

L’automazione e la robotica avanzata stanno semplificando le attività fisiche e cognitive, riducendo l’esposizione ad ambienti pericolosi e le lesioni da sforzo ripetitivo. Tra le potenziali preoccupazioni associate da affrontare possono rientrare guasti meccanici, oltre ai rischi ergonomici, fisici e psicosociali.

La gestione algoritmica del lavoro utilizza sistemi basati sull’intelligenza artificiale o programmati per coordinare il lavoro in un’organizzazione, ottimizzando l’allocazione delle attività. Tuttavia, potenziali rischi come l’eccessiva sorveglianza e l’intensificazione del lavoro devono essere controllati e affrontati.

Modificare le modalità di lavoro attraverso la digitalizzazione , incluso il telelavoro e le piattaforme di lavoro digitali, offre flessibilità ma potrebbe comportare sfide sia fisiche che psicosociali per la sicurezza e la salute sul lavoro.

Strumenti e sistemi di monitoraggio OSH intelligenti, inclusi sensori basati sull’intelligenza artificiale e dispositivi indossabili, consentono il rilevamento dei pericoli in tempo reale, la valutazione predittiva dei rischi e una gestione proattiva della sicurezza. Garantire la fruibilità, la vestibilità adeguata per i diversi lavoratori, la tutela della privacy e la prevenzione dello stress da monitoraggio continuo sono sfide chiave.

La realtà estesa e virtuale stanno trasformando la formazione dei lavoratori con simulazioni immersive per il riconoscimento dei pericoli e la risposta alle emergenze. Tuttavia, è necessario gestire potenziali rischi come visibilità limitata, problemi di equilibrio, affaticamento visivo e sovraccarico cognitivo.

Gli esoscheletri  sono sistemi di assistenza tecnica indossati e di supporto fisico, utilizzati per facilitare e migliorare i movimenti umani. Hanno il potenziale per ridurre i picchi di carico, ad esempio: durante il sollevamento di carichi pesanti o ingombranti; durante la spinta, la trazione o il trascinamento di carichi pesanti; durante piegamenti, accovacciamenti, chinamenti, allungamenti, torsioni e allungamenti; o con forza sostenuta o pesante ed eccessiva. Tuttavia,  gli esperti di sicurezza  hanno sollevato preoccupazioni sui potenziali rischi, ad esempio sulla loro adattabilità ai singoli lavoratori e su come potrebbero influire sulle prestazioni in condizioni atipiche o di emergenza.

 

L’Organizzazione Internazionale del Lavoro, l’organismo delle Nazioni Unite responsabile della salute e sicurezza sul lavoro e degli standard del lavoro a livello globale, è pienamente consapevole che i potenziali vantaggi della digitalizzazione comportano anche rischi significativi.

“I progressi tecnologici possono anche portare all’intensificazione del lavoro, all’insicurezza lavorativa e al ‘tecnostress’, poiché i lavoratori sono sottoposti a una pressione crescente per adattarsi a strumenti e processi in rapida evoluzione”, si legge nel rapporto di aprile 2025 ” Rivoluzionare la salute e la sicurezza: il ruolo dell’intelligenza artificiale e della digitalizzazione sul lavoro “.

“La sfumatura dei confini tra lavoro e vita privata dovuta al lavoro in mobilità e online può contribuire al burnout, mentre la sorveglianza invasiva e il monitoraggio costante possono violare la privacy e ridurre l’autonomia lavorativa.”

La natura dei lavori di nuova generazione può riguardare settori già noti per essere ad alto rischio, talvolta integrando questo rischio con nuove e numerose combinazioni di pericoli.

Lavoro su piattaforma digitale e sicurezza e salute sul lavoro: una revisione , un rapporto del 2021 dell’Agenzia europea per la sicurezza EU-OSHA, osserva che i lavori gestiti dall’intelligenza artificiale “sono spesso attivi in ​​settori generalmente considerati più pericolosi, con tassi di incidenza più elevati di incidenti (gravi), infortuni e malattie professionali.

“Inoltre, il lavoro sulla piattaforma comporta compiti aggiuntivi e/o una combinazione di compiti diversa da quelli associati a lavori simili nel mercato del lavoro tradizionale.”

La Conferenza internazionale del lavoro, l’incontro annuale dedicato alle politiche e all’elaborazione delle leggi dell’OIL, prenderà in esame nel 2025 e nel 2026 le proposte per una nuova Convenzione dell’OIL sul lavoro tramite piattaforma, supportata da una Raccomandazione.

COSA VOGLIONO I SINDACATI?

In tutto il mondo, l’intelligenza artificiale è una realtà sul posto di lavoro, ma lo sfruttamento non dovrebbe esserlo, ha affermato la Confederazione Sindacale Internazionale (CSI).

La CSI chiede:

• I lavoratori e i loro sindacati devono essere coinvolti nel decidere come l’intelligenza artificiale viene introdotta e utilizzata sul posto di lavoro.• L’intelligenza artificiale non deve essere utilizzata per compromettere i diritti fondamentali, tra cui la libertà di associazione, il diritto di organizzazione e la salute e sicurezza sul lavoro.• Il processo decisionale algoritmico non può sostituire la supervisione umana, soprattutto in ambiti che incidono sull’occupazione, sui salari e sulle condizioni di lavoro.
Inoltre, la CSI ha sottolineato la necessità di una regolamentazione internazionale più forte, tra cui una Convenzione vincolante dell’OIL sul lavoro dignitoso per l’economia delle piattaforme, una richiesta fondamentale del movimento sindacale globale in vista della prossima Conferenza internazionale del lavoro dell’OIL nel giugno 2025.

Intelligenza artificiale e digitalizzazione: una questione di vita o di morte per i lavoratori , CSI, aprile 2025

 

Fornirebbe uno standard di base globale per un lavoro dignitoso nell’economia delle piattaforme, al posto di ciò che abbiamo ora: una proliferazione di lavori su richiesta che presentano tutti i rischi intrinseci all’intelligenza artificiale controllata dai datori di lavoro e ai sistemi di gestione algoritmica, abbinati a un modello di impiego indipendente basato su app e reso insicuro per scelta.

L’intelligenza artificiale e la digitalizzazione hanno il potenziale per migliorare il lavoro. Ma non sarà la tecnologia a offrire modalità di lavoro più soddisfacenti e meno dannose. Sarà la condivisione di nuove modalità di lavoro con i lavoratori e che funzionino per i lavoratori.

Al momento, ciò non sembra accadere. I risultati di un’indagine OCSE condotta su oltre 6.000 datori di lavoro in Francia, Germania, Italia, Giappone, Spagna e Stati Uniti, pubblicata su Artificial Intelligence Papers nel febbraio 2025, hanno mostrato: “La salute fisica e mentale dei dipendenti spesso non è adeguatamente tutelata, secondo i dirigenti, e il 27% segnala questa preoccupazione in termini di affidabilità”.

Questo risultato è notevole, dato che tutti e sei i Paesi dispongono di normative in materia di sicurezza e salute sul lavoro, che continuano ad essere applicabili quando si utilizza la gestione algoritmica. Tuttavia, queste normative spesso si concentrano sulla sicurezza fisica piuttosto che sulla salute mentale.

“Ciò crea delle lacune nell’affrontare i fattori di rischio psicosociali per i dipendenti, come la pressione del tempo, l’aumento del carico di lavoro, il sovraccarico cognitivo e l’isolamento, che sono spesso esacerbati dalla gestione algoritmica”.

Consultazione critica

In un importante vertice mondiale sull’intelligenza artificiale (IA) tenutosi nel febbraio 2025, la confederazione sindacale mondiale ITUC ha chiesto un maggiore coinvolgimento dei lavoratori nelle modalità di introduzione e utilizzo dell’IA sul posto di lavoro.

L’ AI Action Summit di Parigi, ospitato dal governo francese, ha riunito capi di Stato, organizzazioni internazionali, aziende multinazionali, sindacati e accademici per affrontare le implicazioni sociali dell’intelligenza artificiale.

Intervenendo all’evento, che precede la Giornata internazionale in memoria dei lavoratori, incentrata sulla digitalizzazione e sull’intelligenza artificiale, del 28 aprile, il vicesegretario generale dell’ITUC Eric Manzi ha sottolineato la necessità di proteggere e coinvolgere i lavoratori.

“Il futuro del lavoro, plasmato dalla digitalizzazione e dall’intelligenza artificiale, è inevitabile, ma i risultati non sono predeterminati. La questione non è se questo cambiamento arriverà, ma come verrà gestito. E per questo, i sindacati dei lavoratori sono cruciali”, ha affermato.

L’ILO ha ben chiaro che, affinché l’introduzione di nuove tecnologie, tra cui l’intelligenza artificiale, sia sicura ed efficace, la partecipazione dei lavoratori è fondamentale.

Ciò non significa avere il diritto di discutere su come rendere la tecnologia più adatta ai lavoratori. Significa essere coinvolti nella decisione se la tecnologia debba essere introdotta, con quale scopo e con quali garanzie.

Il rapporto 2025 dell’ILO sulla digitalizzazione afferma: “I lavoratori e i loro rappresentanti dovrebbero essere attivamente coinvolti in tutte le fasi di implementazione della tecnologia digitale, tra cui progettazione, funzionamento e monitoraggio, garantendo che le tecnologie migliorino, anziché compromettere, la salute e la sicurezza sul posto di lavoro”.

L’ILO aggiunge: “Per un ambiente di lavoro sicuro e sano è fondamentale garantire che i lavoratori siano ben informati sulle nuove tecnologie e sui potenziali rischi che comportano e siano attivamente coinvolti nell’attuazione di misure preventive”.

L’agenzia delle Nazioni Unite afferma che la convenzione fondamentale dell’OIL sulla sicurezza e la salute sul lavoro, la Convenzione 155, vincolante a livello mondiale, richiede che i lavoratori e i loro rappresentanti siano “consultati in modo significativo prima dell’introduzione di nuove tecnologie che hanno un impatto sulla sicurezza e la salute sul lavoro, garantendo loro voce nelle decisioni che riguardano direttamente il loro lavoro”.

Un testo simile è presente nella direttiva quadro dell’UE, il modello per le leggi sulla sicurezza in tutta l’Unione Europea. La direttiva stabilisce che i lavoratori o i loro rappresentanti dovrebbero essere consultati “nella pianificazione e nell’introduzione di nuove tecnologie sul luogo di lavoro”.

Secondo Aude Cefaliello e Jan Popma, che scrivono in un rapporto speciale del 2024 di HesaMag intitolato “Navigare la rivoluzione dell’intelligenza artificiale” , “ciò implica che i lavoratori (o i loro rappresentanti) non dovrebbero essere semplicemente consultati quando il sistema è già stato acquistato e poi introdotto in fabbrica.

“Ciò richiede un approccio anticipatorio”, affermano i ricercatori dell’Istituto sindacale europeo (ETUI).

“Il datore di lavoro dovrebbe coinvolgere i lavoratori (rappresentanti) già nella fase preparatoria e rispondere a domande quali: perché stiamo prendendo in considerazione l’introduzione di questa tecnologia, quali sono le specifiche tecniche e, soprattutto, come verranno presi in considerazione i diritti dei lavoratori su questioni quali la determinazione del ritmo di lavoro, l’autonomia e la privacy.”

Affermano che la direttiva “richiede anche valutazioni dei rischi prima dell’acquisto del nuovo sistema” con il coinvolgimento dei rappresentanti dei lavoratori, il che “rafforza la loro capacità di co-progettare pratiche aziendali basate sui dati”.

L’ILO aggiunge che è necessaria una vigilanza costante per affrontare i mutevoli impatti della tecnologia dopo la sua introduzione. “Con l’evoluzione della tecnologia, si evolvono anche i rischi sul posto di lavoro”, osserva l’ILO nel suo rapporto del 2025. “Nuovi aggiornamenti software, aggiornamenti di sistema o modifiche ai processi di lavoro possono introdurre rischi imprevisti, rendendo necessaria una revisione e un adattamento continui delle misure preventive in materia di SSL.

Per affrontare questi rischi in modo proattivo, i datori di lavoro dovrebbero effettuare valutazioni dei rischi regolarmente e ogni volta che pianificano l’introduzione di nuove tecnologie.

Questo approccio consente alle aziende di identificare e attuare tempestivamente misure preventive adeguate, garantendo una transizione più sicura verso ambienti di lavoro digitalizzati.

LO conclude: “Essere informati sui progressi tecnologici e sulle modifiche normative, nonché raccogliere feedback dai lavoratori, migliora ulteriormente la capacità di individuare e affrontare efficacemente i rischi emergenti”.

Lo stesso sentimento è ribadito in un rapporto del novembre 2024 dell’Agenzia europea per la sicurezza sul lavoro EU-OSHA.

” Partecipazione e rappresentanza dei lavoratori: l’impatto sulla prevenzione dei rischi dei sistemi di gestione dei lavoratori basati sull’intelligenza artificiale ” afferma che rischi quali una sorveglianza più approfondita, problemi di privacy o pressioni temporali legati ai sistemi di gestione dei lavoratori basati su algoritmi e intelligenza artificiale (AIWM) possono portare a stress nei lavoratori, isolamento sociale e confini labili tra lavoro e vita privata.

Aggiunge che la partecipazione dei lavoratori può aiutare a identificare, prevenire e mitigare i rischi psicosociali.

Il rapporto conclude: “Le caratteristiche delle tecnologie AIWM, tra cui la loro opacità e natura dinamica, ma anche la diversità delle applicazioni sul posto di lavoro, richiedono approcci normativi più flessibili con un ruolo più forte della contrattazione collettiva.

“È fondamentale che le attuali normative sul coinvolgimento e la rappresentanza dei lavoratori si evolvano per incorporare queste problematiche, poiché la contrattazione collettiva nel contesto dell’AIWM resta limitata”.

La legge dell’UE sull’intelligenza artificiale sottolinea inoltre che “le valutazioni del rischio non dovrebbero essere un esercizio una tantum”, commentano Aude Cefaliello e Jan Popma dell’ETUI.

Fanno riferimento al requisito della legge secondo cui “il sistema di gestione del rischio deve consistere in un processo iterativo continuo pianificato e gestito durante l’intero ciclo di vita di un sistema di intelligenza artificiale ad alto rischio, che richiede una revisione e un aggiornamento sistematici e regolari”.

La legge dell’UE richiede inoltre la segnalazione di eventuali “incidenti gravi” al fornitore e all’autorità di regolamentazione nazionale competente.

Gli incidenti gravi hanno una definizione ampia, ma includono decessi e gravi danni alla salute, ai beni o all’ambiente, nonché un’interruzione grave e irreversibile della gestione e del funzionamento delle infrastrutture critiche.

In che modo la tecnologia può danneggiarti?

La tecnologia può essere neutrale, ma la sua applicazione è tutt’altro. E applicazioni ben intenzionate per migliorare la sicurezza potrebbero anche fornire dati di sorveglianza o sulle prestazioni a un datore di lavoro che vede un dipendente affrontare sanzioni salariali, provvedimenti disciplinari o licenziamenti.

 

SPIA IN TAXI   Quando Amazon ha lanciato i “furgoni dotati di intelligenza artificiale” con telecamere di sorveglianza, ha richiesto ai conducenti delle consegne di scaricare e utilizzare costantemente sui loro telefoni un programma “Mentor” – descritto come “un’app digitale per la sicurezza dei conducenti” , affermando che ciò avrebbe “migliorato la sicurezza” degli autisti. Ma la combinazione di telecamere e app segnalava il loro comportamento di guida direttamente ai manager, il che poteva comportare la perdita di bonus e provvedimenti disciplinari, e generava rimproveri automatici di routine e distraenti durante la guida. ( Hazards 157 ). 

Se i lavoratori, supportati dai loro sindacati, non decidono cosa, come e perché introdurre la tecnologia in questo ambiente di lavoro, è molto più probabile che questa serva gli interessi dell’azienda piuttosto che quelli dei dipendenti. Questo può essere molto dannoso per la salute.

A volte la tentazione di una soluzione tecnologica spinge i datori di lavoro a fornire la risposta sbagliata alla domanda giusta.

I droni, ad esempio, vengono utilizzati per applicare pesticidi altamente pericolosi, eliminando la necessità di esposizione degli operatori. Tuttavia, la gerarchia di controllo adottata dall’ILO dà priorità all’eliminazione del rischio. Se si continua a utilizzare pesticidi tossici, le piante che mangiamo sono comunque immerse in sostanze tossiche e i lavoratori sottovento possono essere esposti alla deriva dei prodotti. E qualcuno deve occuparsi della manutenzione, della pulizia e della ricarica del drone.

Esiste anche una correlazione diretta tra l’uso di pesticidi altamente pericolosi e i suicidi, spesso tra i braccianti agricoli e le loro famiglie. Eliminando i prodotti chimici, il rischio sia di avvelenamento che di suicidio si riduce.

Nel suo rapporto sulla digitalizzazione, l’ILO osserva: “La gerarchia dei controlli dovrebbe guidare le misure preventive, dando priorità all’eliminazione dei pericoli e alle soluzioni ingegneristiche rispetto ai controlli amministrativi e ai DPI, garantendo che la tecnologia venga utilizzata per migliorare la sicurezza e la salute dei lavoratori piuttosto che come sostituto di solide protezioni per la sicurezza e la salute sul lavoro”.

Codice rosso: scheda informativa sui rischi lavorativi legati all’intelligenza artificiale e alla digitalizzazione

 

SORVEGLIANZA  La sorveglianza può essere fornita di serie con sistemi e app di lavoro automatizzati. Ciò può includere il monitoraggio di email e file, webcam sui computer aziendali, il monitoraggio di quando e quanto un lavoratore digita o delle chiamate effettuate e dei movimenti effettuati dal lavoratore, tramite telecamere e dispositivi tracciabili.  

Può portare rapidamente a un’intensificazione del lavoro, lesioni da sforzo, stress e rischi per la salute associati all’essere legati alla scrivania senza riposo o pause per andare in bagno. Il rapporto 2025 dell’ILO osserva che “potenziali rischi come l’eccessiva sorveglianza e l’intensificazione del lavoro devono essere controllati e affrontati”.

Aggiunge: “Sebbene siano pensati per migliorare la sicurezza, a volte i sistemi possono trasformarsi in un monitoraggio costante, con il comportamento dei lavoratori segnalato ai responsabili, il che potrebbe portare a rimproveri automatici o sanzioni per il mancato raggiungimento degli obiettivi prestazionali”.

L’organismo delle Nazioni Unite per i diritti dei lavoratori avverte che “sorgono preoccupazioni etiche anche riguardo al modo in cui i dati raccolti vengono utilizzati, archiviati e condivisi”.

La relazione EU-OSHA del 2024 sottolinea che i sistemi di gestione algoritmica “possono intensificare la sorveglianza e compromettere l’autonomia dei lavoratori, il che a sua volta porta a livelli elevati di stress”, aggiungendo che “possono anche aumentare l’intensità e la velocità del lavoro e portare a imprevedibilità negli orari di lavoro”.

Le tecnologie utilizzate “per monitorare e valutare le prestazioni possono creare pressione sulle prestazioni e sono anche associate a livelli elevati di stress tra i lavoratori, in particolare quando percepiscono che le metriche e i processi sono ingiusti”, avverte.

L’impatto può essere devastante. Come prova presentata al comitato permanente australiano, il Consiglio delle Trades Hall del Victoria ha identificato un luogo di lavoro operaio sottoposto a “un uso eccessivo della sorveglianza”. Ciò ha portato a un “ambiente di lavoro ‘altamente disfunzionale e negativo’, che ha visto tre lavoratori sottoposti a sorveglianza attiva per il suicidio, uno dei quali si è persino tolto la vita”.

Un rapporto del 2022 citato dall’ILO evidenzia che l’80% dei maggiori datori di lavoro privati ​​negli Stati Uniti monitora la produttività dei singoli lavoratori utilizzando sistemi di gestione algoritmica.

DISPOSITIVI   INDOSSABILI I dispositivi indossabili, come gli smartwatch o i dispositivi di gestione delle attività appositamente progettati, possono incorporare sistemi GPS in grado di identificare la tua posizione tutto il giorno, tutti i giorni, dentro e fuori dal lavoro.

Tutto ciò, unito all’uso di un software di gestione delle prestazioni, potrebbe eliminare qualsiasi discrezionalità nella pianificazione del lavoro o di tempi morti per riprendersi da un lavoro intenso o per socializzare con i colleghi, con i lavoratori assegnati automaticamente a una sequenza infinita di attività alternative.

“In questi casi, l’uso delle nuove tecnologie non allevierà affatto il carico di lavoro e lo stress correlato al lavoro, ma anzi intensificherà il lavoro”, sostengono Aude Cefaliello e Jan Pompa dell’Istituto sindacale europeo (ETUI) nel loro rapporto speciale HesaMag del 2024 .

Commentando l’impatto dei dispositivi indossabili, il rapporto EU-OSHA del 2024 osserva: “In alcuni casi, affrontando solo i sintomi anziché le cause profonde, le tecnologie di monitoraggio potrebbero inavvertitamente perpetuare un ciclo di stress e sovrallenamento, incidendo in ultima analisi sul benessere generale dei lavoratori”.

Aggiunge: “I dispositivi indossabili, come gli smartwatch, possono distrarre i lavoratori, compromettendone la concentrazione e le prestazioni complessive. Inoltre, le funzionalità di sorveglianza di questi dispositivi possono indurre stress creando ambienti di lavoro ad alta pressione.

“Il monitoraggio costante dei dati fisiologici e biometrici può anche generare ansia, poiché i lavoratori si sentono pressati a mantenere specifici parametri di prestazione o di salute.”

I dispositivi indossabili potrebbero rivelarsi inadatti, i dati potrebbero essere inaffidabili e il loro utilizzo costituirebbe una violazione della privacy dei lavoratori, con il download di dati sanitari che potrebbero violare le leggi sulla riservatezza medica, sulla disabilità e sulla discriminazione.

Una guida del novembre 2024 della US Equal Employment Opportunity Commission (EEOC) sottolinea che i dispositivi indossabili imposti dai datori di lavoro, come orologi, anelli, occhiali o caschi che raccolgono informazioni sulla salute e dati biometrici di un lavoratore, potrebbero condurre un ” esame medico ” come definito dall’Americans with Disabilities Act (ADA) .

Dispositivi indossabili sul posto di lavoro: l’uso di dispositivi indossabili e altre tecnologie di monitoraggio ai sensi delle leggi federali contro la discriminazione sul lavoro avvisa che se i dispositivi indossabili richiedono ai dipendenti di fornire informazioni sulla salute (anche durante l’installazione del dispositivo), il datore di lavoro potrebbe effettuare ” indagini relative alla disabilità “.

MONITORAGGIO BIOMETRICO  L’impatto delle app di monitoraggio fisiologico (che controllano, ad esempio, le funzioni corporee dei lavoratori, tra cui frequenza cardiaca, temperatura cutanea e movimenti) dipende dalle motivazioni di chi effettua il monitoraggio.

A un lavoratore che mostra segni di eccessivo sforzo o affaticamento potrebbe essere detto di rallentare il ritmo di lavoro per raggiungere un livello più gestibile o di prendersi una pausa. Oppure potrebbe essere licenziato o decurtato dello stipendio per non aver mantenuto il ritmo, o “per tutelare la propria salute”.

I dispositivi indossabili e i biomonitor vedono solo ciò che cercano e ciò potrebbe fornire un quadro fuorviante sia dello stato di salute di un lavoratore che delle sue prestazioni.

“La misurazione di un numero limitato di fattori di prestazione facilmente accessibili potrebbe non solo non essere rappresentativa delle prestazioni dei dipendenti, ma anche creare incentivi a trascurare fattori di prestazione che non vengono monitorati attivamente”, osserva Kateryna Maltseva, esperta di responsabilità algoritmica presso l’Oslo New University College.

In un articolo del 2020 pubblicato sulla rivista Business Horizons , ha osservato che questo approccio basato sulla “mentalità di quantificazione” “per monitorare le prestazioni potrebbe equivalere a misurare l’incommensurabile”.

Prendendo come esempio il monitoraggio della frequenza cardiaca, ha avvertito che “nelle mani di un manager, queste informazioni potrebbero, anche involontariamente, essere utilizzate come fonte di giudizi professionali e di grande importanza”.

“Il semplice fatto di sapere che alcuni dipendenti, in base ai loro dati fisiologici, sono ‘migliori’ di altri nel tollerare lo stress o nell’adottare stili di vita più sani può indurre i manager a mostrare favoritismi.”

Ciò che non fa è affrontare i problemi psicosociali sul posto di lavoro che colpiscono, in diversa misura, l’intera forza lavoro.

Il rapporto dell’ILO osserva: “Sebbene le tecnologie indossabili possano monitorare efficacemente condizioni come l’affaticamento o lo stress da calore, non affrontano fattori sottostanti come orari di lavoro eccessivi e altri fattori di rischio psicosociali”.

Carichi di lavoro e ritmi di lavoro:   gli algoritmi automatizzano e riducono al minimo gli aspetti peggiori della gestione tradizionale. Si viene costantemente confrontati con i colleghi in termini di ritmi di lavoro e produttività. La pressione e lo stress derivanti dagli obiettivi di performance e dagli indicatori chiave di prestazione aumentano.

Il rapporto 2025 dell’ILO sulla digitalizzazione osserva: “L’automazione spesso intensifica il lavoro imponendo programmi serrati e aumentando il ritmo delle attività, con conseguente aumento di stress, tassi di errore e affaticamento”.

Secondo l’ILO, i lavoratori potrebbero dover eguagliare l’incessante efficienza dei robot, rischiando però stanchezza, stress e “sovraccarico cognitivo”.

Aggiunge: “Le sanzioni basate su algoritmi, come le detrazioni automatiche per piccoli ritardi o errori, aumentano ulteriormente l’ansia e la pressione, incidendo sulla salute mentale dei lavoratori.

Per aumentare la produttività, le organizzazioni potrebbero implementare sistemi che indirizzino i lavoratori a lavorare senza brevi pause, riducano al minimo il tempo dedicato a determinate procedure o li obblighino a lavorare a ritmi sostenuti.

Il rapporto del comitato permanente australiano del 2024 osservava: “Le organizzazioni possono utilizzare sistemi di intelligenza artificiale per definire indicatori chiave di prestazione (KPI) più intensi e irraggiungibili. I KPI vengono imposti ai lavoratori che vengono monitorati. Ciò può causare gravi danni fisici e psicosociali sul posto di lavoro se i KPI sono insostenibili o irrealistici”.

Nel 2023 i legislatori del Minnesota hanno approvato una legge che garantisce una maggiore tutela per i magazzinieri da queste quote, una mossa volta ad aiutare i dipendenti di aziende come Amazon.

La legge vieta alle aziende di licenziare o adottare misure avverse nei confronti di un dipendente che non ha raggiunto una quota che non è stata loro comunicata.

Afferma inoltre che le aziende non possono implementare quote di produttività che impediscano ai lavoratori di prendersi delle pause e consente alle autorità di aprire un’indagine se un’azienda ha un tasso di infortuni pari o superiore al 30% rispetto alle altre.

La legge del Minnesota consente inoltre ai dipendenti attuali ed ex dipendenti di intentare una causa civile contro le aziende che violano le nuove norme.

Leggi simili sono state approvate in altri stati americani, tra cui New York e California.
Amazon è stata multata di quasi 6 milioni di dollari nel 2024, dopo che l’ ufficio del Commissario del Lavoro della California ha dichiarato che l’azienda non aveva informato i dipendenti di due magazzini nello stato di eventuali quote di produttività da rispettare, portando i lavoratori a essere disciplinati senza saperne il motivo.

Le citazioni contro Amazon, il principale datore di lavoro di magazzinieri e il secondo datore di lavoro privato più grande della nazione, rappresentano l’applicazione più evidente, da parte dello Stato, della legge del 2021 che mirava a ridurre il ritmo di lavoro richiesto nei magazzini.

Lorena Gonzalez, leader della California Labor Federation, è stata l’autrice della legge in qualità di membro dell’Assemblea, dopo che diverse inchieste giornalistiche e rapporti di sensibilizzazione avevano evidenziato come la richiesta di velocità e produttività avesse portato a un tasso di infortuni superiore alla media in alcuni magazzini Amazon.

La legge della California non vieta l’uso delle quote nei magazzini, ma obbliga i datori di lavoro a informare per iscritto i dipendenti al momento dell’assunzione e proibisce di imporre quote così rigide da non lasciare ai lavoratori abbastanza tempo per fare pause o usare il bagno.

Nel dicembre 2024, l’ente regolatore della sicurezza statunitense OSHA ha ordinato al gigante dell’e-commerce di pagare una sanzione di 145.000 dollari, di sottoporsi a controlli in 10 strutture per due anni e di adottare “misure ergonomiche a livello aziendale” per ridurre il rischio di infortuni per i lavoratori.

Nel Regno Unito, un rapporto del giugno 2024 dell’Oxford Internet Institute dell’Università di Oxford, che esaminava l’impiego dell’intelligenza artificiale e della robotica in Amazon, ha rilevato che “le richieste basate sul ritmo hanno un impatto significativo sulla salute fisica e mentale dei dipendenti Amazon”. Gli intervistati hanno descritto di sentirsi “demoralizzati”, “senza speranza” e “molto, molto stressati”.

“Nei siti robotizzati, sono emersi anche rischi per la salute mentale a causa dell’isolamento sperimentato lavorando in postazioni di lavoro fisse, descritte come ‘una specie di gabbia’.” 

L’autore principale del rapporto Fairwork Amazon Report 2024: Trasformazione del settore dei magazzini tramite intelligenza artificiale , il dott. Funda Ustek Spilda, ha affermato: “Piuttosto che analizzare solo le specifiche tecnologie di intelligenza artificiale implementate, dovremmo esaminare l’intero sistema infrastrutturale che sta cambiando attraverso l’intelligenza artificiale.

“Le esperienze dei lavoratori dimostrano che se non si pongono le domande necessarie quando si introducono queste tecnologie nei luoghi di lavoro, i lavoratori potrebbero finire per subire danni gravi”.

LAVORO SU PIATTAFORMA  I lavori su piattaforma digitale, in cui i lavoratori devono accedere ad app per prenotare o presentare offerte per i turni, si sono diffusi dal lavoro di consegna (soprattutto di persone, pacchi e fast food) a ogni ambito dell’economia, dalle pulizie all’edilizia e all’assistenza infermieristica.

CLEAN SWEEP  AI è disponibile sul posto di lavoro vicino a te e viene utilizzato in ogni settore, dalle pulizie all’edilizia.

Ma sono i lavori di consegna molto più consolidati a essere quelli in cui sono emersi i risultati dello sfruttamento del lavoro saltuario.

In diversi Paesi, orari di consegna non sicuri sono stati associati ad alti tassi di mortalità.

In Australia, il sindacato dei lavoratori dei trasporti ha dichiarato nell’agosto 2020 che 18 fattorini addetti alle consegne di cibo nel paese erano morti mentre lavoravano nei tre anni precedenti. Il sindacato ha affermato che le famiglie dei fattorini deceduti sul lavoro non avevano diritto al regime ufficiale di indennizzo per infortuni sul lavoro.

Questo sembra essere un fenomeno globale. Un’indagine dell’OIL condotta nel 2021 su 20.000 lavoratori di piattaforme digitali in 100 paesi ha rilevato che solo il 20% aveva accesso alla tutela contro gli infortuni sul lavoro.

Un rapporto dell’aprile 2020 del gruppo di attivisti statunitense Gig Workers Rising ha pubblicato un elenco di 50 lavoratori deceduti mentre lavoravano come autisti per piattaforme come Lyft, Bolt e Uber. Il rapporto, intitolato ” Decessi e irresponsabilità aziendale nella gig economy: un’urgente crisi di sicurezza “, osservava: “I rapporti indicano che episodi di furto d’auto e furto di biciclette, abusi verbali, molestie fisiche e aggressioni ai danni degli autisti sono all’ordine del giorno e, in alcuni casi, in aumento”.

Uno studio del 2022 sugli infortuni sul lavoro nei lavoratori autonomi in Giappone, pubblicato sulla rivista Industrial Health , ha rilevato: “I lavoratori autonomi avevano un tasso di incidenza di infortuni sul lavoro molto più elevato (27,8% per qualsiasi infortunio minore e 17,1% per infortuni che limitano l’attività) rispetto a coloro che non avevano esperienza di lavoro autonomo (rispettivamente 9,2% e 2,0%).

“L’analisi di regressione multipla ha indicato che i lavoratori autonomi avevano un rischio tre volte maggiore di qualsiasi infortunio sul lavoro minore e un rischio otto volte maggiore di infortuni che limitano l’attività, dopo l’aggiustamento per potenziali fattori confondenti.”

Ci sono stati alcuni progressi nell’ottenere veri diritti per i lavoratori della gig economy.
In Spagna, nel 2022, una legge sui “rider” ha introdotto la presunzione che i fattorini siano considerati “dipendenti”.

Nel Regno Unito, gli autisti di Bolt, l’app di ride-hailing e consegna di cibo a domicilio, hanno vinto una causa legale nel novembre 2024 per essere considerati lavoratori subordinati anziché autonomi. La causa legale segue una storica sentenza della Corte Suprema del Regno Unito del 2021, secondo cui gli autisti di Uber non erano lavoratori autonomi, ma lavoratori con diritti quali un salario minimo garantito e pause.

Nel dicembre 2024 è entrata in vigore la direttiva UE sui lavoratori delle piattaforme . La direttiva, che dovrebbe essere recepita in tutti gli Stati membri dell’UE, ha introdotto il divieto per i sistemi automatizzati di esercitare un’indebita pressione sui lavoratori o di creare rischi per la loro sicurezza e salute fisica e mentale.

Questa restrizione, tuttavia, si applica solo a coloro che hanno un rapporto di lavoro con diritti derivanti dalla piattaforma di lavoro digitale, una lacuna critica fortemente criticata dai sindacati .

A giugno 2025 inizieranno i negoziati per una possibile nuova Convenzione OIL sul lavoro tramite piattaforma. I sindacati auspicano che il trattato globale venga approvato nel 2026 e che sostenga i diritti fondamentali in materia di occupazione, sicurezza e sindacati per tutti i lavoratori della gig economy.

CONTROLLO  Le implicazioni per la sicurezza dei lavoratori, intenzionali e non, devono essere prese in considerazione nella fase di progettazione del software. 

Aude Cefaliello dell’ETUI ha riferito in un articolo del gennaio 2022 sulla rivista Global Workplace Law and Policy che “se il sistema di intelligenza artificiale è destinato a essere utilizzato sul lavoro, il fornitore non può ignorare l’impatto sulla salute e la sicurezza dei lavoratori”.

“Inoltre, il fornitore dovrebbe tenere in considerazione che l’IA dovrebbe essere progettata con l’obiettivo di mitigare il lavoro monotono e il lavoro a un ritmo predeterminato, nonché di ridurne gli effetti sulla salute”.  

Cefaliello, scrivendo nel 2025 insieme al collega dell’ETUI Jan Popma, ha concluso che la rappresentanza dei lavoratori è un elemento fondamentale per salvaguardare la salute e la dignità umana dai danni causati dalle nuove tecnologie.

“La consultazione dei lavoratori in ogni fase del ciclo di innovazione è fondamentale per aiutarli a proteggersi dai rischi, imprevisti o previsti, delle nuove tecnologie”, affermano.

“Ciò vale per tutti i tipi di tecnologie, ma è particolarmente significativo nel campo della robotica e dell’intelligenza artificiale.

“La posta in gioco è alta: dobbiamo impedire che i lavoratori diventino schiavi della macchina.”

 

 

Risorse

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *