La surveillance numérique est omniprésente en Chine. Voici comment les citoyens y font face

 

Per leggere l’articolo tradotto in italiano clicca l’icona blu (la quarta da sinistra in fondo all’articolo)  google translate . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

 

 

Dans le métro de Pékin, des usagers consultent leur téléphone intelligent, où on s’informe, se divertit, échange des messages, personnels et professionnels. Le gouvernement chinois a accès à toutes les données collectées. Comment les citoyens vivent-ils cette surveillance numérique constante?
(Shutterstock)

Ariane Ollier-Malaterre, Université du Québec à Montréal (UQAM)

Pensez-vous souvent aux traces numériques que vous laissez quand vous parcourez le web, achetez en ligne, commentez sur les réseaux sociaux ou passez devant une caméra à reconnaissance faciale ?

La surveillance des citoyens par les États se développe dans le monde entier, mais c’est une réalité de la vie quotidienne en Chine, où elle a des racines historiques profondes.

En Chine, on ne paie presque plus rien en liquide. Des « super-plateformes » rendent la vie facile : on utilise Alipay ou WeChat Pay pour payer un trajet de métro ou de bus, louer un vélo, héler un taxi, faire des achats en ligne, réserver des billets de train et de spectacle, partager l’addition au restaurant ou régler ses impôts et ses factures d’électricité.

Sur ces mêmes plates-formes, on consulte les nouvelles, on se divertit, on échange d’innombrables messages texte, audio et vidéo, personnels et professionnels. Tout ceci est lié au numéro de téléphone de l’utilisateur, lui-même enregistré sous son identité. Le gouvernement a accès aux données collectées par Baidu, Alibaba, Tencent, Xiaomi et autres opérateurs.

Les listes noires (citoyens indignes de confiance), listes rouges (citoyens méritoires) et les systèmes de « crédit social » privés et publics ont fait couler beaucoup d’encre. Pourtant, les travaux récents ont montré que ces systèmes sont encore fragmentés et dispersés sur le plan de la collecte et de l’analyse des données. Ils sont aussi plus artisanaux qu’algorithmiques, avec des processus parfois manuels d’entrée des données et peu de capacités à construire des profils intégrés de citoyens en compilant l’ensemble des données disponibles.

Leggi tutto

What happens when we outsource boring but important work to AI? Research shows we forget how to do it ourselves

Per leggere l’articolo tradotto in italiano clicca l’icona blu (la quarta da sinistra in fondo all’articolo)  google translate . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

 

Shutterstock

Tapani Rinta-Kahila, The University of Queensland

In 2009, an Air France jet crashed into the ocean, leaving no survivors. The plane’s autopilot system shut down and the pilots, having become reliant on their computerised assistant, were unable to correct the situation manually.

In 2015, a bus driver in Europe typed the wrong destination into his GPS device and cheerfully took a group of Belgian tourists on a 1,200 kilometre detour in the wrong direction.

In 2017, in a decision later overturned on appeal, US prosecutors who had agreed to release a teenager on probation abruptly changed their minds because an algorithm ruled the defendant “high risk”.

These are dramatic examples, but they are far from isolated. When we outsource cognitive tasks to technology – such as flying a plane, navigating, or making a judgement – research shows we may lose the ability to perform those tasks ourselves. There is even a term for our tendency to forget information that is available through online search engines: the Google effect.

As new AI technologies promise to automate an increasing range of activities, the risk of “skill erosion” is growing. Our research shows how it can happen – and suggests ways to keep hold of the expertise you need, even when you don’t need it every day.

Skill erosion can cripple an organisation

My research shows the risk of skill erosion is easily overlooked. In a recent study, my team and I examined skill erosion in an accounting company.

The company had recently stopped using software that automated much of its fixed-asset accounting service. However, the accountants found themselves unable to carry out the task without it. Years of over-reliance on the software had eroded their expertise, and ultimately, they had to relearn their fixed-asset accounting skills.

While the software was rule-based (it did not use machine learning or “AI”), it was “smart” enough to track depreciation and produce reports for many tax and financial purposes. These are tasks that human accountants found very complex and tedious.

The company only became aware of skill erosion after a client found errors in the accounting team’s manual reports. With its accountants lacking sufficient expertise, the company had to commission the software provider to fix the errors.

Leggi tutto

Working in the metaverse: what are the risks? A rapid review of the literature

FONTE:  ETUI.ORG

Authors: Pierre Bérastégui che ringraziamo

Per leggere l’articolo tradotto in italiano clicca l’icona blu (la quarta da sinistra in fondo alla pagina)  google translate 

Per scaricare il file pdf  clicca qui 

Introduction

The metaverse is a three-dimensional virtual space in which users can interact with objects and other users with the help of a digital avatar. It can be accessed by means of head-mounted displays (HMDs) that either fully immerse the user in a virtual world (i.e. virtual reality, or VR) or superimpose virtual elements onto the real word (i.e. augmented reality, or AR). The idea of a virtual space mimicking the real world gained traction in late 2021, when Facebook had rebranded to become ‘Meta’ and launched its metaverse ‘Horizon World’. After a promising start, the interest in Horizon World faded, prompting Meta’s competitors to revisit their marketing strategy. The emphasis is now on hardware – with the development of increasingly sophisticated AR headsets – whose purpose is decidedly more work-oriented (Bérastégui 2024). Major developers such as Apple and Microsoft are now positioning their immersive solutions as productivity tools. Meta has followed suit with the launch of its new HMD for business and professional users. Although practical work applications remain limited today, extended reality (XR) is now framed by GAFAM as the future of remote working and, as such, the next major evolution in the way we work. In this context, the anticipation and recognition of hazards arising from immersive workplaces that could impair the health and safety of workers is of critical importance. This technical brief aims to synthetise the available evidence on occupational health and safety risks associated with the use of XR (covering both AR and VR) technologies. To this end, a rapid review of the academic and grey literature was conducted, leading to the identification of five broad categories of hazards.

Physical hazards

Multiple studies have highlighted issues related to the distance between the eyes and the screens of HMDs. The screen is only a few centimetres from the eyes and covers a large proportion of the field of vision, greatly increasing exposure to light – especially blue light – compared to a traditional screen. The discomfort it causes, long known as ‘computer vision syndrome’ (CVS), includes headaches, dry, itchy eyes and blurred vision. A recent study showed that, in order to prevent these symptoms, a session should last no longer than 55 70 minutes (Kourtesis et al. 2019). A French survey has suggested that this limit is not always observed for professional uses, as the average length of a VR or AR session was shown to be 75 minutes when deployed in public spaces, 79 minutes for health care and rehabilitation purposes, and 66 minutes in walk-in immersive 3D environments (ANSES 2021).

Leggi tutto

L’approccio europeo alla regolamentazione dell’IA: comprendere la grande tecnologia e gli estremisti della sicurezza

Fonte Algorithmwatch che ringraziamo 

[ la traduzione è automatica tramite google, per un uso di studio o di ricerca raccomandiamo di fare riferimento al testo originale ]

L’Europa sta per adottare due importanti regolamenti sull’intelligenza artificiale: la legge sull’intelligenza artificiale dell’UE e la convenzione sull’intelligenza artificiale del Consiglio d’Europa. Tuttavia, sebbene entrambi i regolamenti fossero inizialmente pensati per ribaltare la situazione sulla Big Tech e per proteggere efficacemente le persone dall’abuso della tecnologia IA da parte dei governi, gli interessi delle aziende tecnologiche e dei sostenitori della sicurezza dei governi potrebbero prevalere.

Nel comitato sull’intelligenza artificiale del Consiglio d’Europa che si riunisce questa settimana a Strasburgo, i negoziatori discutono le opzioni che consentirebbero agli Stati di limitare l’applicabilità del trattato sull’intelligenza artificiale alle autorità pubbliche e di mantenere le società private ampiamente fuori dal campo di applicazione. Nell’UE, l’accordo di compromesso sulla legge sull’AI lascerebbe molte persone in situazioni vulnerabili senza una protezione affidabile contro la sorveglianza e il controllo del governo, esentando allo stesso tempo le aziende da una serie di doveri.

Open AI, Google/Alphabet, Microsoft, Amazon, Meta: questi sono i nomi che beneficiano del grande clamore attorno all’intelligenza artificiale innescato nel novembre 2022, con il rilascio di ChatGPT. Solo poco dopo, questi sono stati anche i nomi dietro le forti richieste di una regolamentazione dell’IA, cioè di norme legali su come questa tecnologia viene sviluppata e utilizzata. Le Big Tech e i loro alleati tendono a spiegare le loro richieste di norme legali sull’intelligenza artificiale indicando scenari futuri non realistici, come ad esempio che l’intelligenza artificiale potrebbe un giorno assumere il controllo sull’umanità.

Leggi tutto

SustAIn Magazine #3 – Una visione diversa dell’intelligenza artificiale: decidiamo noi cosa deve fare l’intelligenza artificiale

Fonte Algorithm Watch che ringraziamo 
[ la traduzione che postiamo è stata effettuata con l’assistenza di google translator, per un uso professionale di questo articolo raccomandiamo di fare riferimento al testo alla fonte ]

Il terzo e ultimo numero della rivista SustAIn affronta la questione di chi potrebbe assumersi la responsabilità di guidare lo sviluppo dell’IA nella giusta direzione.

Quando volantini e opuscoli pubblicitari si accumulano nella spazzatura è chiaro a tutti che non fa bene all’ambiente. Ma che effetto hanno sul pianeta gli annunci personalizzati su Internet? Ad ogni visita a un sito web, vengono installati centinaia di cookie per alimentare un’infrastruttura pubblicitaria invisibile ma estremamente dispendiosa in termini energetici con dati utente personalizzati.

L’intelligenza artificiale divora molte risorse e spesso ha conseguenze deleterie per la nostra società e l’ambiente. L’uso sostenibile e sensato dell’IA è responsabilità di tutti e dovremmo decidere insieme dove implementarla e dove no.

Leggi tutto

Servizio di consegna cibo Glovo: tracciamento della posizione privata dei corrieri e altre violazioni

Fonte Algorithmwatch che ringraziamo 

Autrice:  Naiara Bellio

 

Di questo importante articolo  postiamo una traduzione effettuata con google translator per facilitarne la lettura. Per un uso professionale o di studio raccomandiamo di fare riferimento al testo originale alla fonte Algorithmwatch.

 

Una recente indagine di Tracking Exposed mostra che la filiale italiana di Glovo, Foodinho, registra l’ubicazione dei corrieri fuori turno e la condivide con soggetti non autorizzati. È stato inoltre scoperto che il fornitore dell’app di consegna ha creato un punteggio di credito “nascosto” per i propri ciclisti.

Negli ultimi anni, le autorità di regolamentazione e i sindacati hanno messo sotto esame Glovo e altre app di consegna. I fornitori di app sono sospettati di non impiegare i propri corrieri freelance e di privarli così dei loro diritti. L’introduzione della Legge Rider in Spagna due anni fa ha accelerato le azioni per regolamentare il loro status lavorativo e l’Unione Europea si sta muovendo nella stessa direzione con la sua proposta di Direttiva sui lavoratori su piattaforma .

Tuttavia, Glovo continua ad accumulare multe per milioni di euro per violazioni del diritto del lavoro. Non è chiaro quanto la società abbia effettivamente pagato poiché le multe sono sospese in attesa di appello. Glovo è accusato anche in Spagna di aver lasciato migliaia di corrieri con contratti di lavoro autonomo.

Leggi tutto

La polizia e le autorità competenti in materia di migrazione devono rispettare i diritti fondamentali quando utilizzano l’intelligenza artificiale

 

Fonte Algorithmwatch che ringraziamo

Poiché i sistemi di intelligenza artificiale sono sempre più utilizzati dalle forze dell’ordine, dalle autorità di controllo dell’immigrazione e dalle autorità di sicurezza nazionale, la legge sull’intelligenza artificiale dell’UE (legge sull’intelligenza artificiale) rappresenta un’urgente opportunità per prevenire danni, proteggere le persone dalle violazioni dei diritti e fornire limiti legali alle autorità per utilizzare l’intelligenza artificiale all’interno del contesto. confini dello Stato di diritto.

In Europa e nel mondo, i sistemi di intelligenza artificiale vengono sviluppati e utilizzati per forme dannose e discriminatorie di sorveglianza statale. Dall’uso della biometria per l’identificazione, il riconoscimento e la categorizzazione, ai sistemi predittivi in ​​varie capacità decisionali e di allocazione delle risorse , l’intelligenza artificiale nelle forze dell’ordine prende di mira in modo sproporzionato comunità già emarginate, mina i diritti legali e procedurali e consente la sorveglianza di massa.

Leggi tutto

Re: Il mio ordine è pronto? La vendetta dei fattorini a Grenoble

Fonte ARTE.TV  per vedere il video clicca QUI 

Niente capo, niente orari, niente luoghi di lavoro fissi: è la realtà in piena espansione dei cosiddetti fattorini “uberizzati”, la cui giornata di lavoro dipende dagli ordini inviati dagli utenti sui loro smartphone. Si tratta di impieghi flessibili, certo, ma anche precari, privi di uno stipendio garantito, delle ferie pagate, della copertura sanitaria e della possibilità di versare i contributi per la pensione. A Grenoble i lavoratori del settore non ci stanno più e cominciano a organizzarsi creando cooperative e sensibilizzando i colleghi con l’obiettivo di migliorare le proprie condizioni di lavoro.
Paese
Francia Anno 2022

Durata 33 min

Disponibile dal 05/07/2023 al 17/10/2025

For minorities, biased AI algorithms can damage almost every part of life

shutterstock.

Arshin Adib-Moghaddam, SOAS, University of London

Bad data does not only produce bad outcomes. It can also help to suppress sections of society, for instance vulnerable women and minorities.

This is the argument of my new book on the relationship between various forms of racism and sexism and artificial intelligence (AI). The problem is acute. Algorithms generally need to be exposed to data – often taken from the internet – in order to improve at whatever they do, such as screening job applications, or underwriting mortgages.

Leggi tutto

Sbirciando nella scatola nera. Rapporti algoritmici sulla responsabilità

 

Fonte :  Algorithmwatch che ringraziamo ( l’articolo è pubblicato con licenza Creative Commons 4). La traduzione in italiano è stata effettuata con l’assistenza di  google translator. Per un utilizzo professionale e/o di studio raccomandiamo vivamente  la lettura del testo originale : clicca QUI 

di Sonja Peteranderl

Fonte Algorithmwatch che ringraziamo

Punteggio delle frodi previdenziali, polizia predittiva o ChatGPT: i legislatori e i funzionari governativi di tutto il mondo fanno sempre più affidamento sugli algoritmi e la maggior parte di essi è completamente opaca. Algorithmic Accountability Reporting dà un’occhiata più da vicino a come funzionano e agli effetti che hanno. Ma solo pochissimi media conducono tali rapporti. Perché?

Le madri single sono state viste come un rischio particolarmente elevato. Nella città portuale olandese di Rotterdam, un algoritmo ha passato anni a setacciare i dati dei beneficiari del welfare per determinare quali di loro avevano maggiori probabilità di essere coinvolti in frodi sul welfare. Secondo un progetto di segnalazione congiunto condotto da Lighthouse Reports e dalla rivista WIRED , i fattori che hanno contribuito in modo significativo a identificare una persona dall’algoritmo come ad alto rischio di frode assistenziale includevano: essere una donna, essere un genitore, mancanza di padronanza della lingua locale e difficoltà a trovare un lavoro. In questo caso, i giornalisti sono stati in grado di acquisire e analizzare il modello di apprendimento automatico dalla città, insieme a dati di formazione e manuali utente. Ha fornito uno sguardo prezioso all’interno della sala macchine.

I governi e le autorità di tutto il mondo stanno implementando sempre più algoritmi e la maggior parte di essi è completamente opaca. Hanno un’influenza significativa su chi deve accettare tagli ai pagamenti del welfare, chi viene segnalato per un controllo fiscale, chi finisce nel radar della polizia, quanto dura una potenziale pena detentiva e chi riceve un prestito o un mutuo – e chi no. Gli algoritmi fanno previsioni sul futuro successo degli scolari, prevedono i rischi per la salute e determinano a quale contenuto dei social media viene data priorità.

Leggi tutto

Voto del Parlamento europeo sulla legge sull’IA: i legislatori hanno scelto di proteggere le persone dai danni dei sistemi di intelligenza artificiale

Fonte AlgorithmWatch

Dopo lunghi mesi di intensi negoziati, i membri del Parlamento europeo hanno votato la legge sull’intelligenza artificiale (AI Act) dell’UE. AlgorithmWatch plaude al Parlamento per aver rafforzato la protezione dei diritti fondamentali contro gli impatti negativi dell’intelligenza artificiale, come quello del riconoscimento facciale negli spazi pubblici. Tuttavia, il Parlamento ha perso l’opportunità di rafforzare la protezione per alcune persone che ne avrebbero più bisogno.

l voto storico segna la posizione del Parlamento europeo in vista dei negoziati del trilaterale con il Consiglio dell’UE (che comprende gli Stati membri dell’UE) e la Commissione.

Giornalismo investigativo e correttezza algoritmica

 

Riprendiamo da Algorithmwatch questo articolo (tradotto con google translator per facilitarne la lettura ) Per un uso professionale e/o di studio raccomandiamo di fare riferimento al testo alla fonte Algorithmwatch

AUTORE : Michele Loi

L’indagine sui sistemi che prendono decisioni sugli esseri umani, spesso definita segnalazione di responsabilità algoritmica, sta diventando sempre più importante. Per farlo bene, i giornalisti devono comprendere i concetti di equità e parzialità e lavorare in team. Un primer.

Il significato di ingiustizia algoritmica o bias algoritmico è spesso poco chiaro. Il termine bias ha un significato specifico in statistica ma “bias algoritmico” è usato, al giorno d’oggi, con un significato molto più ampio di quello. [1] In genere, gli algoritmi di apprendimento automatico includono una verità fondamentale o un’etichetta vera utilizzato per eseguire test statistici. Il bias algoritmico include anche il bias che influenza la cosiddetta “vera etichetta”. Supponiamo di addestrare un algoritmo per indovinare il voto che uno studente avrebbe ottenuto, in un esame che lo studente non sarà in grado di sostenere. L’algoritmo tenterà di fare questa ipotesi sulla base dei modelli che riconosce nei voti che gli insegnanti hanno dato agli studenti in passato. Se questi voti sono già distorti, anche un predittore che è “imparziale” secondo un certo standard statistico (utilizzando i voti effettivi come riferimento) può comunque essere considerato distorto.

Per evitare confusione, nel seguito verrà utilizzata l’espressione “ingiustizia” invece di “pregiudizio”. Quindi, il tema di questo breve articolo è l’ingiustizia algoritmica e perché è (o forse dovrebbe essere) un argomento così difficile da trattare e scrivere per i giornalisti.

Leggi tutto

Nuovo studio sull’intelligenza artificiale sul posto di lavoro: i lavoratori hanno bisogno di opzioni di controllo per garantire la co-determinazione

Fonte Algorithm Watch che ringraziamo. Postiamo la traduzione dell’articolo per facilitarne la lettura. Per un uso professionale o per studio si raccomanda di fare riferimento al testo originale alla fonte Algorithm Watch

 

I dipendenti devono essere inclusi nel processo di implementazione, se i cosiddetti sistemi di Intelligenza Artificiale (AI) vengono introdotti sul posto di lavoro. Tali sistemi sono già utilizzati da molte aziende per il processo decisionale automatizzato (ADM). Sono spesso basati su algoritmi di Machine Learning (ML). La bozza dell’Artificial Intelligence Act (AI Act) dell’Unione Europea è progettata per salvaguardare i diritti dei lavoratori, ma tali misure legislative non saranno sufficienti. Uno studio di AlgorithmWatch, finanziato dalla Fondazione Hans Böckler, spiega come la co-determinazione dei lavoratori possa essere praticamente raggiunta in questo senso.

Berlino, 16 marzo 2023. I sistemi ADM vengono utilizzati per scansionare automaticamente i CV durante il processo di assunzione, assegnare turni ai dipendenti, condurre valutazioni delle prestazioni lavorative, selezionare dipendenti per programmi educativi o promozioni e potrebbero persino essere utilizzati per decidere chi licenziare. Con l’aiuto delle applicazioni AI, è possibile rilevare le strutture sottostanti nei set di dati a portata di mano, il che consente di prevedere gli sviluppi futuri. Tali previsioni possono portare a decisioni che hanno conseguenze di vasta portata per il personale.

Leggi tutto

Un nuovo studio evidenzia il ruolo cruciale dei sindacati per la trasparenza algoritmica e la responsabilità nel mondo del lavoro

Abbiamo postato la traduzione in italiano di queso articolo tratto da ALGORITHMWATCH che ringraziamo. La traduzione è stata effettuata con google translator. Per un uso professionale di questo articolo raccomandiamo di fare riferimento all’originale in lingua inglese

Fonte : ALGORITHMWATCH

Il nostro rapporto mostra che i sindacati sono ora chiamati a concentrarsi su consigli e orientamenti pratici per consentire ai rappresentanti sindacali e ai negoziatori di affrontare le sfide che l’automazione pone ai lavoratori.

In tutto il mondo, i lavoratori e i loro rappresentanti si trovano di fronte all’automazione sul posto di lavoro basata su algoritmi, attraverso l’introduzione di specifiche procedure automatizzate per la gestione della forza lavoro, che portano a nuove forme di sorveglianza sul posto di lavoro e che possono compromettere i diritti dei lavoratori. Come mostra il nostro nuovo rapporto, i sindacati sono ora chiamati a concentrarsi su consigli e orientamenti pratici per consentire ai rappresentanti sindacali e ai negoziatori di affrontare le sfide che l’automazione pone ai lavoratori.

Il rapporto AlgorithmWatch, commissionato dalla Confederazione internazionale dei sindacati (ITUC), presenta i risultati di un esercizio di mappatura globale volto a identificare e delineare le risposte dei sindacati. Con l’accento sulla trasparenza e la responsabilità degli algoritmi nel mondo del lavoro, il rapporto include approfondimenti esemplari da 26 paesi selezionati.

“I sindacati riconoscono che la trasparenza e la responsabilità possono aiutare contro i rischi derivanti dall’automazione sul posto di lavoro”, spiega la dott.ssa Anne Mollen, Senior Policy and Advocacy Manager presso AlgorithmWatch e autrice principale del rapporto. “Ma la maggior parte delle loro attività è ancora incentrata sulla formulazione di linee guida e principi etici e sull’apprendimento dell’impatto dell’automazione nel mondo del lavoro”.
Secondo gli autori dello studio, il prossimo passo ora è iniziare a creare specifici strumenti pratici per supportare i rappresentanti dei lavoratori. Esistono le prime guide pratiche e progressi legislativi.

“Ora è il momento di promuovere un maggiore scambio e sostegno ai sindacati per far funzionare l’automazione nell’interesse dei dipendenti”, afferma Tim Noonan, direttore delle campagne e delle comunicazioni presso l’ITUC. “I sindacati devono passare dalla riflessione sui principi all’implementazione pratica e iniziare ad affrontare il modo in cui i lavoratori e i loro rappresentanti possono integrare in modo significativo il loro interesse quando i sistemi algoritmici vengono pianificati, sviluppati e messi in pratica”. Ciò include la costruzione di sistemi concreti e meccanismi di sicurezza che possono essere implementati a livello aziendale.

Leggi tutto

IWH:  Avvio di un programma di ricerca su intelligenza artificiale, lavoro e salute

Fonte IWH  – Institute for Work & Health che ringraziamo

Postiamo questo articolo che proviene dal sito dell‘Istituto per il Lavoro e la Salute (IWH) che ha sede a Toronto Canada, un’organizzazione indipendente e senza fini di lucro. La missione di IWH  è promuovere, proteggere e migliorare la sicurezza e la salute dei lavoratori conducendo ricerche attuabili apprezzate da datori di lavoro, lavoratori e responsabili politici. Nell’articolo si descrive il programma di ricerca promosso da IWH sugli impatti che la IA avrà sul lavoro e sulla vita delle persone. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

In occasione di un evento di lancio nell’ottobre 2022, le parti interessate del sistema di prevenzione esaminano le implicazioni dell’IA su SSL e le disuguaglianze dei lavoratori

Pubblicato: 5 dicembre 2022

Tuttavia, soprattutto, ciò che l’ IA significa per i lavoratori e i luoghi di lavoro non è ancora del tutto chiaro. Questo è stato uno dei messaggi principali ascoltati in un recente incontro di collaborazione tenuto da un gruppo di ricerca dell’Istituto per il lavoro e la salute ( IWH ). Nessuna ricerca che conosciamo ha preso una prospettiva di salute e sicurezza sul lavoro o applicato una lente di equità per esaminare l’ impatto delle applicazioni di intelligenza artificiale sul posto di lavoro sui lavoratori,  in particolare sui gruppi che già sperimentano altre forme di disuguaglianza, ha affermato il dott. Arif Jetha, scienziato IWH e ospite dell’evento.

Leggi tutto

L’anno in cui i sistemi automatizzati avrebbero potuto essere regolamentati: 2022 in rassegna

Fonte Algorithm Watch 

Riportiamo da Algorithm Watch   [che ringraziamo] questo articolo sulle difficoltà a  regolamentare  i sistemi automatizzati  che hanno già rilevanti influenze e tendenze ad invadere nella quotidianità la nostra vita di cittadini in moltissimi ambiti. Molte decisioni sono prese  dalle agenzie statuali e dalle corporation facendo riferimento a data base estratti dai nostri comportamenti quotidiani nel campo della salute, dei nostri consumi materiali e immateriali. L’articolo fa una rassegna degli eventi di questo annus orribilis  che sta finendo vedendoli dal punto di vista dell’impatto che hanno avuto le piattaforme e i sistemi digitali …. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

I

I sistemi automatizzati erano sorprendentemente assenti dalle storie principali di quest’anno. Sul fronte normativo, le istituzioni europee hanno intensificato i loro sforzi. Quanti cambiamenti possono aspettarsi gli europei dipende dalla risolutezza delle istituzioni, e la prima prova del 2023 è già iniziata.

Nel 2022, proprio come nel decennio precedente e nei decenni a venire, la storia di sviluppo più importante è stata il crollo del nostro clima. La prolungata assenza di precipitazioni sta sconvolgendo i mezzi di sussistenza nell’Africa orientale, mentre i raccolti nell’Africa occidentale sono stati distrutti da acquazzoni torrenziali. Centinaia di milioni hanno sofferto la fame quest’anno e la situazione sta peggiorando.

Che questo sviluppo non abbia nulla a che fare con i sistemi automatizzati potrebbe sorprendere. All’inizio del 2019, ad esempio, Microsoft ha annunciato che “l’uso dell’IA [potrebbe] risolvere la fame e la malnutrizione nel mondo [entro il 2030]”. L’affermazione potrebbe essere stata esagerata.

Nel complesso, come ho valutato nel 2020 , il contributo dell’Intelligenza Artificiale alla crisi climatica è stato l’accelerazione, non la mitigazione. Nei documenti normativi delle società petrolifere e del gas, che sono le principali fonti di emissioni di gas serra, le menzioni dell’IA non sono aumentate in modo significativo rispetto al 2021, ma rimangono ai massimi storici .

Leggi tutto

I sindacati dei trasporti accolgono con favore i progressi del Parlamento europeo sulla direttiva sui lavori su piattaforma

I lavoratori delle piattaforme si sono incontrati alla scuola estiva ITF Youth di quest’anno per discutere e pianificare la via da seguire per il settore

Il Parlamento europeo ha respinto i tentativi dell’industria delle piattaforme di indebolire una proposta di legge che conferisce ai propri lavoratori diritti dignitosi.

Il voto della scorsa settimana a favore del mantenimento di una forte presunzione di occupazione nella direttiva sui lavori su piattaforma da parte della commissione per l’occupazione e gli affari sociali del Parlamento europeo è stato accolto con grande favore dalla Federazione internazionale dei lavoratori dei trasporti (ITF).

“C’è stata una rissa tra i legislatori progressisti e la lobby delle piattaforme sulla formulazione di questa direttiva”, ha affermato Stephen Cotton, segretario generale dell’ITF. “Non dovrebbe esserci alcun margine di manovra per consentire alle piattaforme di eludere le proprie responsabilità di datori di lavoro: questo è ciò per cui hanno fatto pressioni e sono lieto di dire che la commissione per l’occupazione del Parlamento europeo ha impedito che ciò accadesse.

“Abbiamo avvertito che questa è la tattica delle piattaforme e dobbiamo ringraziare gli eurodeputati per aver resistito a questa pressione”.

Leggi tutto

Wolt: I sentimenti dei corrieri non sempre corrispondono al rapporto sulla trasparenza

La traduzione è stata effettuata con google translator. Per un uso professionale dell’articolo si raccomanda di fare riferimento al testo originale

Fonte : Algorithm Watch

di Nicolas Kayser-Bril
e Stefano Montali

Wolt è una società di consegne attiva principalmente nell’Europa post-socialista e in Scandinavia. Nell’agosto 2022 hanno pubblicato il loro primo ” rapporto algoritmico sulla trasparenza “. Il documento di 13 pagine, che non è stato verificato in modo indipendente, fornisce informazioni sugli algoritmi dell’azienda. Spiega come vengono presentati i ristoranti ai clienti e come il sistema tratta i motociclisti, noti anche come corrieri. Il rapporto si occupa solo di motociclisti freelance, non dipendenti.

Abbiamo chiesto a tre corrieri in Danimarca, Germania e Slovacchia se le informazioni presentate nel rapporto sono accurate.

Opinioni concordanti

Su molti punti lo è. Ad esempio, gli addetti alle consegne spesso affittano il loro account  a minori o migranti privi di documenti a pagamento. Wolt scrive che vieta severamente la pratica e i tre corrieri sono d’accordo. Hanno anche concordato di poter contattare facilmente il team di supporto di Wolt (i lavoratori di altre società di consegna, come Gorillas , spesso si lamentano del problema).

Leggi tutto