The algorithmic administration: automated decision-making in the public sector

Per leggere l’articolo tradotto in italiano clicca l’icona blu google translate  (la quarta da sinistra in fondo all’articolo)   . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

 

 

Fonte: Algoritmwatch.com  che ringraziamo

Autore:  Kilian-Vieth-Ditlmann  

vieth-ditlmann@algorithmwatch.org

 

Automating administration processes promises efficiency. Yet the procedures often put vulnerable people at a disadvantage, as shown by a number of examples throughout Europe. We’ll explain why using automation systems in the domain of public administration can be especially problematic and how risks may be detected at an early stage.

In its coalition agreement, Germany’s Federal Government has declared its commitment to modernize governmental structures and processes. To realize this goal, it plans to deploy AI systems for automated decision-making (ADM) in public institutions. These are intended to automatically process tax reports and social welfare applications, to recognize fraud attempts, to create job placement profiles for unemployed clients, to support policing, and to answer citizens’ enquiries by using chat bots. At best, AI can relieve authorities and improve their service.

So far, so good. Some European countries are already far more advanced in their digitalization processes than Germany. Yet by looking at these countries, we can observe possible problems caused by automatization in this sector.

System errors

Soizic Pénicaud organized trainings for people in close contact with beneficiaries for the French welfare management. Once, such a case worker told her about people having trouble with the request handling system. The only advice she would give them was “there’s nothing you can do, it’s the algorithm’s fault.” Pénicaud, a digital rights researcher, was taken aback. Not only did she know that algorithmic systems could be held accountable, she also knew how to do it.

Leggi tutto

Gaza update: the questionable precision and ethics of Israel’s AI warfare machine

Per leggere l’articolo tradotto in italiano clicca l’icona blu google translate  (la quarta da sinistra in fondo all’articolo)   . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

 

Jonathan Este, The Conversation

The Israel Defense Forces (IDF) have reportedly been conducting operations in the Beit Hanoun area of the northern Gaza Strip conducting raids on Hamas and Islamic Jihad targets. The IDF says it has been working on information gleaned from questioning Palestinian fighters captured in the fighting.

According to a report in the Jerusalem Post on April 17, the Palestinian fighters were hiding out in schools in the area. A warning was issued to civilians to evacuate the buildings before the Israeli military moved in, the IDF said.

Meanwhile, ceasefire talks have been suspended as Israel reportedly prepares to move on Rafah, where more than a million Palestinians remain trapped. The Guardian reported this week that the IDF had confirmed buying 40,000 tents for evacuees.


Gaza Update is available as a fortnightly email newsletter. Click here to get our updates directly in your inbox.


When it comes to how the IDF identifies its targets, investigative journalists in Jerusalem have published reports recently delving into the use of artificial intelligence (AI) by Israel’s military and intelligence agencies in its conduct of the war. The investigation, by online Israeli magazines +927 and Local Call examined the use of an AI programme called “Lavender”. This examines a range of data to identify possible Hamas fighters. As Elke Schwarz, a reader in political theory at Queen Mary University of London, explains, this could include social network connections and family relationships.

ISW map showing military activity on the Gaza Strip, April 17.
Military activity on the Gaza Strip, April 17.
Institute for the Study of War

Schwarz writes here: “The category of what constitutes relevant features of a target can be set as stringently or as loosely as is desired. In the case of Lavender, it seems one of the key equations was ‘male equals militant’.” Shades, she says, of the US doctrine during the drone wars of Barack Obama’s administration that apparently held that “all military-aged males are potential targets”.

Needless to say, the potential for misidentification is enormous. It’s important to note that the IDF is not the only military to be working with AI in this way. The US Department of Defense is known to be working on what it calls “Project Maven”, which – we’re told – allows the user to sign off on up to 80 targets an hour, apparently barking out the prompt to “accept, accept, accept”. As the 1970s Milgram experiments into obedience to authority suggested, controversially, humans – particularly men – will perform actions that are tantamount to torture if directed to with sufficient authority.

These are also not the first reports to emerge about Israel’s alleged use of AI to identify targets. Natasha Karner, a researcher into emerging technologies and global security at RMIT University in Australia, writes that the IDF was boasting of winning the first “AI war” in its’ intensive 11-day Operation Guardian of the Walls campaign in 2021.

But one function of the way the IDF is harnessing Lavender in this current conflict is its use alongside other systems. One called “Habsora” (or Gospel) tells the system that a building potentially houses a suspected fighter and another, apparently called “Where’s Daddy?”, reports on when the target returns to the building, which may or may not also contain the fighter’s family.

 

The Iranian dimension

Away from the charnel house that is the Gaza Strip, the focus has been on the aftermath of Israel’s strike on the Iranian embassy in Baghdad on April 1. The strike killed seven members of Iran’s Islamic Islamic Revolutionary Guard Corps, including General Mohammad Reza Zahedi, the Quds Force commander overseeing Syria and Lebanon.

According to Scott Lucas, an expert in Middle East conflicts at University
College Dublin, Israel has been assassinating Iran’s top military and intelligence brass for years. But what set the April 1 attack apart from the rest was that this was an attack on a diplomatic premises, ruled by international law to be “inviolable”. As is his wont, Iran’s supreme leader, Ayatollah Ali Khamenei, vowed revenge, declaring: “The Zionist regime will be punished by the hands of our brave men. We will make it regret this crime and others it has committed.”

Writing on April 11, Lucas kindly agreed to answer our questions on whether this would be likely to escalate into an all-out regional conflict. He felt that Khamenei’s rhetoric was very much performative. It was meant for both internal consumption, to rally a restless population suffering from a parlous economy crippled by sanctions and angry at the regime’s oppression, and to project strength in the region.

He speculated that Iran could launch an air assault, but this could undo Tehran’s diplomatic efforts over months to portray Iran as much of a victim as Gaza and to try to sow division between Israel and the US. And this was very much how it was to turn out when Iran’s drones and missiles flew last weekend.

Leggi tutto

Israel accused of using AI to target thousands in Gaza, as killer algorithms outpace international law

Per leggere l’articolo tradotto in italiano clicca l’icona blu google translate  (la quarta da sinistra in fondo all’articolo)   . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

 

 

Natasha Karner, RMIT University

The Israeli army used a new artificial intelligence (AI) system to generate lists of tens of thousands of human targets for potential airstrikes in Gaza, according to a report published last week. The report comes from the nonprofit outlet +972 Magazine, which is run by Israeli and Palestinian journalists.

The report cites interviews with six unnamed sources in Israeli intelligence. The sources claim the system, known as Lavender, was used with other AI systems to target and assassinate suspected militants – many in their own homes – causing large numbers of civilian casualties.

According to another report in the Guardian, based on the same sources as the +972 report, one intelligence officer said the system “made it easier” to carry out large numbers of strikes, because “the machine did it coldly”.

As militaries around the world race to use AI, these reports show us what it may look like: machine-speed warfare with limited accuracy and little human oversight, with a high cost for civilians.

Military AI in Gaza is not new

The Israeli Defence Force denies many of the claims in these reports. In a statement to the Guardian, it said it “does not use an artificial intelligence system that identifies terrorist operatives”. It said Lavender is not an AI system but “simply a database whose purpose is to cross-reference intelligence sources”.

But in 2021, the Jerusalem Post reported an intelligence official saying Israel had just won its first “AI war” – an earlier conflict with Hamas – using a number of machine learning systems to sift through data and produce targets. In the same year a book called The Human–Machine Team, which outlined a vision of AI-powered warfare, was published under a pseudonym by an author recently revealed to be the head of a key Israeli clandestine intelligence unit.

Last year, another +972 report said Israel also uses an AI system called Habsora to identify potential militant buildings and facilities to bomb. According the report, Habsora generates targets “almost automatically”, and one former intelligence officer described it as “a mass assassination factory”.

The recent +972 report also claims a third system, called Where’s Daddy?, monitors targets identified by Lavender and alerts the military when they return home, often to their family.

Death by algorithm

Several countries are turning to algorithms in search of a military edge. The US military’s Project Maven supplies AI targeting that has been used in the Middle East and Ukraine. China too is rushing to develop AI systems to analyse data, select targets, and aid in decision-making.

Proponents of military AI argue it will enable faster decision-making, greater accuracy and reduced casualties in warfare.

Yet last year, Middle East Eye reported an Israeli intelligence office said having a human review every AI-generated target in Gaza was “not feasible at all”. Another source told +972 they personally “would invest 20 seconds for each target” being merely a “rubber stamp” of approval.

The Israeli Defence Force response to the most recent report says “analysts must conduct independent examinations, in which they verify that the identified targets meet the relevant definitions in accordance with international law”.

Leggi tutto

Spanish inmates not to be automatically monitored in fear of AI Act

Per leggere l’articolo tradotto in italiano clicca l’icona blu (la quarta da sinistra in fondo all’articolo)  google translate . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

Fonte : Algorithm Watch

Autore : By Martí Blancho

 

Spanish region Catalonia’s government approved the use of an Artificial Intelligence-based software to monitor inmates and interpret their behavior. Partially funded by the European Union, the system was to be implemented at the Mas d’Enric prison near Tarragona, a city south of Barcelona, and extended to other regional prisons. Ultimately, it wasn’t.

The halt to the system’s implementation came as a surprise even to government members. In January 2024, Catalan government’s Justice Advisor Gemma Ubasart announced in a plenary session that “the public administration could not be oblivious to the debate” around the new European regulation on Artificial Intelligence – the AI Act was ratified by the European Parliament in March – and that it was “more prudent not to continue with this project.”

Eight months earlier, the justice department had launched a pilot project in the Mas d’Enric prison and allocated 200,000 euros to the French company Inetum that was supposed to supply the software. The illustrative timeline of the public tender stated that the training phase would start in October 2023. However, the project never reached that stage.

The regional Department of Justice (DOJ) claims that the project was in a “very preliminary planning phase” and “had not yet been implemented.” In fact, there was still “a data protection impact analysis” pending when the administration began the contract termination process, as briefly explained in response to our freedom of information (FOI) request.

The DOJ did not provide further details on the algorithmic models used, the databases to which they would have access, or the data that would have been used to create the risk profiles. The department justifies its refusal on the grounds that “the program has not yet been developed,” making it seem like the administration had only a rough idea of how it would work.

Leggi tutto

La surveillance numérique est omniprésente en Chine. Voici comment les citoyens y font face

 

Per leggere l’articolo tradotto in italiano clicca l’icona blu (la quarta da sinistra in fondo all’articolo)  google translate . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

 

 

Dans le métro de Pékin, des usagers consultent leur téléphone intelligent, où on s’informe, se divertit, échange des messages, personnels et professionnels. Le gouvernement chinois a accès à toutes les données collectées. Comment les citoyens vivent-ils cette surveillance numérique constante?
(Shutterstock)

Ariane Ollier-Malaterre, Université du Québec à Montréal (UQAM)

Pensez-vous souvent aux traces numériques que vous laissez quand vous parcourez le web, achetez en ligne, commentez sur les réseaux sociaux ou passez devant une caméra à reconnaissance faciale ?

La surveillance des citoyens par les États se développe dans le monde entier, mais c’est une réalité de la vie quotidienne en Chine, où elle a des racines historiques profondes.

En Chine, on ne paie presque plus rien en liquide. Des « super-plateformes » rendent la vie facile : on utilise Alipay ou WeChat Pay pour payer un trajet de métro ou de bus, louer un vélo, héler un taxi, faire des achats en ligne, réserver des billets de train et de spectacle, partager l’addition au restaurant ou régler ses impôts et ses factures d’électricité.

Sur ces mêmes plates-formes, on consulte les nouvelles, on se divertit, on échange d’innombrables messages texte, audio et vidéo, personnels et professionnels. Tout ceci est lié au numéro de téléphone de l’utilisateur, lui-même enregistré sous son identité. Le gouvernement a accès aux données collectées par Baidu, Alibaba, Tencent, Xiaomi et autres opérateurs.

Les listes noires (citoyens indignes de confiance), listes rouges (citoyens méritoires) et les systèmes de « crédit social » privés et publics ont fait couler beaucoup d’encre. Pourtant, les travaux récents ont montré que ces systèmes sont encore fragmentés et dispersés sur le plan de la collecte et de l’analyse des données. Ils sont aussi plus artisanaux qu’algorithmiques, avec des processus parfois manuels d’entrée des données et peu de capacités à construire des profils intégrés de citoyens en compilant l’ensemble des données disponibles.

Leggi tutto

L’approccio europeo alla regolamentazione dell’IA: comprendere la grande tecnologia e gli estremisti della sicurezza

Fonte Algorithmwatch che ringraziamo 

[ la traduzione è automatica tramite google, per un uso di studio o di ricerca raccomandiamo di fare riferimento al testo originale ]

L’Europa sta per adottare due importanti regolamenti sull’intelligenza artificiale: la legge sull’intelligenza artificiale dell’UE e la convenzione sull’intelligenza artificiale del Consiglio d’Europa. Tuttavia, sebbene entrambi i regolamenti fossero inizialmente pensati per ribaltare la situazione sulla Big Tech e per proteggere efficacemente le persone dall’abuso della tecnologia IA da parte dei governi, gli interessi delle aziende tecnologiche e dei sostenitori della sicurezza dei governi potrebbero prevalere.

Nel comitato sull’intelligenza artificiale del Consiglio d’Europa che si riunisce questa settimana a Strasburgo, i negoziatori discutono le opzioni che consentirebbero agli Stati di limitare l’applicabilità del trattato sull’intelligenza artificiale alle autorità pubbliche e di mantenere le società private ampiamente fuori dal campo di applicazione. Nell’UE, l’accordo di compromesso sulla legge sull’AI lascerebbe molte persone in situazioni vulnerabili senza una protezione affidabile contro la sorveglianza e il controllo del governo, esentando allo stesso tempo le aziende da una serie di doveri.

Open AI, Google/Alphabet, Microsoft, Amazon, Meta: questi sono i nomi che beneficiano del grande clamore attorno all’intelligenza artificiale innescato nel novembre 2022, con il rilascio di ChatGPT. Solo poco dopo, questi sono stati anche i nomi dietro le forti richieste di una regolamentazione dell’IA, cioè di norme legali su come questa tecnologia viene sviluppata e utilizzata. Le Big Tech e i loro alleati tendono a spiegare le loro richieste di norme legali sull’intelligenza artificiale indicando scenari futuri non realistici, come ad esempio che l’intelligenza artificiale potrebbe un giorno assumere il controllo sull’umanità.

Leggi tutto

Servizio di consegna cibo Glovo: tracciamento della posizione privata dei corrieri e altre violazioni

Fonte Algorithmwatch che ringraziamo 

Autrice:  Naiara Bellio

 

Di questo importante articolo  postiamo una traduzione effettuata con google translator per facilitarne la lettura. Per un uso professionale o di studio raccomandiamo di fare riferimento al testo originale alla fonte Algorithmwatch.

 

Una recente indagine di Tracking Exposed mostra che la filiale italiana di Glovo, Foodinho, registra l’ubicazione dei corrieri fuori turno e la condivide con soggetti non autorizzati. È stato inoltre scoperto che il fornitore dell’app di consegna ha creato un punteggio di credito “nascosto” per i propri ciclisti.

Negli ultimi anni, le autorità di regolamentazione e i sindacati hanno messo sotto esame Glovo e altre app di consegna. I fornitori di app sono sospettati di non impiegare i propri corrieri freelance e di privarli così dei loro diritti. L’introduzione della Legge Rider in Spagna due anni fa ha accelerato le azioni per regolamentare il loro status lavorativo e l’Unione Europea si sta muovendo nella stessa direzione con la sua proposta di Direttiva sui lavoratori su piattaforma .

Tuttavia, Glovo continua ad accumulare multe per milioni di euro per violazioni del diritto del lavoro. Non è chiaro quanto la società abbia effettivamente pagato poiché le multe sono sospese in attesa di appello. Glovo è accusato anche in Spagna di aver lasciato migliaia di corrieri con contratti di lavoro autonomo.

Leggi tutto

La polizia e le autorità competenti in materia di migrazione devono rispettare i diritti fondamentali quando utilizzano l’intelligenza artificiale

 

Fonte Algorithmwatch che ringraziamo

Poiché i sistemi di intelligenza artificiale sono sempre più utilizzati dalle forze dell’ordine, dalle autorità di controllo dell’immigrazione e dalle autorità di sicurezza nazionale, la legge sull’intelligenza artificiale dell’UE (legge sull’intelligenza artificiale) rappresenta un’urgente opportunità per prevenire danni, proteggere le persone dalle violazioni dei diritti e fornire limiti legali alle autorità per utilizzare l’intelligenza artificiale all’interno del contesto. confini dello Stato di diritto.

In Europa e nel mondo, i sistemi di intelligenza artificiale vengono sviluppati e utilizzati per forme dannose e discriminatorie di sorveglianza statale. Dall’uso della biometria per l’identificazione, il riconoscimento e la categorizzazione, ai sistemi predittivi in ​​varie capacità decisionali e di allocazione delle risorse , l’intelligenza artificiale nelle forze dell’ordine prende di mira in modo sproporzionato comunità già emarginate, mina i diritti legali e procedurali e consente la sorveglianza di massa.

Leggi tutto

For minorities, biased AI algorithms can damage almost every part of life

shutterstock.

Arshin Adib-Moghaddam, SOAS, University of London

Bad data does not only produce bad outcomes. It can also help to suppress sections of society, for instance vulnerable women and minorities.

This is the argument of my new book on the relationship between various forms of racism and sexism and artificial intelligence (AI). The problem is acute. Algorithms generally need to be exposed to data – often taken from the internet – in order to improve at whatever they do, such as screening job applications, or underwriting mortgages.

Leggi tutto

Sbirciando nella scatola nera. Rapporti algoritmici sulla responsabilità

 

Fonte :  Algorithmwatch che ringraziamo ( l’articolo è pubblicato con licenza Creative Commons 4). La traduzione in italiano è stata effettuata con l’assistenza di  google translator. Per un utilizzo professionale e/o di studio raccomandiamo vivamente  la lettura del testo originale : clicca QUI 

di Sonja Peteranderl

Fonte Algorithmwatch che ringraziamo

Punteggio delle frodi previdenziali, polizia predittiva o ChatGPT: i legislatori e i funzionari governativi di tutto il mondo fanno sempre più affidamento sugli algoritmi e la maggior parte di essi è completamente opaca. Algorithmic Accountability Reporting dà un’occhiata più da vicino a come funzionano e agli effetti che hanno. Ma solo pochissimi media conducono tali rapporti. Perché?

Le madri single sono state viste come un rischio particolarmente elevato. Nella città portuale olandese di Rotterdam, un algoritmo ha passato anni a setacciare i dati dei beneficiari del welfare per determinare quali di loro avevano maggiori probabilità di essere coinvolti in frodi sul welfare. Secondo un progetto di segnalazione congiunto condotto da Lighthouse Reports e dalla rivista WIRED , i fattori che hanno contribuito in modo significativo a identificare una persona dall’algoritmo come ad alto rischio di frode assistenziale includevano: essere una donna, essere un genitore, mancanza di padronanza della lingua locale e difficoltà a trovare un lavoro. In questo caso, i giornalisti sono stati in grado di acquisire e analizzare il modello di apprendimento automatico dalla città, insieme a dati di formazione e manuali utente. Ha fornito uno sguardo prezioso all’interno della sala macchine.

I governi e le autorità di tutto il mondo stanno implementando sempre più algoritmi e la maggior parte di essi è completamente opaca. Hanno un’influenza significativa su chi deve accettare tagli ai pagamenti del welfare, chi viene segnalato per un controllo fiscale, chi finisce nel radar della polizia, quanto dura una potenziale pena detentiva e chi riceve un prestito o un mutuo – e chi no. Gli algoritmi fanno previsioni sul futuro successo degli scolari, prevedono i rischi per la salute e determinano a quale contenuto dei social media viene data priorità.

Leggi tutto

Voto del Parlamento europeo sulla legge sull’IA: i legislatori hanno scelto di proteggere le persone dai danni dei sistemi di intelligenza artificiale

Fonte AlgorithmWatch

Dopo lunghi mesi di intensi negoziati, i membri del Parlamento europeo hanno votato la legge sull’intelligenza artificiale (AI Act) dell’UE. AlgorithmWatch plaude al Parlamento per aver rafforzato la protezione dei diritti fondamentali contro gli impatti negativi dell’intelligenza artificiale, come quello del riconoscimento facciale negli spazi pubblici. Tuttavia, il Parlamento ha perso l’opportunità di rafforzare la protezione per alcune persone che ne avrebbero più bisogno.

l voto storico segna la posizione del Parlamento europeo in vista dei negoziati del trilaterale con il Consiglio dell’UE (che comprende gli Stati membri dell’UE) e la Commissione.

Giornalismo investigativo e correttezza algoritmica

 

Riprendiamo da Algorithmwatch questo articolo (tradotto con google translator per facilitarne la lettura ) Per un uso professionale e/o di studio raccomandiamo di fare riferimento al testo alla fonte Algorithmwatch

AUTORE : Michele Loi

L’indagine sui sistemi che prendono decisioni sugli esseri umani, spesso definita segnalazione di responsabilità algoritmica, sta diventando sempre più importante. Per farlo bene, i giornalisti devono comprendere i concetti di equità e parzialità e lavorare in team. Un primer.

Il significato di ingiustizia algoritmica o bias algoritmico è spesso poco chiaro. Il termine bias ha un significato specifico in statistica ma “bias algoritmico” è usato, al giorno d’oggi, con un significato molto più ampio di quello. [1] In genere, gli algoritmi di apprendimento automatico includono una verità fondamentale o un’etichetta vera utilizzato per eseguire test statistici. Il bias algoritmico include anche il bias che influenza la cosiddetta “vera etichetta”. Supponiamo di addestrare un algoritmo per indovinare il voto che uno studente avrebbe ottenuto, in un esame che lo studente non sarà in grado di sostenere. L’algoritmo tenterà di fare questa ipotesi sulla base dei modelli che riconosce nei voti che gli insegnanti hanno dato agli studenti in passato. Se questi voti sono già distorti, anche un predittore che è “imparziale” secondo un certo standard statistico (utilizzando i voti effettivi come riferimento) può comunque essere considerato distorto.

Per evitare confusione, nel seguito verrà utilizzata l’espressione “ingiustizia” invece di “pregiudizio”. Quindi, il tema di questo breve articolo è l’ingiustizia algoritmica e perché è (o forse dovrebbe essere) un argomento così difficile da trattare e scrivere per i giornalisti.

Leggi tutto

“Una cultura diversa da quella occidentale”: come la polizia basca utilizza un algoritmo per la violenza di genere

 

Postiamo, per facilitare la lettura,  questa traduzione  effettuata con l’assistenza di google translator dell’articolo di Algorithm Watch “Una cultura diversa da quella occidentale”: come la polizia basca utilizza un algoritmo per la violenza di genere,  . Per un uso di studio o professionale raccomandiamo di fare riferimento al testo originale alla fonte . editor

 

Fonte Algorithm Watch  che ringraziamo 

Autrice :  Naiara Bellio *

 

La polizia dei Paesi Baschi utilizza un algoritmo per prevedere la violenza di genere. L’accuratezza dello strumento non è chiara e lascia molto spazio alle opinioni personali degli agenti di polizia.

 

Gli strumenti per prevedere il rischio in situazioni di conflitto sono all’ordine del giorno. Esistono e sono in uso da decenni, in gran parte anticipando l’entusiasmo per l’Intelligenza Artificiale. Molti di loro non usano il Machine Learning. Invece, si basano su un questionario psicologico progettato e valutato da persone, ciascuna con i propri pregiudizi e pregiudizi.

Leggi tutto

Nuovo studio sull’intelligenza artificiale sul posto di lavoro: i lavoratori hanno bisogno di opzioni di controllo per garantire la co-determinazione

Fonte Algorithm Watch che ringraziamo. Postiamo la traduzione dell’articolo per facilitarne la lettura. Per un uso professionale o per studio si raccomanda di fare riferimento al testo originale alla fonte Algorithm Watch

 

I dipendenti devono essere inclusi nel processo di implementazione, se i cosiddetti sistemi di Intelligenza Artificiale (AI) vengono introdotti sul posto di lavoro. Tali sistemi sono già utilizzati da molte aziende per il processo decisionale automatizzato (ADM). Sono spesso basati su algoritmi di Machine Learning (ML). La bozza dell’Artificial Intelligence Act (AI Act) dell’Unione Europea è progettata per salvaguardare i diritti dei lavoratori, ma tali misure legislative non saranno sufficienti. Uno studio di AlgorithmWatch, finanziato dalla Fondazione Hans Böckler, spiega come la co-determinazione dei lavoratori possa essere praticamente raggiunta in questo senso.

Berlino, 16 marzo 2023. I sistemi ADM vengono utilizzati per scansionare automaticamente i CV durante il processo di assunzione, assegnare turni ai dipendenti, condurre valutazioni delle prestazioni lavorative, selezionare dipendenti per programmi educativi o promozioni e potrebbero persino essere utilizzati per decidere chi licenziare. Con l’aiuto delle applicazioni AI, è possibile rilevare le strutture sottostanti nei set di dati a portata di mano, il che consente di prevedere gli sviluppi futuri. Tali previsioni possono portare a decisioni che hanno conseguenze di vasta portata per il personale.

Leggi tutto

Risky business: How do we get a grip on social media algorithms?

Fonte : Algorithmwatch

licenza Creative Commons Attribution 4.0 International (CC BY 4.0) .

     

Since personalized recommender systems have the power to influence what we think and do, we need to understand the risks they pose to our society. The DSA’s new transparency regime is a promising step forward, but we still need external, adversarial audits by independent research facilities.

If social media is the water we’re swimming in, there are more than a few reasons to be alarmed by its undercurrents. Hate speech is trending on Twitter following Elon Musk’s chaotic takeover of the company. TikTok—the most influential platform among teenage users—bombards vulnerable young people with content promoting eating disorders and self-harm. And despite early warnings, a range of platforms including Facebook and YouTube continued carrying extremist content that helped enable the January 8th antidemocratic insurrection in Brazil—and turned a profit in doing so.

These examples are the results of a growing collection of public interest research that call out social media platforms for their role in facilitating the spread of toxic content. Now, thanks to the Digital Services Act (DSA), there is expanded scope for researchers seeking to formally access and make sense of platforms’ internal data. This kind of research will be crucial to help identify risks emerging from online platforms.

While the DSA’s new transparency regime is a promising step forward, it will take some time before we know its true effectiveness. Meanwhile, our collective ability to hold platforms accountable will continue to rely on the work of adversarial researchers—researchers who are capable and willing to employ tools that shine a light on the inner workings of platforms’ opaque algorithmic systems.

What kind of social media algorithms are we talking about?

Leggi tutto

IWH:  Avvio di un programma di ricerca su intelligenza artificiale, lavoro e salute

Fonte IWH  – Institute for Work & Health che ringraziamo

Postiamo questo articolo che proviene dal sito dell‘Istituto per il Lavoro e la Salute (IWH) che ha sede a Toronto Canada, un’organizzazione indipendente e senza fini di lucro. La missione di IWH  è promuovere, proteggere e migliorare la sicurezza e la salute dei lavoratori conducendo ricerche attuabili apprezzate da datori di lavoro, lavoratori e responsabili politici. Nell’articolo si descrive il programma di ricerca promosso da IWH sugli impatti che la IA avrà sul lavoro e sulla vita delle persone. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

In occasione di un evento di lancio nell’ottobre 2022, le parti interessate del sistema di prevenzione esaminano le implicazioni dell’IA su SSL e le disuguaglianze dei lavoratori

Pubblicato: 5 dicembre 2022

Tuttavia, soprattutto, ciò che l’ IA significa per i lavoratori e i luoghi di lavoro non è ancora del tutto chiaro. Questo è stato uno dei messaggi principali ascoltati in un recente incontro di collaborazione tenuto da un gruppo di ricerca dell’Istituto per il lavoro e la salute ( IWH ). Nessuna ricerca che conosciamo ha preso una prospettiva di salute e sicurezza sul lavoro o applicato una lente di equità per esaminare l’ impatto delle applicazioni di intelligenza artificiale sul posto di lavoro sui lavoratori,  in particolare sui gruppi che già sperimentano altre forme di disuguaglianza, ha affermato il dott. Arif Jetha, scienziato IWH e ospite dell’evento.

Leggi tutto

L’anno in cui i sistemi automatizzati avrebbero potuto essere regolamentati: 2022 in rassegna

Fonte Algorithm Watch 

Riportiamo da Algorithm Watch   [che ringraziamo] questo articolo sulle difficoltà a  regolamentare  i sistemi automatizzati  che hanno già rilevanti influenze e tendenze ad invadere nella quotidianità la nostra vita di cittadini in moltissimi ambiti. Molte decisioni sono prese  dalle agenzie statuali e dalle corporation facendo riferimento a data base estratti dai nostri comportamenti quotidiani nel campo della salute, dei nostri consumi materiali e immateriali. L’articolo fa una rassegna degli eventi di questo annus orribilis  che sta finendo vedendoli dal punto di vista dell’impatto che hanno avuto le piattaforme e i sistemi digitali …. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

I

I sistemi automatizzati erano sorprendentemente assenti dalle storie principali di quest’anno. Sul fronte normativo, le istituzioni europee hanno intensificato i loro sforzi. Quanti cambiamenti possono aspettarsi gli europei dipende dalla risolutezza delle istituzioni, e la prima prova del 2023 è già iniziata.

Nel 2022, proprio come nel decennio precedente e nei decenni a venire, la storia di sviluppo più importante è stata il crollo del nostro clima. La prolungata assenza di precipitazioni sta sconvolgendo i mezzi di sussistenza nell’Africa orientale, mentre i raccolti nell’Africa occidentale sono stati distrutti da acquazzoni torrenziali. Centinaia di milioni hanno sofferto la fame quest’anno e la situazione sta peggiorando.

Che questo sviluppo non abbia nulla a che fare con i sistemi automatizzati potrebbe sorprendere. All’inizio del 2019, ad esempio, Microsoft ha annunciato che “l’uso dell’IA [potrebbe] risolvere la fame e la malnutrizione nel mondo [entro il 2030]”. L’affermazione potrebbe essere stata esagerata.

Nel complesso, come ho valutato nel 2020 , il contributo dell’Intelligenza Artificiale alla crisi climatica è stato l’accelerazione, non la mitigazione. Nei documenti normativi delle società petrolifere e del gas, che sono le principali fonti di emissioni di gas serra, le menzioni dell’IA non sono aumentate in modo significativo rispetto al 2021, ma rimangono ai massimi storici .

Leggi tutto

Wolt: I sentimenti dei corrieri non sempre corrispondono al rapporto sulla trasparenza

La traduzione è stata effettuata con google translator. Per un uso professionale dell’articolo si raccomanda di fare riferimento al testo originale

Fonte : Algorithm Watch

di Nicolas Kayser-Bril
e Stefano Montali

Wolt è una società di consegne attiva principalmente nell’Europa post-socialista e in Scandinavia. Nell’agosto 2022 hanno pubblicato il loro primo ” rapporto algoritmico sulla trasparenza “. Il documento di 13 pagine, che non è stato verificato in modo indipendente, fornisce informazioni sugli algoritmi dell’azienda. Spiega come vengono presentati i ristoranti ai clienti e come il sistema tratta i motociclisti, noti anche come corrieri. Il rapporto si occupa solo di motociclisti freelance, non dipendenti.

Abbiamo chiesto a tre corrieri in Danimarca, Germania e Slovacchia se le informazioni presentate nel rapporto sono accurate.

Opinioni concordanti

Su molti punti lo è. Ad esempio, gli addetti alle consegne spesso affittano il loro account  a minori o migranti privi di documenti a pagamento. Wolt scrive che vieta severamente la pratica e i tre corrieri sono d’accordo. Hanno anche concordato di poter contattare facilmente il team di supporto di Wolt (i lavoratori di altre società di consegna, come Gorillas , spesso si lamentano del problema).

Leggi tutto

Lettera aperta: il governo tedesco dovrebbe difendere un forte divieto di sorveglianza biometrica nei negoziati del Consiglio dell’UE in merito alla legge sull’IA

Pubblichiamo questa lettera aperta che diverse Associazioni della società civile tedesca hanno inviato al loro governo per richiedere una iniziativa energica verso il Consiglio della UE in materia di contenimento dell’uso della sorveglianza biometrica per contrastare una deriva verso la sorveglianza di massa.

Fonte AlgorithmWatch 

Open letter: the German government should stand up for a strong ban on biometric surveillance in the Council of EU negotiations regarding the AI Act  

AlgorithmWatch and 23 other civil society organizations are calling on the German government to stand up in the negotiations on the AI Act and advocate for a strong ban on biometric surveillance as mirrored in its coalition treaty.

The Council of the EU, comprised by the member states, is at full speed towards an agreement on the Artificial Intelligence Act (AI Act) and is aiming to reach a general approach by early December. However, the ban in the Act on biometric identification practices which can lead to mass surveillance – in its current form – entails dangerous loopholes and limitations.

Leggi tutto

La Russia usa il riconoscimento facciale per dare la caccia agli evasori alla leva

Autrice

Moscow authorities are using the city’s video surveillance system with facial recognition technology to track down and detain draftees seeking to evade mobilization for Russia’s war on Ukraine.

BBC Russian and some Telegram channels reported that at least seven men have been detained over the past month by law enforcement officers after the city’s facial recognition system flagged them to the police as “draft dodgers.” Following their detention, the men were brought to a police station and then a military enlistment office. While some were released as they were not eligible for the draft, at least two were told to go to the front line.

Russian law does not meaningfully restrict the use of facial recognition technology, so there’s little to prevent misuse and few, if any, protections for those under surveillance.

Leggi tutto

Capi orribili: come gli algoritmi managers stanno prendendo il controllo dell’ufficio

Un articolo da TheConversation di grande interesse. Per facilitare la lettura al fondo dell’articolo in lingua originale abbiamo postato una traduzione automatica google in italiano. Per qualsiasi utilizzo e riferimento vale la versione in lingua originale.

Horrible bosses: how algorithm managers are taking over the office

Monster Ztudio/Shutterstock

Robert Donoghue, University of Bath and Tiago Vieira, European University Institute

The 1999 cult classic film Office Space depicts Peter’s dreary life as a cubicle-dwelling software engineer. Every Friday, Peter tries to avoid his boss and the dreaded words: “I’m going to need you to go ahead and come in tomorrow.”

This scene is still popular on the internet nearly 25 years later because it captures troubling aspects of the employment relationship – the helplessness Peter feels, the fake sympathy his boss intones when issuing this directive, the never-ending demand for greater productivity.

There is no shortage of pop culture depictions of horrible bosses. There is even a film with that title. But things could be about to get worse. What is to be made of the new bosses settling into workplaces across all sectors: the algorithm managers?

The rise of algorithm management

The prospect of robots replacing workers is frequently covered in the media. But, it is not only labour that is being automated. Managers are too. Increasingly we see software algorithms assume managerial functions, such as screening job applications, delegating work, evaluating worker performance – and even deciding when employees should be fired.

The offloading of tasks from human managers to machines is only set to increase as surveillance and monitoring devices become increasingly sophisticated. In particular, wearable technology that can track employee movements.

From an employer’s point of view, there is much to be gained from transferring managers’ duties to algorithms. Algorithms lower business costs by automating tasks that take longer for humans to complete. Uber, with its 22,800 employees, can supervise 3.5 million drivers according to the latest yearly figures.

Leggi tutto

Con IA (l’intelligenza artificiale) non si scherza. Un’idea distopica per controllare i comportamenti dei giovani

Riprendiamo questo articolo di denuncia dell’Osservatorio “Algorithm Watch” sull’idea del Partito FdI di utilizzare Intelligenza Artificiale per “individuare” i giovani che al termine dell’obbligo scolastico non proseguono gli studi e non lavorano….Un’idea per il momento messa da parte, non è apparsa sul programma elettorale ma… una volta al governo potrebbe essere riesumata. Per le implicazioni gravi per le libertà personali che comporterebbe questo progetto se fosse realizzato rimandiamo alla lettura dell’articolo. Al fondo del testo originale in lingua inglese abbiamo postato una traduzione automatica in italiano. Per un uso professionale di questo testo va utilizzato il testo alla fonte. Ringraziamo Algorithm Watch per il prezioso lavoro che svolge.

Italian neofascists considered building an authoritarian AI to solve unemployment. They are far from alone.

       The neofascist party Brothers of Italy proposed to use Artificial Intelligence to assign young people mandatory jobs. The idea has a lot in common with “algorithmic solutions” to unemployment in other EU countries.

CPAC 2022 con Hermann Tertsch y Victor Gonzalez | | flickr | CC0 1.0

Back in April, the far-right Brothers of Italy party presented “Notes on a Conservative Program”. In a chapter on work, they called for an “artificial intelligence system” that “traces the list of young people who finish high school and university every year and connects them to companies in the sector.” This, the authors of the chapter wrote, would finally solve “youth unemployment,” as “the young person will no longer be able to choose whether to work or not, but [will be] bound to accept the job offer for himself (sic), for his family and for the country, under penalty of loss of all benefits with the application of a system of sanctions.”

The proposal did not make it to the final program that Brothers of Italy published prior to the election on 25 September, when they became Italy’s largest party with 26% of the vote.

Ironically, the neofascists most likely had intended to use Artificial Intelligence to “create a fog around them, around what they are and what they want, because they want to attract a more moderate right-wing electorate,” says sociologist Antonio Casilli. Guido Crosetto, the Brothers of Italy co-founder who edited the work chapter, is not considered knowledgeable on technology, though he once tweeted about being “in favor of introducing artificial intelligence to the Ministry of Justice”. Unlike in other countries, there is no noticeable overlap between the Italian tech scene and far-right parties like Lega Nord and Brothers of Italy.

Leggi tutto

La Grecia prevede droni automatizzati per individuare le persone che attraversano il confine

Fonte:  Algorithm Watch che ringraziamo 

Il ministero della migrazione greco ha annunciato che utilizzerà droni finanziati dall’UE con “Intelligenza artificiale” per rintracciare le persone che cercano rifugio al confine. Le promesse che miglioreranno anche le operazioni di ricerca e salvataggio suonano vane. 

All’apertura della Fiera internazionale di Salonicco lo scorso settembre, il ministro greco per l’immigrazione Notis Mitarakis – altrimenti noto per aver liquidato le prove in corso dei brutali e illegali respingimenti dei richiedenti asilo da parte delle guardie di frontiera greche come “notizie false” – ha fatto notizia a livello nazionale quando ha presentato la sua Ultimo progetto del ministero: 3,7 milioni di euro di finanziamento per droni con “algoritmi innovativi” in grado di “identificare automaticamente obiettivi di interesse definiti” al confine greco. 

Leggi tutto