Israel accused of using AI to target thousands in Gaza, as killer algorithms outpace international law

Per leggere l’articolo tradotto in italiano clicca l’icona blu google translate  (la quarta da sinistra in fondo all’articolo)   . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.



Natasha Karner, RMIT University

The Israeli army used a new artificial intelligence (AI) system to generate lists of tens of thousands of human targets for potential airstrikes in Gaza, according to a report published last week. The report comes from the nonprofit outlet +972 Magazine, which is run by Israeli and Palestinian journalists.

The report cites interviews with six unnamed sources in Israeli intelligence. The sources claim the system, known as Lavender, was used with other AI systems to target and assassinate suspected militants – many in their own homes – causing large numbers of civilian casualties.

According to another report in the Guardian, based on the same sources as the +972 report, one intelligence officer said the system “made it easier” to carry out large numbers of strikes, because “the machine did it coldly”.

As militaries around the world race to use AI, these reports show us what it may look like: machine-speed warfare with limited accuracy and little human oversight, with a high cost for civilians.

Military AI in Gaza is not new

The Israeli Defence Force denies many of the claims in these reports. In a statement to the Guardian, it said it “does not use an artificial intelligence system that identifies terrorist operatives”. It said Lavender is not an AI system but “simply a database whose purpose is to cross-reference intelligence sources”.

But in 2021, the Jerusalem Post reported an intelligence official saying Israel had just won its first “AI war” – an earlier conflict with Hamas – using a number of machine learning systems to sift through data and produce targets. In the same year a book called The Human–Machine Team, which outlined a vision of AI-powered warfare, was published under a pseudonym by an author recently revealed to be the head of a key Israeli clandestine intelligence unit.

Last year, another +972 report said Israel also uses an AI system called Habsora to identify potential militant buildings and facilities to bomb. According the report, Habsora generates targets “almost automatically”, and one former intelligence officer described it as “a mass assassination factory”.

The recent +972 report also claims a third system, called Where’s Daddy?, monitors targets identified by Lavender and alerts the military when they return home, often to their family.

Death by algorithm

Several countries are turning to algorithms in search of a military edge. The US military’s Project Maven supplies AI targeting that has been used in the Middle East and Ukraine. China too is rushing to develop AI systems to analyse data, select targets, and aid in decision-making.

Proponents of military AI argue it will enable faster decision-making, greater accuracy and reduced casualties in warfare.

Yet last year, Middle East Eye reported an Israeli intelligence office said having a human review every AI-generated target in Gaza was “not feasible at all”. Another source told +972 they personally “would invest 20 seconds for each target” being merely a “rubber stamp” of approval.

The Israeli Defence Force response to the most recent report says “analysts must conduct independent examinations, in which they verify that the identified targets meet the relevant definitions in accordance with international law”.

Leggi tutto

Spanish inmates not to be automatically monitored in fear of AI Act

Per leggere l’articolo tradotto in italiano clicca l’icona blu (la quarta da sinistra in fondo all’articolo)  google translate . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

Fonte : Algorithm Watch

Autore : By Martí Blancho


Spanish region Catalonia’s government approved the use of an Artificial Intelligence-based software to monitor inmates and interpret their behavior. Partially funded by the European Union, the system was to be implemented at the Mas d’Enric prison near Tarragona, a city south of Barcelona, and extended to other regional prisons. Ultimately, it wasn’t.

The halt to the system’s implementation came as a surprise even to government members. In January 2024, Catalan government’s Justice Advisor Gemma Ubasart announced in a plenary session that “the public administration could not be oblivious to the debate” around the new European regulation on Artificial Intelligence – the AI Act was ratified by the European Parliament in March – and that it was “more prudent not to continue with this project.”

Eight months earlier, the justice department had launched a pilot project in the Mas d’Enric prison and allocated 200,000 euros to the French company Inetum that was supposed to supply the software. The illustrative timeline of the public tender stated that the training phase would start in October 2023. However, the project never reached that stage.

The regional Department of Justice (DOJ) claims that the project was in a “very preliminary planning phase” and “had not yet been implemented.” In fact, there was still “a data protection impact analysis” pending when the administration began the contract termination process, as briefly explained in response to our freedom of information (FOI) request.

The DOJ did not provide further details on the algorithmic models used, the databases to which they would have access, or the data that would have been used to create the risk profiles. The department justifies its refusal on the grounds that “the program has not yet been developed,” making it seem like the administration had only a rough idea of how it would work.

Leggi tutto

The Climate Crisis Calls for Wisdom—Not Artificial Intelligence


Per leggere l’articolo tradotto in italiano clicca l’icona blu (la quarta da sinistra in fondo all’articolo)  google translate . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.

Fonte : Znetwork 


We’re getting right to the nub now.

This week the World Meteorological Organization officially certified 2023 as the hottest year in human history. Just to put on the record here what should have been the lead story in every journal and website on our home planet:

Andrea Celeste Saulo, secretary general of the WMO, said the organisation was now “sounding the red alert to the world.”

The report found temperatures near the surface of the earth were 1.45°C higher last year than they were in the late 1800s, when people began to destroy nature at an industrial scale and burn large amounts of coal, oil, and gas.

Last year’s spike was so scary that NASA’s Gavin Schmidt—Jim Hansen’s heir as keeper of NASA’s climate record—wrote in Nature this week that it raised the most profound possible implications. Please read his words slowly and carefully:

It could imply that a warming planet is already fundamentally altering how the climate system operates, much sooner than scientists had anticipated. It could also mean that statistical inferences based on past events are less reliable than we thought, adding more uncertainty to seasonal predictions of droughts and rainfall patterns.

Much of the world’s climate is driven by intricate, long-distance links—known as teleconnections—fuelled by sea and atmospheric currents. If their behavior is in flux or markedly diverging from previous observations, we need to know about such changes in real time.

And now, with equal care, read the words of the biggest oil producer on earth, the CEO of Saudi Aramco, who was in Houston last week for the annual hydrocarbon festival known as CERAWeek.

We should abandon the fantasy of phasing out oil and gas and instead invest in them adequately reflecting realistic demand assumptions.

That is to say, the powers that be want to abandon what the World Meteorological Organization, in their “red alert” report called the “one glimmer of hope”: that renewable energy installations rose 50% last year.

Understand that the battle is fully joined. The fossil fuel industry—as Exxon CEO Darren Woods helpfully explained—is in an all-out fight to derail anything green, because it won’t return “above average profits.” They have plenty of allies: Everyone noted former President Donald Trump threatening a “bloodbath” last week, but fewer noted the actual target of his wrath: electric vehicles. The Biden administration, after listening to the rhetoric at the Houston conference, backed EVs in a straightforward and earnest way today, announcing new rules that attempt to spur the rapid growth of a crucial climate-fighting technology. But of course that produced the requisite reaction: as The New York Times reported:

The American Fuel & Petrochemical Manufacturers, a lobbying organization, has started what it says is a “seven figure” campaign of advertising, phone calls, and text messages against what it falsely calls “Biden’s E.P.A. car ban” in the swing states Pennsylvania, Michigan, Wisconsin, Nevada, and Arizona, as well as in Ohio, Montana, and the Washington D.C. market.

So, like it or not, the climate crisis is going to be a key part of this election campaign. The November outcome may hinge on whether Americans can imagine making even this small change in the face of the gravest crisis our species has ever wandered into: replacing the gas tank in a car with a battery. That doesn’t seem like much to ask?

Leggi tutto

Il silenzio sulla strage continua . Podcast di Diario Prevenzione – 14 marzo 2024 – Puntata n° 117

a cura di Gino Rubini

in questa puntata parliamo di :

– …. e poi rompere il silenzio di tv e giornali, manifestare , protestare, andare in piazza , perchè 1200 morti sul lavoro all’anno sono uno scandalo ….
– 13 marzo 1987 – Ravenna : in tredici muoiono come topi nella stiva di una nave.
– “Codice della strage”, la sicurezza secondo Salvini. Annullato anche l’obbligo di sorpasso ad almeno una distanza di 1,5 metri dai ciclisti
– Prevenire la violenza di genere un documento del Gruppo di lavoro “Parità di Genere in Sanità Pubblica”, Consulta degli Specializzandi della Società Italiana di Igiene, Medicina Preventiva e Sanità Pubblica
– La nuova direttiva europea su IA

Buon ascolto


What happens when we outsource boring but important work to AI? Research shows we forget how to do it ourselves

Per leggere l’articolo tradotto in italiano clicca l’icona blu (la quarta da sinistra in fondo all’articolo)  google translate . Per un uso professionale e/o di studio raccomandiamo  di fare riferimento al testo originale.



Tapani Rinta-Kahila, The University of Queensland

In 2009, an Air France jet crashed into the ocean, leaving no survivors. The plane’s autopilot system shut down and the pilots, having become reliant on their computerised assistant, were unable to correct the situation manually.

In 2015, a bus driver in Europe typed the wrong destination into his GPS device and cheerfully took a group of Belgian tourists on a 1,200 kilometre detour in the wrong direction.

In 2017, in a decision later overturned on appeal, US prosecutors who had agreed to release a teenager on probation abruptly changed their minds because an algorithm ruled the defendant “high risk”.

These are dramatic examples, but they are far from isolated. When we outsource cognitive tasks to technology – such as flying a plane, navigating, or making a judgement – research shows we may lose the ability to perform those tasks ourselves. There is even a term for our tendency to forget information that is available through online search engines: the Google effect.

As new AI technologies promise to automate an increasing range of activities, the risk of “skill erosion” is growing. Our research shows how it can happen – and suggests ways to keep hold of the expertise you need, even when you don’t need it every day.

Skill erosion can cripple an organisation

My research shows the risk of skill erosion is easily overlooked. In a recent study, my team and I examined skill erosion in an accounting company.

The company had recently stopped using software that automated much of its fixed-asset accounting service. However, the accountants found themselves unable to carry out the task without it. Years of over-reliance on the software had eroded their expertise, and ultimately, they had to relearn their fixed-asset accounting skills.

While the software was rule-based (it did not use machine learning or “AI”), it was “smart” enough to track depreciation and produce reports for many tax and financial purposes. These are tasks that human accountants found very complex and tedious.

The company only became aware of skill erosion after a client found errors in the accounting team’s manual reports. With its accountants lacking sufficient expertise, the company had to commission the software provider to fix the errors.

Leggi tutto

L’approccio europeo alla regolamentazione dell’IA: comprendere la grande tecnologia e gli estremisti della sicurezza

Fonte Algorithmwatch che ringraziamo 

[ la traduzione è automatica tramite google, per un uso di studio o di ricerca raccomandiamo di fare riferimento al testo originale ]

L’Europa sta per adottare due importanti regolamenti sull’intelligenza artificiale: la legge sull’intelligenza artificiale dell’UE e la convenzione sull’intelligenza artificiale del Consiglio d’Europa. Tuttavia, sebbene entrambi i regolamenti fossero inizialmente pensati per ribaltare la situazione sulla Big Tech e per proteggere efficacemente le persone dall’abuso della tecnologia IA da parte dei governi, gli interessi delle aziende tecnologiche e dei sostenitori della sicurezza dei governi potrebbero prevalere.

Nel comitato sull’intelligenza artificiale del Consiglio d’Europa che si riunisce questa settimana a Strasburgo, i negoziatori discutono le opzioni che consentirebbero agli Stati di limitare l’applicabilità del trattato sull’intelligenza artificiale alle autorità pubbliche e di mantenere le società private ampiamente fuori dal campo di applicazione. Nell’UE, l’accordo di compromesso sulla legge sull’AI lascerebbe molte persone in situazioni vulnerabili senza una protezione affidabile contro la sorveglianza e il controllo del governo, esentando allo stesso tempo le aziende da una serie di doveri.

Open AI, Google/Alphabet, Microsoft, Amazon, Meta: questi sono i nomi che beneficiano del grande clamore attorno all’intelligenza artificiale innescato nel novembre 2022, con il rilascio di ChatGPT. Solo poco dopo, questi sono stati anche i nomi dietro le forti richieste di una regolamentazione dell’IA, cioè di norme legali su come questa tecnologia viene sviluppata e utilizzata. Le Big Tech e i loro alleati tendono a spiegare le loro richieste di norme legali sull’intelligenza artificiale indicando scenari futuri non realistici, come ad esempio che l’intelligenza artificiale potrebbe un giorno assumere il controllo sull’umanità.

Leggi tutto

L’intelligenza artificiale genera sempre più disinformazione

Segnalazione articolo da L’INDIPENDENTE


” Da operazioni di propaganda con personaggi ben vestiti ma inesistenti ad articoli scritti da bot e dichiarazioni di politici mai fatte e condivise poco prima delle elezioni, l’intelligenza artificiale si conferma per l’ennesima volta uno strumento capace anche di generare danni tutt’altro che indifferenti. Secondo gli ultimi aggiornamenti di un’analisi di NewsGuard, un’organizzazione che si occupa di disinformazione e classificazione dei siti web per gli inserzionisti, solo da maggio i portali che presentano articoli falsi creati dall’intelligenza artificiale aumentati di oltre il 1000%, passando da 49 ad oltre 600……” >>>

l’articolo segue alla fonte : L’INDIPENDENTE che ringraziamo


La polizia e le autorità competenti in materia di migrazione devono rispettare i diritti fondamentali quando utilizzano l’intelligenza artificiale


Fonte Algorithmwatch che ringraziamo

Poiché i sistemi di intelligenza artificiale sono sempre più utilizzati dalle forze dell’ordine, dalle autorità di controllo dell’immigrazione e dalle autorità di sicurezza nazionale, la legge sull’intelligenza artificiale dell’UE (legge sull’intelligenza artificiale) rappresenta un’urgente opportunità per prevenire danni, proteggere le persone dalle violazioni dei diritti e fornire limiti legali alle autorità per utilizzare l’intelligenza artificiale all’interno del contesto. confini dello Stato di diritto.

In Europa e nel mondo, i sistemi di intelligenza artificiale vengono sviluppati e utilizzati per forme dannose e discriminatorie di sorveglianza statale. Dall’uso della biometria per l’identificazione, il riconoscimento e la categorizzazione, ai sistemi predittivi in ​​varie capacità decisionali e di allocazione delle risorse , l’intelligenza artificiale nelle forze dell’ordine prende di mira in modo sproporzionato comunità già emarginate, mina i diritti legali e procedurali e consente la sorveglianza di massa.

Leggi tutto

I ricercatori dell’IWH creano una tabella di marcia per la ricerca sull’intelligenza artificiale che dà priorità alla salute dei lavoratori

Fonte : IWH che ringraziamo . 

Un programma in quattro parti evidenzia le principali aree di ricerca per affrontare gli effetti dell’intelligenza artificiale sulla salute e il benessere dei lavoratori

Pubblicato: 31 agosto 2023

Nell’autunno del 2022, un team dell’Institute for Work & Health (IWH) ha riunito un gruppo di esperti per discutere un argomento in rapida evoluzione che avrà impatti sempre più pronunciati sulla vita dei lavoratori: l’intelligenza artificiale ( AI ). Mentre l’intelligenza artificiale continua ad avanzare a un ritmo rapido e poiché sempre più lavoratori svolgono aspetti del loro lavoro tramite o con l’aiuto dell’intelligenza artificiale, la domanda sempre presente nella mente dei ricercatori dell’IWH è quale impatto l’intelligenza artificiale avrà sulla salute, sulla sicurezza e sulla salute dei lavoratori. benessere e come questi impatti saranno distribuiti nel mercato del lavoro.

Leggi tutto

For minorities, biased AI algorithms can damage almost every part of life


Arshin Adib-Moghaddam, SOAS, University of London

Bad data does not only produce bad outcomes. It can also help to suppress sections of society, for instance vulnerable women and minorities.

This is the argument of my new book on the relationship between various forms of racism and sexism and artificial intelligence (AI). The problem is acute. Algorithms generally need to be exposed to data – often taken from the internet – in order to improve at whatever they do, such as screening job applications, or underwriting mortgages.

Leggi tutto

ETUI. AI: alla scoperta delle mille facce di una tecnologia senza volto


L’intelligenza artificiale (AI) è al centro della rivoluzione digitale che stiamo attraversando. Nato nei laboratori di ricerca, si è ormai affermato in quasi tutti i settori ed è diventato parte integrante della nostra economia e della nostra vita. Comprendere l’intelligenza artificiale è un compito complesso, poiché implica l’utilizzo di concetti come mente, intelligenza, “intelligenza non umana”, razionalità, adattività e autonomia, e persino il concetto di cosa significhi essere un essere umano. Oggi ogni settore, azienda e persino professione ha una propria comprensione e definizione di AI, una circostanza che crea confusione e rende difficile la necessaria discussione sull’AI.

Leggi tutto

Incontra ChatPal, il bot europeo contro la solitudine


Postiamo questo articolo in traduzione italiana effettuata con google translator per facilitarne la diffusione della lettura. Per un uso di studio o professionale si raccomanda di fare riferimento alla fonte dell’articolo in lingua inglese Algorithmwatch

Fonte  Algorithmwatch

I chatbot automatizzati potrebbero aiutare i pazienti, ma i ricercatori e i professionisti medici avvertono che non sostituiscono la terapia professionale di persona.

Il chatbot terapeutico ChatPal, risultato di uno studio basato sulla comunità della durata di tre anni finanziato dall’UE, è stato creato dall’Università dell’Ulster e da partner dell’Irlanda del Nord, Irlanda, Scozia, Svezia e Finlandia. È stato concepito come uno strumento di supporto per le persone che possono avere periodi di ansia, depressione o stress e vivono in aree rurali e scarsamente popolate ai margini settentrionali dell’Europa. 

Un po’ meno appariscenti delle app di terapia commerciale come Woebot e Wysa, gli utenti di Chatpal rispondono a domande in inglese, gaelico scozzese, svedese o finlandese sul loro benessere (“Ho abitudini quotidiane per sostenere il mio benessere”) e, a seconda le loro risposte, ricevere consigli o esercizi da fare (es. scrivere una “dichiarazione di gratitudine”). Il professore dell’Università dell’Ulster Maurice Mulvenna ha dichiarato ad AlgorithmWatch che, dopo una prova di 12 settimane, almeno due organizzazioni sono ora interessate a utilizzare ChatPal. 

Leggi tutto

Il governo del Regno Unito non riesce a proteggere i lavoratori dall’essere sfruttati dalle tecnologie AI

Fonte: ETUI

Il 18 aprile 2023, il Trade Union Congress (TUC) ha avvertito che il governo del Regno Unito non riesce a proteggere i lavoratori dall’essere “sfruttati” dalle nuove tecnologie di intelligenza artificiale. L’avvertimento è arrivato quando politici, leader tecnologici, regolatori e sindacati si sono incontrati per la conferenza TUC AI a Londra.

Il comunicato stampa sottolinea

Le tecnologie basate sull’intelligenza artificiale stanno ora prendendo decisioni ad alto rischio e che cambiano la vita, comprese quelle relative all’assunzione, alla gestione e al licenziamento del personale. “L’intelligenza artificiale viene utilizzata per analizzare le espressioni facciali, il tono della voce e gli accenti per valutare l’idoneità dei candidati ai ruoli”. 

Leggi tutto

Le opportunità e i rischi dell’IA nell’approvvigionamento energetico



Postiamo questa traduzione effettuata con google translator per facilitare la diffusione della lettura dell’articolo. Per un uso di studio e professionale si raccomanda di fare riferimento all’articolo alla fonte su Algorithmwatch che ringraziamo

Fonte Algorithmwatch

Intervista sull’uso dell’intelligenza artificiale nell’approvvigionamento energetico con Friederike Rohde e Josephin Wagner dell’Institute for Ecological Economy Research (IÖW).

È stato detto più volte che la transizione verso un’economia a emissioni zero può avere successo solo con l’aiuto dell’intelligenza artificiale. Ma non è ancora chiaro se i sistemi di intelligenza artificiale possano effettivamente offrire i vantaggi desiderati. Nell’ambito del progetto di ricerca “SustAIn: The Sustainability Index for Artificial Intelligence”, i ricercatori dell’Institute for Ecological Economy Research (IÖW) hanno analizzato i diversi interessi che danno forma alla discussione sulle opportunità e sui rischi associati all’IA nell’approvvigionamento energetico. In tal modo, hanno esaminato 22 documenti strategici e di posizione dal contesto tedesco, europeo e internazionale, oltre a condurre interviste con esperti.

Quali speranze hanno le parti interessate per l’IA quando si tratta di approvvigionamento energetico?

Giuseppina Wagner:Il nostro studio mostra che si aspettano principalmente che l’uso dell’IA generi notevoli opportunità. I sistemi di intelligenza artificiale sono progettati per rendere più efficiente l’approvvigionamento energetico, ottimizzando i processi, ad esempio elaborando i dati in tempo reale o generando previsioni. L’automazione può anche aiutare a determinare in anticipo se l’apparecchiatura deve essere riparata. Le parti interessate sperano di ridurre i costi e massimizzare i profitti attraverso l’uso dell’intelligenza artificiale. Allo stesso tempo, l’intelligenza artificiale dovrebbe anche guidare la transizione verso energie pulite e fornire soluzioni che tengano conto della crescente complessità del sistema energetico. Man mano che il numero di produttori e consumatori nel sistema cresce e il settore energetico diventa sempre più digitale, la quantità di dati che devono essere elaborati aumenterà in modo significativo.

Leggi tutto

GB . Newsletter Risks TUC 1084 – 31 marzo 2023 –

Fonte Risks TUC  1084

Il TUC critica il white paper “inconsistente” dell’IA

Il TUC ha criticato il libro bianco “fragile” e “vago” sull’Intelligenza Artificiale (AI) del governo. Il segretario generale del TUC Paul Nowak ha dichiarato: “Per garantire che l’IA sia utilizzata in modo etico – e in un modo che avvantaggi i lavoratori – abbiamo bisogno di una regolamentazione adeguata”. Ma ha avvertito invece che il white paper “è vago e non offre alcuna guida chiara alle autorità di regolamentazione. Invece, abbiamo una serie di impegni deboli”. La responsabilità della governance dell’IA non sarà affidata a un nuovo regolatore, con il governo che afferma di volere che i regolatori esistenti – come l’Health and Safety Executive, la Commissione per l’uguaglianza e i diritti umani e l’Autorità per la concorrenza e i mercati – escogitino i propri approcci. Questi regolatori dovrebbero utilizzare le leggi esistenti piuttosto che ricevere nuovi poteri.
Comunicato stampa del Dipartimento per la scienza, l’innovazione e la tecnologiae white paper, AI regulation: a pro-innovation approach , 29 marzo 2023. BBC News Online .

Leggi tutto

Le promesse delle piattaforme ai ricercatori: i primi rapporti mancano la linea di base


Fonte :  che ringraziamo 


Una prima analisi mostra che le piattaforme hanno fatto ben poco per “potenziare la comunità di ricerca” nonostante le promesse fatte lo scorso giugno nell’ambito del rinnovato Codice di condotta sulla disinformazione dell’UE.

Giovedì scorso, dozzine di aziende tecnologiche, comprese le principali piattaforme di social media come Facebook, YouTube, TikTok e Twitter, hanno pubblicato i primi rapporti di base intesi a dettagliare i loro sforzi per combattere la disinformazione nell’UE.

I rapporti, che sono disponibili al pubblico , parlano dei progressi delle piattaforme su una litania di impegni presi a luglio nell’ambito del Codice di condotta sulla disinformazione del 2022 . Ciò include, tra le altre cose, promesse sulla demonetizzazione della disinformazione, sulla trasparenza degli annunci politici, sulla collaborazione con i verificatori di fatti e sull’agevolazione dell’accesso dei ricercatori ai dati.

Sebbene il codice sia volontario, i suoi impegni potrebbero diventare vincolanti per le piattaforme più grandi una volta che la Commissione europea inizierà a monitorarli e applicarli quest’estate ai sensi del Digital Services Act (DSA). Per aver violato il DSA, le piattaforme Big Tech con oltre 45 milioni di utenti nell’UE potrebbero incorrere in multe fino al 6% dei loro ricavi globali: adempiere ai loro impegni ai sensi del codice di condotta è un modo per alleggerire i loro obblighi di conformità.

Leggi tutto

Cosa aspettarsi dalla prima agenzia europea di supervisione dell’Intelligenza Artificiale

Postiamo la traduzione effettuata con translator google di questo articolo pubblicato dalla Fondazione Algorithmwatch. Per un uso professionale o di studio si raccomanda l’utilizzo del testo in lingua originale.
La Spagna ha annunciato la prima agenzia nazionale per la supervisione dell’Intelligenza Artificiale. Nella sua forma attuale, il piano è molto favorevole all’industria e lascia poco spazio alla società civile.


La Spagna vuole essere all’avanguardia nella regolamentazione dell’Intelligenza Artificiale in Europa. “Non vogliamo essere testimoni ma protagonisti dei grandi cambiamenti digitali”, ha dichiarato in una recente intervista Carme Artigas, segretario di stato del governo spagnolo per la digitalizzazione e figura chiave in queste aspirazioni . Nei prossimi mesi, grazie anche al suo impegno, aprirà la prima agenzia nazionale del continente creata per supervisionare e controllare queste tecnologie con l’acronimo AESIA (che sta per Agencia Española de Supervisión de la Inteligencia Artificial ).

L’AI Act, un prossimo regolamento europeo attualmente in fase di negoziazione, richiederà molto probabilmente agli Stati membri di designare le autorità nazionali per monitorare la conformità. Sebbene la maggior parte dei paesi non abbia ancora spiegato come lo faranno, la Spagna ha già affermato che creerà un’entità indipendente dal governo, incaricata di supervisionare gli algoritmi del settore pubblico e privato.

La capacità di AESIA di porre il veto e sanzionare l’uso di sistemi potenzialmente dannosi sarà strettamente legata alla versione finale dell’IA Act che sarà approvata a Bruxelles. Le risorse disponibili e il funzionamento interno dell’agenzia sono attualmente oggetto di discussione all’interno del governo spagnolo. Ma la documentazione ufficiale e le fonti consultate da AlgorithmWatch per questo articolo permettono di abbozzare quelle che saranno le linee principali dell’agenzia.

Leggi tutto

IWH:  Avvio di un programma di ricerca su intelligenza artificiale, lavoro e salute

Fonte IWH  – Institute for Work & Health che ringraziamo

Postiamo questo articolo che proviene dal sito dell‘Istituto per il Lavoro e la Salute (IWH) che ha sede a Toronto Canada, un’organizzazione indipendente e senza fini di lucro. La missione di IWH  è promuovere, proteggere e migliorare la sicurezza e la salute dei lavoratori conducendo ricerche attuabili apprezzate da datori di lavoro, lavoratori e responsabili politici. Nell’articolo si descrive il programma di ricerca promosso da IWH sugli impatti che la IA avrà sul lavoro e sulla vita delle persone. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

In occasione di un evento di lancio nell’ottobre 2022, le parti interessate del sistema di prevenzione esaminano le implicazioni dell’IA su SSL e le disuguaglianze dei lavoratori

Pubblicato: 5 dicembre 2022

Tuttavia, soprattutto, ciò che l’ IA significa per i lavoratori e i luoghi di lavoro non è ancora del tutto chiaro. Questo è stato uno dei messaggi principali ascoltati in un recente incontro di collaborazione tenuto da un gruppo di ricerca dell’Istituto per il lavoro e la salute ( IWH ). Nessuna ricerca che conosciamo ha preso una prospettiva di salute e sicurezza sul lavoro o applicato una lente di equità per esaminare l’ impatto delle applicazioni di intelligenza artificiale sul posto di lavoro sui lavoratori,  in particolare sui gruppi che già sperimentano altre forme di disuguaglianza, ha affermato il dott. Arif Jetha, scienziato IWH e ospite dell’evento.

Leggi tutto

L’anno in cui i sistemi automatizzati avrebbero potuto essere regolamentati: 2022 in rassegna

Fonte Algorithm Watch 

Riportiamo da Algorithm Watch   [che ringraziamo] questo articolo sulle difficoltà a  regolamentare  i sistemi automatizzati  che hanno già rilevanti influenze e tendenze ad invadere nella quotidianità la nostra vita di cittadini in moltissimi ambiti. Molte decisioni sono prese  dalle agenzie statuali e dalle corporation facendo riferimento a data base estratti dai nostri comportamenti quotidiani nel campo della salute, dei nostri consumi materiali e immateriali. L’articolo fa una rassegna degli eventi di questo annus orribilis  che sta finendo vedendoli dal punto di vista dell’impatto che hanno avuto le piattaforme e i sistemi digitali …. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor


I sistemi automatizzati erano sorprendentemente assenti dalle storie principali di quest’anno. Sul fronte normativo, le istituzioni europee hanno intensificato i loro sforzi. Quanti cambiamenti possono aspettarsi gli europei dipende dalla risolutezza delle istituzioni, e la prima prova del 2023 è già iniziata.

Nel 2022, proprio come nel decennio precedente e nei decenni a venire, la storia di sviluppo più importante è stata il crollo del nostro clima. La prolungata assenza di precipitazioni sta sconvolgendo i mezzi di sussistenza nell’Africa orientale, mentre i raccolti nell’Africa occidentale sono stati distrutti da acquazzoni torrenziali. Centinaia di milioni hanno sofferto la fame quest’anno e la situazione sta peggiorando.

Che questo sviluppo non abbia nulla a che fare con i sistemi automatizzati potrebbe sorprendere. All’inizio del 2019, ad esempio, Microsoft ha annunciato che “l’uso dell’IA [potrebbe] risolvere la fame e la malnutrizione nel mondo [entro il 2030]”. L’affermazione potrebbe essere stata esagerata.

Nel complesso, come ho valutato nel 2020 , il contributo dell’Intelligenza Artificiale alla crisi climatica è stato l’accelerazione, non la mitigazione. Nei documenti normativi delle società petrolifere e del gas, che sono le principali fonti di emissioni di gas serra, le menzioni dell’IA non sono aumentate in modo significativo rispetto al 2021, ma rimangono ai massimi storici .

Leggi tutto

Per essere all’altezza dei tempi ….



I frequentatori più assidui del sito Diario Prevenzione avranno notato che da diverso tempo pubblichiamo sempre più spesso report, documenti e notizie che fanno riferimento a grandi temi come il cambiamento climatico, ai necessari interventi e adattamenti per farvi fronte. Come sempre riprendiamo questi report e articoli dalle fonti più qualificate come Enti di ricerca, siti autorevoli, riviste specializzate.Su questo tema del riscaldamento climatico e della necessaria trasformazione ecologica della società nei modi di produrre e consumare, a causa della guerra in Europa e della crisi energetica, si sta perdendo tempo e si stanno facendo molti passi indietro.

Leggi tutto

Con IA (l’intelligenza artificiale) non si scherza. Un’idea distopica per controllare i comportamenti dei giovani

Riprendiamo questo articolo di denuncia dell’Osservatorio “Algorithm Watch” sull’idea del Partito FdI di utilizzare Intelligenza Artificiale per “individuare” i giovani che al termine dell’obbligo scolastico non proseguono gli studi e non lavorano….Un’idea per il momento messa da parte, non è apparsa sul programma elettorale ma… una volta al governo potrebbe essere riesumata. Per le implicazioni gravi per le libertà personali che comporterebbe questo progetto se fosse realizzato rimandiamo alla lettura dell’articolo. Al fondo del testo originale in lingua inglese abbiamo postato una traduzione automatica in italiano. Per un uso professionale di questo testo va utilizzato il testo alla fonte. Ringraziamo Algorithm Watch per il prezioso lavoro che svolge.

Italian neofascists considered building an authoritarian AI to solve unemployment. They are far from alone.

       The neofascist party Brothers of Italy proposed to use Artificial Intelligence to assign young people mandatory jobs. The idea has a lot in common with “algorithmic solutions” to unemployment in other EU countries.

CPAC 2022 con Hermann Tertsch y Victor Gonzalez | | flickr | CC0 1.0

Back in April, the far-right Brothers of Italy party presented “Notes on a Conservative Program”. In a chapter on work, they called for an “artificial intelligence system” that “traces the list of young people who finish high school and university every year and connects them to companies in the sector.” This, the authors of the chapter wrote, would finally solve “youth unemployment,” as “the young person will no longer be able to choose whether to work or not, but [will be] bound to accept the job offer for himself (sic), for his family and for the country, under penalty of loss of all benefits with the application of a system of sanctions.”

The proposal did not make it to the final program that Brothers of Italy published prior to the election on 25 September, when they became Italy’s largest party with 26% of the vote.

Ironically, the neofascists most likely had intended to use Artificial Intelligence to “create a fog around them, around what they are and what they want, because they want to attract a more moderate right-wing electorate,” says sociologist Antonio Casilli. Guido Crosetto, the Brothers of Italy co-founder who edited the work chapter, is not considered knowledgeable on technology, though he once tweeted about being “in favor of introducing artificial intelligence to the Ministry of Justice”. Unlike in other countries, there is no noticeable overlap between the Italian tech scene and far-right parties like Lega Nord and Brothers of Italy.

Leggi tutto

Intelligenza Artificiale: aspetti etici e responsabilità degli scienziati

Fonte: Fondazione Sereno Regis che ringraziamo 
di Elena Camino

Alcune informazioni e riflessioni di questo articolo sono tratte da un testo di Guglielmo Tamburrini, che mette in relazione il tema dell’Intelligenza Artificiale (IA) con i problemi ambientali, chiamando direttamente in causa le responsabilità degli scienziati.

La problematica generale che riguarda la ricerca sull’Intelligenza Artificiale e le sue possibili implicazioni etiche viene affrontata nei numerosi contributi che da alcuni anni il prof. Norberto Patrignani offre, sia nelle sue pubblicazioni scientifiche, sia in seminari e incontri organizzati per il nostro centro studi.

Tra tale documentazione segnalo, in particolare:

Don Milani al tempo dell’Infosfera | Norberto Patrignani (martedì 24 Ottobre 2017)

Slow Tech | 8. Etica e informatica. Dilemmi al confine tra decisioni e scelte. CONVERSAZIONE con Norberto Patrignani (giovedì 28 Novembre 2019)

Fermare la cyberwar prima che sia troppo tardi (martedì 5 Aprile 2022)

Verso un’abbondanza frugale | Incontro con Norberto Patrignani (giovedì 26 Maggio 2022)

“Intelligenza” artificiale: non chiamiamola così! (lunedì 27 Giugno 2022)

Entrambi gli autori richiamano l’attenzione dei lettori sulle responsabilità dei ricercatori – soprattutto i professionisti delle discipline informatiche (esperti, studiosi e professori universitari) nella ricerca e sviluppo di progetti al confine tra etica e scienza.

Guglielmo Tamburrini e Norberto Patrignani, assieme a Francesca Farruggia (Istituto di Ricerche Internazionali Archivio Disarmo – IRIAD di Roma) parteciperanno a un incontro su Tecnologia e Pace co-organizzato da Centro Studi Sereno Regis e Politecnico di Torino nel corso della prossima Biennale Democrazia 2022 (h: 11.00, sala Emma Strada, Politecnico Torino – 12 novembre 2022)

IA: un mondo presente ma sconosciuto

Dell’Intelligenza Artificiale (IA) si parla e si scrive ormai da decenni: tra finanziamenti alla ricerca, sperimentazioni nei più disparati ambiti, e applicazioni concrete, si può affermare che non c’è quasi aspetto della vita umana che non sia stato già cambiato, o che non possa essere modificato nel prossimo futuro.

Nell’Introduzione dell’articolo sopra citato Tamburrini accenna rapidamente all’impatto pervasivo dell’IA negli ultimi 10 anni, alimentato da sistemi informatici di apprendimento dell’IA, che stanno assumendo un ruolo crescente nel commercio, nell’industria, nella gestione dei servizi pubblici e privati, nella comunicazione, nell’intrattenimento, nella sicurezza e nella difesa. Il tema è vasto, e di difficile comprensione per il pubblico non specializzato.

Il ‘machine learning’, l’apprendimento automatico, si basa sull’idea che i computer possono imparare ad eseguire compiti specifici senza essere programmati per farlo, grazie al riconoscimento di schemi tra i dati, che vengono forniti in modo iterativo. Un aspetto importante del machine learning è la ripetitività: esposti più volte ai dati, questi sistemi sono in grado di adattarsi in modo autonomo. Nelle ‘deep neural networks’, reti neurali profonde, di struttura più complessa e caratterizzate da un gran numero di strati e connessioni tra i componenti, il sistema apprende a eseguire dei compiti sempre più sofisticati nella misura in cui viene alimentato da quantità e varietà crescenti di informazioni.

Leggi tutto

L’IA per la gestione dei lavoratori: rischi e opportunità per la SSL



Vettoriali di fullvector –

L’uso di sistemi di gestione dei lavoratori basati sull’intelligenza artificiale (AIWM) può aiutare a progettare posti di lavoro e posti di lavoro sani e sicuri, ma può anche comportare rischi per i lavoratori come l’intensificazione del lavoro, la perdita del controllo del lavoro e la disumanizzazione.

Un nuovo rapporto delinea i rischi e le opportunità dei sistemi AIWM per la sicurezza e la salute sul lavoro. Il rapporto include l’analisi dei dati statistici dell’indagine ESENER del 2019 e si basa su una revisione della letteratura e interviste ad esperti. Facendo seguito alla relazione di sintesi sull’argomento , esplora anche le possibili misure di prevenzione, sottolineando la necessità di approcci incentrati sull’uomo e di “prevenzione attraverso la progettazione” per garantire la salute, la sicurezza e il benessere dei lavoratori.

Due policy brief completano i risultati e forniscono raccomandazioni per aiutare ad affrontare i rischi e suggerire misure di prevenzione.

Leggi il report e la sintesi Intelligenza artificiale per la gestione dei lavoratori: implicazioni per la sicurezza e la salute sul lavoro

Consulta le policy brief Intelligenza artificiale per la gestione dei lavoratori: rischi e opportunità e Intelligenza artificiale per la gestione dei lavoratori: misure di prevenzione

Consulta altre pubblicazioni sulle nuove forme di gestione dei lavoratori

Maggiori informazioni sul progetto Digitalizzazione del lavoro

Crimini di guerra OSINT, molestie, polizia Doxxing e manifestanti: riconoscimento facciale per tutti


Fonte Algorithmwatch che ringraziamo. Per un uso professionale di questo articolo vedi la versione in lingua originale

di Josephine Lulamae

Con FindClone e servizi simili come PimEyes e Search4faces, uno “scenario da incubo” della privacy è già una realtà. Quali sono i casi di (cattivo) uso degli strumenti di riconoscimento facciale che chiunque può pagare per utilizzare?

18 marzo, mega-rally nazionalista di Vladimir Putin: se ingrandisci un’immagine del palco, puoi vedere un uomo con grandi cuffie e un impermeabile blu tirato sulla bocca, in agguato . Ora fai scorrere la sua faccia attraverso il sito russo di riconoscimento facciale da $ 5 al mese FindClone, che consente agli utenti di scattare foto di persone e trovare i loro volti sui social media russi in pochi secondi. Un fiammifero: una foto, ora cancellata, di un uomo con una croce al collo, seduto su un letto con altri tre uomini in topless.

Dopo la manifestazione, la testata giornalistica ceca Radio Liberty ha utilizzato FindClone per cercare di identificare l’uomo nelle cuffie. Hanno scoperto che l’uomo con la croce al collo è molto probabilmente un impiegato sotto copertura della squadra di sicurezza personale di Putin. “Non un tecnico del suono, ma un dipendente del Reggimento Presidenziale dell’UST (Servizio della Guardia Federale)”, hanno concluso . Hanno anche verificato la corrispondenza con il riconoscimento facciale di Microsoft Azure, che ha assegnato un punteggio di confidenza del 74% ai volti identici.

Non tutti sono convinti, tuttavia: “OSINT (open source intelligence) sbagliato sulle persone reali”, uno sviluppatore di software di Bosch chiamato Uli Stopper ha pubblicato nell’articolo di Radio Liberty. È “completamente impossibile” per qualsiasi algoritmo “identificare definitivamente” qualcuno da un’immagine in cui hanno la bocca, il mento / la mascella e le orecchie coperti, se anche quell’immagine è a bassa risoluzione, mi ha detto. Inoltre, non è chiaro quale software di riconoscimento facciale utilizzi Microsoft Azure e cosa significhi il loro “punteggio di fiducia”.

Leggi tutto -Il workshop online discute la salute e la sicurezza nelle attività di salute umana e di lavoro sociale


La salute umana e le attività di assistenza sociale sono fondamentali per garantire la salute e il benessere dei cittadini in Europa. Tuttavia, i lavoratori di questo settore sono esposti a vari rischi per la sicurezza e la salute sul lavoro (SSL), di cui il COVID-19, i fattori ergonomici, psicosociali e la digitalizzazione sono ai primi posti.

Il 4 maggio, gli esperti in materia di SSL dell’EU-OSHA, i rappresentanti della Commissione europea e le parti sociali dell’UE si riuniscono online per discutere i risultati dello studio approfondito ESENER, che combina i dati di tre serie di sondaggi ESENER con interviste ad esperti e parti interessate del settore.

Come viene gestita la sicurezza e la salute nel settore? Quali sono i driver e le barriere? La partecipazione dei lavoratori è un fattore chiave per una gestione efficiente della SSL? Queste e altre domande ottengono risposte in officina.

Nel corso della giornata verrà presentata anche una prossima panoramica in materia di SSL sul settore sanitario che dovrà essere svolta dall’EU-OSHA.

Consulta l’agenda del seminario – La gestione della SSL nell’ambito della salute umana e del lavoro sociale: cosa ci dicono i luoghi di lavoro europei?

Leggi il rapporto e la sintesi Attività per la salute umana e il lavoro sociale – evidenze dall’indagine europea sulle imprese sui rischi nuovi ed emergenti (ESENER)

Sfoglia tutti i risultati dei sondaggi del settore nella visualizzazione dei dati di ESENER

Francia.INRS. Iperconnessione. Impatto dell’uso delle tecnologie dell’informazione e della comunicazione (TIC)

Fonte INRS 

Sensazione di urgenza, sovraccarico di informazioni, trabocco di lavoro nella sfera personale… Molti dipendenti possono essere esposti a difficoltà legate all’uso di strumenti digitali come la posta elettronica. In occasione della pubblicazione di un articolo sulla rivista Hygiène & sécurité du travail, tre domande per Vincent Grosjean, capo degli studi e coautore di questa riflessione.

Qual è l’origine della domanda dell’INRS sulle tecnologie dell’informazione e della comunicazione (TIC)?

Nel 2015, l’INRS ha avviato una ricerca sulle pratiche digitali, in particolare sulla messaggistica elettronica, di fronte alla comparsa di problemi di salute legati all’uso di questi strumenti in un contesto professionale. Vari rapporti hanno rivelato l’emergere di una norma implicita di connessione permanente per alcuni dirigenti e dipendenti, il moltiplicarsi di strumenti senza gerarchia o strategia di utilizzo, una tendenza a cancellare i confini tra vita privata e vita lavorativa, un carico di informazioni inflazionistiche per molti dipendenti.

Lo scopo del lavoro svolto dall’INRS era di andare oltre queste osservazioni, per esplorare strade per la prevenzione.

Il contesto sanitario ha accentuato la comparsa di alcuni rischi legati all’uso delle TIC?

Da 2 anni la crisi sanitaria legata al Covid-19 porta ad un aumento “di emergenza” del lavoro a distanza. A ciò si è accompagnato il proliferare degli incontri in videoconferenza e un aumento della comunicazione mediata (messaggistica, telefono, ecc.), a scapito degli scambi faccia a faccia. Questi sviluppi amplificano le preoccupazioni circa la disintegrazione dei gruppi di lavoro, la sensazione di isolamento, l’interruzione dei confini tra la vita lavorativa e la vita al di fuori del lavoro. Sottolineano inoltre l’importanza delle relazioni di lavoro informali e del supporto sociale per il benessere dei dipendenti, nonché per l’efficienza dei collettivi a lungo termine. Queste circostanze rendono più importante costruire una vera strategia di utilizzo digitale per l’azienda. Gli obiettivi sono mantenere le prestazioni.

Leggi tutto

I giganti della tecnologia globale sfidanti: il ruolo critico del lavoro globale

Fonte : Education International  che ringraziamo  ( licenza Commons Creative 4.0 ) 


In un recente documento di ricerca, Carmen Ludwig e Edward Webster hanno esaminato il ruolo dei sindacati globali per contestare l’uso e l’abuso della tecnologia digitale attraverso l’attivismo transnazionale in due contesti africani. L’azione ha incluso il lavoro con la risposta globale di Education International contro la privatizzazione dell’istruzione.



In Kenya e Uganda, Education International ha resistito efficacemente alla deprofessionalizzazione degli insegnanti attraverso l’assunzione di insegnanti non qualificati da parte dell’operatore a scopo di lucro Bridge International Academies (BIA). Parallelamente, nel settore dei trasporti in Uganda, con l’aiuto dell’International Transport Workers’ Federation, il sindacato dei trasporti locali ha sviluppato la propria app per organizzare e sfidare i giganti della tecnologia globale.

Sebbene il potere del capitale globale lo renda una competizione profondamente ineguale, le federazioni sindacali globali stanno facilitando lo sviluppo del contropotere dei sindacati sia a livello locale che globale. In un momento in cui i lavoratori di tutto il mondo sono impegnati nella lotta per affrontare le molteplici sfide poste da giganti della tecnologia come Uber e Amazon, la nostra ricerca [1] i risultati sottolineano l’importante ruolo svolto dall’attività sindacale globale, a lungo trascurata nella ricerca sul lavoro.

Leggi tutto

I registri algoritmici possono risolvere il bias automatizzato?

Fonte : che ringraziamo 

Nel gennaio 2021 il governo olandese è crollato a causa di uno scandalo che mette in evidenza i pericoli del tentativo di amministrare i servizi governativi essenziali con l’intelligenza artificiale (AI) . Tra il 2009 e il 2019, in quello che è diventato noto come il toeslagenaffaire (l’affare dei benefici), circa 26.000 genitori sono stati ingiustamente accusati di aver commesso una frode sugli assegni per l’infanzia.

I servizi fiscali olandesi hanno preso di mira pesantemente le famiglie provenienti da ambienti più poveri e quelle con nomi “dal suono straniero”, in alcuni casi costringendole inutilmente a rimborsare decine di migliaia di euro di assegni familiari. Spesso le persone coinvolte non hanno avuto accesso alle vie legali, portando molte famiglie a indebitarsi e divorziare. Alcune famiglie hanno persino perso la casa.

Leggi tutto

L’impatto dell’intelligenza artificiale sulla salute e la sicurezza sul lavoro


Keywords:ICT/digitalisation, Rischi emergenti

L’impatto dell’intelligenza artificiale sul luogo di lavoro potrebbe creare delle opportunità ma anche nuove sfide per la salute e la sicurezza sul lavoro (SSL), la sua gestione e la sua regolamentazione. L’automazione di attività attraverso l’uso di robot può evitare il verificarsi di situazioni pericolose per i lavoratori, mentre i cobot ( robot collaborativi. ndr ) possono facilitare l’accesso al lavoro per i lavoratori in età avanzata o con disabilità.

L’intelligenza artificiale ha anche favorito l’emergere di nuove forme di monitoraggio e gestione dei lavoratori basate sulla raccolta di grandi quantità di dati in tempo reale. Tali forme potrebbero offrire l’opportunità di migliorare la sorveglianza della SSL, ridurre l’esposizione a vari fattori di rischio e fornire segnalazioni tempestive di stress, problemi di salute e affaticamento. Tuttavia, esse potrebbero anche generare questioni giuridiche, normative ed etiche, oltre a preoccupazioni in materia di SSL.

Il Report ( english.pdf)

ETUI.Il lavoro  nell’era dell’intelligenza artificiale: perché è necessaria una regolamentazione per proteggere i lavoratori

Autrice Aída Ponce Del Castillo

Le grandi potenze del mondo, molti stati e aziende stanno combattendo per vincere la corsa all’intelligenza artificiale (AI). L’intelligenza artificiale è di importanza strategica per l’Unione Europea, con la Commissione Europea che ha recentemente dichiarato che “l’intelligenza artificiale è un obiettivo che può fare dell’Europa un leader tecnologico globale”.

Per raggiungere questo obiettivo, l’UE deve creare un quadro etico e giuridico appropriato. Questa Outlook Note sostiene che tale quadro deve essere solidamente basato sulla regolamentazione – può essere raggiunto aggiornando la legislazione esistente – e che deve prestare particolare attenzione alla protezione dei lavoratori. I lavoratori sono in una posizione di subordinazione ai loro datori di lavoro e, nella fretta dell’Europa di vincere la corsa all’IA, i loro diritti rischiano di essere trascurati. Questo è il motivo per cui deve essere sviluppato un quadro giuridico protettivo e applicabile, con la partecipazione delle parti sociali.