Servizio di consegna cibo Glovo: tracciamento della posizione privata dei corrieri e altre violazioni

Fonte Algorithmwatch che ringraziamo 

Autrice:  Naiara Bellio

 

Di questo importante articolo  postiamo una traduzione effettuata con google translator per facilitarne la lettura. Per un uso professionale o di studio raccomandiamo di fare riferimento al testo originale alla fonte Algorithmwatch.

 

Una recente indagine di Tracking Exposed mostra che la filiale italiana di Glovo, Foodinho, registra l’ubicazione dei corrieri fuori turno e la condivide con soggetti non autorizzati. È stato inoltre scoperto che il fornitore dell’app di consegna ha creato un punteggio di credito “nascosto” per i propri ciclisti.

Negli ultimi anni, le autorità di regolamentazione e i sindacati hanno messo sotto esame Glovo e altre app di consegna. I fornitori di app sono sospettati di non impiegare i propri corrieri freelance e di privarli così dei loro diritti. L’introduzione della Legge Rider in Spagna due anni fa ha accelerato le azioni per regolamentare il loro status lavorativo e l’Unione Europea si sta muovendo nella stessa direzione con la sua proposta di Direttiva sui lavoratori su piattaforma .

Tuttavia, Glovo continua ad accumulare multe per milioni di euro per violazioni del diritto del lavoro. Non è chiaro quanto la società abbia effettivamente pagato poiché le multe sono sospese in attesa di appello. Glovo è accusato anche in Spagna di aver lasciato migliaia di corrieri con contratti di lavoro autonomo.

Continua a leggere “Servizio di consegna cibo Glovo: tracciamento della posizione privata dei corrieri e altre violazioni”

La polizia e le autorità competenti in materia di migrazione devono rispettare i diritti fondamentali quando utilizzano l’intelligenza artificiale

 

Fonte Algorithmwatch che ringraziamo

Poiché i sistemi di intelligenza artificiale sono sempre più utilizzati dalle forze dell’ordine, dalle autorità di controllo dell’immigrazione e dalle autorità di sicurezza nazionale, la legge sull’intelligenza artificiale dell’UE (legge sull’intelligenza artificiale) rappresenta un’urgente opportunità per prevenire danni, proteggere le persone dalle violazioni dei diritti e fornire limiti legali alle autorità per utilizzare l’intelligenza artificiale all’interno del contesto. confini dello Stato di diritto.

In Europa e nel mondo, i sistemi di intelligenza artificiale vengono sviluppati e utilizzati per forme dannose e discriminatorie di sorveglianza statale. Dall’uso della biometria per l’identificazione, il riconoscimento e la categorizzazione, ai sistemi predittivi in ​​varie capacità decisionali e di allocazione delle risorse , l’intelligenza artificiale nelle forze dell’ordine prende di mira in modo sproporzionato comunità già emarginate, mina i diritti legali e procedurali e consente la sorveglianza di massa.

Continua a leggere “La polizia e le autorità competenti in materia di migrazione devono rispettare i diritti fondamentali quando utilizzano l’intelligenza artificiale”

For minorities, biased AI algorithms can damage almost every part of life

shutterstock.

Arshin Adib-Moghaddam, SOAS, University of London

Bad data does not only produce bad outcomes. It can also help to suppress sections of society, for instance vulnerable women and minorities.

This is the argument of my new book on the relationship between various forms of racism and sexism and artificial intelligence (AI). The problem is acute. Algorithms generally need to be exposed to data – often taken from the internet – in order to improve at whatever they do, such as screening job applications, or underwriting mortgages.

Continua a leggere “For minorities, biased AI algorithms can damage almost every part of life”

Sbirciando nella scatola nera. Rapporti algoritmici sulla responsabilità

 

Fonte :  Algorithmwatch che ringraziamo ( l’articolo è pubblicato con licenza Creative Commons 4). La traduzione in italiano è stata effettuata con l’assistenza di  google translator. Per un utilizzo professionale e/o di studio raccomandiamo vivamente  la lettura del testo originale : clicca QUI 

di Sonja Peteranderl

Fonte Algorithmwatch che ringraziamo

Punteggio delle frodi previdenziali, polizia predittiva o ChatGPT: i legislatori e i funzionari governativi di tutto il mondo fanno sempre più affidamento sugli algoritmi e la maggior parte di essi è completamente opaca. Algorithmic Accountability Reporting dà un’occhiata più da vicino a come funzionano e agli effetti che hanno. Ma solo pochissimi media conducono tali rapporti. Perché?

Le madri single sono state viste come un rischio particolarmente elevato. Nella città portuale olandese di Rotterdam, un algoritmo ha passato anni a setacciare i dati dei beneficiari del welfare per determinare quali di loro avevano maggiori probabilità di essere coinvolti in frodi sul welfare. Secondo un progetto di segnalazione congiunto condotto da Lighthouse Reports e dalla rivista WIRED , i fattori che hanno contribuito in modo significativo a identificare una persona dall’algoritmo come ad alto rischio di frode assistenziale includevano: essere una donna, essere un genitore, mancanza di padronanza della lingua locale e difficoltà a trovare un lavoro. In questo caso, i giornalisti sono stati in grado di acquisire e analizzare il modello di apprendimento automatico dalla città, insieme a dati di formazione e manuali utente. Ha fornito uno sguardo prezioso all’interno della sala macchine.

I governi e le autorità di tutto il mondo stanno implementando sempre più algoritmi e la maggior parte di essi è completamente opaca. Hanno un’influenza significativa su chi deve accettare tagli ai pagamenti del welfare, chi viene segnalato per un controllo fiscale, chi finisce nel radar della polizia, quanto dura una potenziale pena detentiva e chi riceve un prestito o un mutuo – e chi no. Gli algoritmi fanno previsioni sul futuro successo degli scolari, prevedono i rischi per la salute e determinano a quale contenuto dei social media viene data priorità.

Continua a leggere “Sbirciando nella scatola nera. Rapporti algoritmici sulla responsabilità”

Voto del Parlamento europeo sulla legge sull’IA: i legislatori hanno scelto di proteggere le persone dai danni dei sistemi di intelligenza artificiale

Fonte AlgorithmWatch

Dopo lunghi mesi di intensi negoziati, i membri del Parlamento europeo hanno votato la legge sull’intelligenza artificiale (AI Act) dell’UE. AlgorithmWatch plaude al Parlamento per aver rafforzato la protezione dei diritti fondamentali contro gli impatti negativi dell’intelligenza artificiale, come quello del riconoscimento facciale negli spazi pubblici. Tuttavia, il Parlamento ha perso l’opportunità di rafforzare la protezione per alcune persone che ne avrebbero più bisogno.

l voto storico segna la posizione del Parlamento europeo in vista dei negoziati del trilaterale con il Consiglio dell’UE (che comprende gli Stati membri dell’UE) e la Commissione.

Giornalismo investigativo e correttezza algoritmica

 

Riprendiamo da Algorithmwatch questo articolo (tradotto con google translator per facilitarne la lettura ) Per un uso professionale e/o di studio raccomandiamo di fare riferimento al testo alla fonte Algorithmwatch

AUTORE : Michele Loi

L’indagine sui sistemi che prendono decisioni sugli esseri umani, spesso definita segnalazione di responsabilità algoritmica, sta diventando sempre più importante. Per farlo bene, i giornalisti devono comprendere i concetti di equità e parzialità e lavorare in team. Un primer.

Il significato di ingiustizia algoritmica o bias algoritmico è spesso poco chiaro. Il termine bias ha un significato specifico in statistica ma “bias algoritmico” è usato, al giorno d’oggi, con un significato molto più ampio di quello. [1] In genere, gli algoritmi di apprendimento automatico includono una verità fondamentale o un’etichetta vera utilizzato per eseguire test statistici. Il bias algoritmico include anche il bias che influenza la cosiddetta “vera etichetta”. Supponiamo di addestrare un algoritmo per indovinare il voto che uno studente avrebbe ottenuto, in un esame che lo studente non sarà in grado di sostenere. L’algoritmo tenterà di fare questa ipotesi sulla base dei modelli che riconosce nei voti che gli insegnanti hanno dato agli studenti in passato. Se questi voti sono già distorti, anche un predittore che è “imparziale” secondo un certo standard statistico (utilizzando i voti effettivi come riferimento) può comunque essere considerato distorto.

Per evitare confusione, nel seguito verrà utilizzata l’espressione “ingiustizia” invece di “pregiudizio”. Quindi, il tema di questo breve articolo è l’ingiustizia algoritmica e perché è (o forse dovrebbe essere) un argomento così difficile da trattare e scrivere per i giornalisti. Continua a leggere “Giornalismo investigativo e correttezza algoritmica”

“Una cultura diversa da quella occidentale”: come la polizia basca utilizza un algoritmo per la violenza di genere

 

Postiamo, per facilitare la lettura,  questa traduzione  effettuata con l’assistenza di google translator dell’articolo di Algorithm Watch “Una cultura diversa da quella occidentale”: come la polizia basca utilizza un algoritmo per la violenza di genere,  . Per un uso di studio o professionale raccomandiamo di fare riferimento al testo originale alla fonte . editor

 

Fonte Algorithm Watch  che ringraziamo 

Autrice :  Naiara Bellio *

 

La polizia dei Paesi Baschi utilizza un algoritmo per prevedere la violenza di genere. L’accuratezza dello strumento non è chiara e lascia molto spazio alle opinioni personali degli agenti di polizia.

 

Gli strumenti per prevedere il rischio in situazioni di conflitto sono all’ordine del giorno. Esistono e sono in uso da decenni, in gran parte anticipando l’entusiasmo per l’Intelligenza Artificiale. Molti di loro non usano il Machine Learning. Invece, si basano su un questionario psicologico progettato e valutato da persone, ciascuna con i propri pregiudizi e pregiudizi.

Continua a leggere ““Una cultura diversa da quella occidentale”: come la polizia basca utilizza un algoritmo per la violenza di genere”

Nuovo studio sull’intelligenza artificiale sul posto di lavoro: i lavoratori hanno bisogno di opzioni di controllo per garantire la co-determinazione

Fonte Algorithm Watch che ringraziamo. Postiamo la traduzione dell’articolo per facilitarne la lettura. Per un uso professionale o per studio si raccomanda di fare riferimento al testo originale alla fonte Algorithm Watch

 

I dipendenti devono essere inclusi nel processo di implementazione, se i cosiddetti sistemi di Intelligenza Artificiale (AI) vengono introdotti sul posto di lavoro. Tali sistemi sono già utilizzati da molte aziende per il processo decisionale automatizzato (ADM). Sono spesso basati su algoritmi di Machine Learning (ML). La bozza dell’Artificial Intelligence Act (AI Act) dell’Unione Europea è progettata per salvaguardare i diritti dei lavoratori, ma tali misure legislative non saranno sufficienti. Uno studio di AlgorithmWatch, finanziato dalla Fondazione Hans Böckler, spiega come la co-determinazione dei lavoratori possa essere praticamente raggiunta in questo senso.

Berlino, 16 marzo 2023. I sistemi ADM vengono utilizzati per scansionare automaticamente i CV durante il processo di assunzione, assegnare turni ai dipendenti, condurre valutazioni delle prestazioni lavorative, selezionare dipendenti per programmi educativi o promozioni e potrebbero persino essere utilizzati per decidere chi licenziare. Con l’aiuto delle applicazioni AI, è possibile rilevare le strutture sottostanti nei set di dati a portata di mano, il che consente di prevedere gli sviluppi futuri. Tali previsioni possono portare a decisioni che hanno conseguenze di vasta portata per il personale. Continua a leggere “Nuovo studio sull’intelligenza artificiale sul posto di lavoro: i lavoratori hanno bisogno di opzioni di controllo per garantire la co-determinazione”

Risky business: How do we get a grip on social media algorithms?

Fonte : Algorithmwatch

licenza Creative Commons Attribution 4.0 International (CC BY 4.0) .

     

Since personalized recommender systems have the power to influence what we think and do, we need to understand the risks they pose to our society. The DSA’s new transparency regime is a promising step forward, but we still need external, adversarial audits by independent research facilities.

If social media is the water we’re swimming in, there are more than a few reasons to be alarmed by its undercurrents. Hate speech is trending on Twitter following Elon Musk’s chaotic takeover of the company. TikTok—the most influential platform among teenage users—bombards vulnerable young people with content promoting eating disorders and self-harm. And despite early warnings, a range of platforms including Facebook and YouTube continued carrying extremist content that helped enable the January 8th antidemocratic insurrection in Brazil—and turned a profit in doing so.

These examples are the results of a growing collection of public interest research that call out social media platforms for their role in facilitating the spread of toxic content. Now, thanks to the Digital Services Act (DSA), there is expanded scope for researchers seeking to formally access and make sense of platforms’ internal data. This kind of research will be crucial to help identify risks emerging from online platforms.

While the DSA’s new transparency regime is a promising step forward, it will take some time before we know its true effectiveness. Meanwhile, our collective ability to hold platforms accountable will continue to rely on the work of adversarial researchers—researchers who are capable and willing to employ tools that shine a light on the inner workings of platforms’ opaque algorithmic systems.

What kind of social media algorithms are we talking about?

Continua a leggere “Risky business: How do we get a grip on social media algorithms?”

IWH:  Avvio di un programma di ricerca su intelligenza artificiale, lavoro e salute

Fonte IWH  – Institute for Work & Health che ringraziamo

Postiamo questo articolo che proviene dal sito dell‘Istituto per il Lavoro e la Salute (IWH) che ha sede a Toronto Canada, un’organizzazione indipendente e senza fini di lucro. La missione di IWH  è promuovere, proteggere e migliorare la sicurezza e la salute dei lavoratori conducendo ricerche attuabili apprezzate da datori di lavoro, lavoratori e responsabili politici. Nell’articolo si descrive il programma di ricerca promosso da IWH sugli impatti che la IA avrà sul lavoro e sulla vita delle persone. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

In occasione di un evento di lancio nell’ottobre 2022, le parti interessate del sistema di prevenzione esaminano le implicazioni dell’IA su SSL e le disuguaglianze dei lavoratori

Pubblicato: 5 dicembre 2022

Tuttavia, soprattutto, ciò che l’ IA significa per i lavoratori e i luoghi di lavoro non è ancora del tutto chiaro. Questo è stato uno dei messaggi principali ascoltati in un recente incontro di collaborazione tenuto da un gruppo di ricerca dell’Istituto per il lavoro e la salute ( IWH ). Nessuna ricerca che conosciamo ha preso una prospettiva di salute e sicurezza sul lavoro o applicato una lente di equità per esaminare l’ impatto delle applicazioni di intelligenza artificiale sul posto di lavoro sui lavoratori,  in particolare sui gruppi che già sperimentano altre forme di disuguaglianza, ha affermato il dott. Arif Jetha, scienziato IWH e ospite dell’evento. Continua a leggere “IWH:  Avvio di un programma di ricerca su intelligenza artificiale, lavoro e salute”

L’anno in cui i sistemi automatizzati avrebbero potuto essere regolamentati: 2022 in rassegna

Fonte Algorithm Watch 

Riportiamo da Algorithm Watch   [che ringraziamo] questo articolo sulle difficoltà a  regolamentare  i sistemi automatizzati  che hanno già rilevanti influenze e tendenze ad invadere nella quotidianità la nostra vita di cittadini in moltissimi ambiti. Molte decisioni sono prese  dalle agenzie statuali e dalle corporation facendo riferimento a data base estratti dai nostri comportamenti quotidiani nel campo della salute, dei nostri consumi materiali e immateriali. L’articolo fa una rassegna degli eventi di questo annus orribilis  che sta finendo vedendoli dal punto di vista dell’impatto che hanno avuto le piattaforme e i sistemi digitali …. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

I

I sistemi automatizzati erano sorprendentemente assenti dalle storie principali di quest’anno. Sul fronte normativo, le istituzioni europee hanno intensificato i loro sforzi. Quanti cambiamenti possono aspettarsi gli europei dipende dalla risolutezza delle istituzioni, e la prima prova del 2023 è già iniziata.

Nel 2022, proprio come nel decennio precedente e nei decenni a venire, la storia di sviluppo più importante è stata il crollo del nostro clima. La prolungata assenza di precipitazioni sta sconvolgendo i mezzi di sussistenza nell’Africa orientale, mentre i raccolti nell’Africa occidentale sono stati distrutti da acquazzoni torrenziali. Centinaia di milioni hanno sofferto la fame quest’anno e la situazione sta peggiorando.

Che questo sviluppo non abbia nulla a che fare con i sistemi automatizzati potrebbe sorprendere. All’inizio del 2019, ad esempio, Microsoft ha annunciato che “l’uso dell’IA [potrebbe] risolvere la fame e la malnutrizione nel mondo [entro il 2030]”. L’affermazione potrebbe essere stata esagerata.

Nel complesso, come ho valutato nel 2020 , il contributo dell’Intelligenza Artificiale alla crisi climatica è stato l’accelerazione, non la mitigazione. Nei documenti normativi delle società petrolifere e del gas, che sono le principali fonti di emissioni di gas serra, le menzioni dell’IA non sono aumentate in modo significativo rispetto al 2021, ma rimangono ai massimi storici .

Continua a leggere “L’anno in cui i sistemi automatizzati avrebbero potuto essere regolamentati: 2022 in rassegna”

Wolt: I sentimenti dei corrieri non sempre corrispondono al rapporto sulla trasparenza

La traduzione è stata effettuata con google translator. Per un uso professionale dell’articolo si raccomanda di fare riferimento al testo originale

Fonte : Algorithm Watch

di Nicolas Kayser-Bril
e Stefano Montali

Wolt è una società di consegne attiva principalmente nell’Europa post-socialista e in Scandinavia. Nell’agosto 2022 hanno pubblicato il loro primo ” rapporto algoritmico sulla trasparenza “. Il documento di 13 pagine, che non è stato verificato in modo indipendente, fornisce informazioni sugli algoritmi dell’azienda. Spiega come vengono presentati i ristoranti ai clienti e come il sistema tratta i motociclisti, noti anche come corrieri. Il rapporto si occupa solo di motociclisti freelance, non dipendenti.

Abbiamo chiesto a tre corrieri in Danimarca, Germania e Slovacchia se le informazioni presentate nel rapporto sono accurate.

Opinioni concordanti

Su molti punti lo è. Ad esempio, gli addetti alle consegne spesso affittano il loro account  a minori o migranti privi di documenti a pagamento. Wolt scrive che vieta severamente la pratica e i tre corrieri sono d’accordo. Hanno anche concordato di poter contattare facilmente il team di supporto di Wolt (i lavoratori di altre società di consegna, come Gorillas , spesso si lamentano del problema).

Continua a leggere “Wolt: I sentimenti dei corrieri non sempre corrispondono al rapporto sulla trasparenza”

Lettera aperta: il governo tedesco dovrebbe difendere un forte divieto di sorveglianza biometrica nei negoziati del Consiglio dell’UE in merito alla legge sull’IA

Pubblichiamo questa lettera aperta che diverse Associazioni della società civile tedesca hanno inviato al loro governo per richiedere una iniziativa energica verso il Consiglio della UE in materia di contenimento dell’uso della sorveglianza biometrica per contrastare una deriva verso la sorveglianza di massa.

Fonte AlgorithmWatch 

Open letter: the German government should stand up for a strong ban on biometric surveillance in the Council of EU negotiations regarding the AI Act  

AlgorithmWatch and 23 other civil society organizations are calling on the German government to stand up in the negotiations on the AI Act and advocate for a strong ban on biometric surveillance as mirrored in its coalition treaty.

The Council of the EU, comprised by the member states, is at full speed towards an agreement on the Artificial Intelligence Act (AI Act) and is aiming to reach a general approach by early December. However, the ban in the Act on biometric identification practices which can lead to mass surveillance – in its current form – entails dangerous loopholes and limitations.

Continua a leggere “Lettera aperta: il governo tedesco dovrebbe difendere un forte divieto di sorveglianza biometrica nei negoziati del Consiglio dell’UE in merito alla legge sull’IA”

La Russia usa il riconoscimento facciale per dare la caccia agli evasori alla leva

Autrice

Moscow authorities are using the city’s video surveillance system with facial recognition technology to track down and detain draftees seeking to evade mobilization for Russia’s war on Ukraine.

BBC Russian and some Telegram channels reported that at least seven men have been detained over the past month by law enforcement officers after the city’s facial recognition system flagged them to the police as “draft dodgers.” Following their detention, the men were brought to a police station and then a military enlistment office. While some were released as they were not eligible for the draft, at least two were told to go to the front line.

Russian law does not meaningfully restrict the use of facial recognition technology, so there’s little to prevent misuse and few, if any, protections for those under surveillance. Continua a leggere “La Russia usa il riconoscimento facciale per dare la caccia agli evasori alla leva”

Capi orribili: come gli algoritmi managers stanno prendendo il controllo dell’ufficio

Un articolo da TheConversation di grande interesse. Per facilitare la lettura al fondo dell’articolo in lingua originale abbiamo postato una traduzione automatica google in italiano. Per qualsiasi utilizzo e riferimento vale la versione in lingua originale.

Horrible bosses: how algorithm managers are taking over the office

Monster Ztudio/Shutterstock

Robert Donoghue, University of Bath and Tiago Vieira, European University Institute

The 1999 cult classic film Office Space depicts Peter’s dreary life as a cubicle-dwelling software engineer. Every Friday, Peter tries to avoid his boss and the dreaded words: “I’m going to need you to go ahead and come in tomorrow.”

This scene is still popular on the internet nearly 25 years later because it captures troubling aspects of the employment relationship – the helplessness Peter feels, the fake sympathy his boss intones when issuing this directive, the never-ending demand for greater productivity.

There is no shortage of pop culture depictions of horrible bosses. There is even a film with that title. But things could be about to get worse. What is to be made of the new bosses settling into workplaces across all sectors: the algorithm managers?

The rise of algorithm management

The prospect of robots replacing workers is frequently covered in the media. But, it is not only labour that is being automated. Managers are too. Increasingly we see software algorithms assume managerial functions, such as screening job applications, delegating work, evaluating worker performance – and even deciding when employees should be fired.

The offloading of tasks from human managers to machines is only set to increase as surveillance and monitoring devices become increasingly sophisticated. In particular, wearable technology that can track employee movements.

From an employer’s point of view, there is much to be gained from transferring managers’ duties to algorithms. Algorithms lower business costs by automating tasks that take longer for humans to complete. Uber, with its 22,800 employees, can supervise 3.5 million drivers according to the latest yearly figures.

Continua a leggere “Capi orribili: come gli algoritmi managers stanno prendendo il controllo dell’ufficio”

Con IA (l’intelligenza artificiale) non si scherza. Un’idea distopica per controllare i comportamenti dei giovani

Riprendiamo questo articolo di denuncia dell’Osservatorio “Algorithm Watch” sull’idea del Partito FdI di utilizzare Intelligenza Artificiale per “individuare” i giovani che al termine dell’obbligo scolastico non proseguono gli studi e non lavorano….Un’idea per il momento messa da parte, non è apparsa sul programma elettorale ma… una volta al governo potrebbe essere riesumata. Per le implicazioni gravi per le libertà personali che comporterebbe questo progetto se fosse realizzato rimandiamo alla lettura dell’articolo. Al fondo del testo originale in lingua inglese abbiamo postato una traduzione automatica in italiano. Per un uso professionale di questo testo va utilizzato il testo alla fonte. Ringraziamo Algorithm Watch per il prezioso lavoro che svolge.

Italian neofascists considered building an authoritarian AI to solve unemployment. They are far from alone.

       The neofascist party Brothers of Italy proposed to use Artificial Intelligence to assign young people mandatory jobs. The idea has a lot in common with “algorithmic solutions” to unemployment in other EU countries.

CPAC 2022 con Hermann Tertsch y Victor Gonzalez | | flickr | CC0 1.0

Back in April, the far-right Brothers of Italy party presented “Notes on a Conservative Program”. In a chapter on work, they called for an “artificial intelligence system” that “traces the list of young people who finish high school and university every year and connects them to companies in the sector.” This, the authors of the chapter wrote, would finally solve “youth unemployment,” as “the young person will no longer be able to choose whether to work or not, but [will be] bound to accept the job offer for himself (sic), for his family and for the country, under penalty of loss of all benefits with the application of a system of sanctions.”

The proposal did not make it to the final program that Brothers of Italy published prior to the election on 25 September, when they became Italy’s largest party with 26% of the vote.

Ironically, the neofascists most likely had intended to use Artificial Intelligence to “create a fog around them, around what they are and what they want, because they want to attract a more moderate right-wing electorate,” says sociologist Antonio Casilli. Guido Crosetto, the Brothers of Italy co-founder who edited the work chapter, is not considered knowledgeable on technology, though he once tweeted about being “in favor of introducing artificial intelligence to the Ministry of Justice”. Unlike in other countries, there is no noticeable overlap between the Italian tech scene and far-right parties like Lega Nord and Brothers of Italy. Continua a leggere “Con IA (l’intelligenza artificiale) non si scherza. Un’idea distopica per controllare i comportamenti dei giovani”

La Grecia prevede droni automatizzati per individuare le persone che attraversano il confine

Fonte:  Algorithm Watch che ringraziamo 

Il ministero della migrazione greco ha annunciato che utilizzerà droni finanziati dall’UE con “Intelligenza artificiale” per rintracciare le persone che cercano rifugio al confine. Le promesse che miglioreranno anche le operazioni di ricerca e salvataggio suonano vane. 

All’apertura della Fiera internazionale di Salonicco lo scorso settembre, il ministro greco per l’immigrazione Notis Mitarakis – altrimenti noto per aver liquidato le prove in corso dei brutali e illegali respingimenti dei richiedenti asilo da parte delle guardie di frontiera greche come “notizie false” – ha fatto notizia a livello nazionale quando ha presentato la sua Ultimo progetto del ministero: 3,7 milioni di euro di finanziamento per droni con “algoritmi innovativi” in grado di “identificare automaticamente obiettivi di interesse definiti” al confine greco. 

Continua a leggere “La Grecia prevede droni automatizzati per individuare le persone che attraversano il confine”