Lettera aperta: il governo tedesco dovrebbe difendere un forte divieto di sorveglianza biometrica nei negoziati del Consiglio dell’UE in merito alla legge sull’IA

Pubblichiamo questa lettera aperta che diverse Associazioni della società civile tedesca hanno inviato al loro governo per richiedere una iniziativa energica verso il Consiglio della UE in materia di contenimento dell’uso della sorveglianza biometrica per contrastare una deriva verso la sorveglianza di massa.

Fonte AlgorithmWatch 

Open letter: the German government should stand up for a strong ban on biometric surveillance in the Council of EU negotiations regarding the AI Act  

AlgorithmWatch and 23 other civil society organizations are calling on the German government to stand up in the negotiations on the AI Act and advocate for a strong ban on biometric surveillance as mirrored in its coalition treaty.

The Council of the EU, comprised by the member states, is at full speed towards an agreement on the Artificial Intelligence Act (AI Act) and is aiming to reach a general approach by early December. However, the ban in the Act on biometric identification practices which can lead to mass surveillance – in its current form – entails dangerous loopholes and limitations.

Continua a leggere “Lettera aperta: il governo tedesco dovrebbe difendere un forte divieto di sorveglianza biometrica nei negoziati del Consiglio dell’UE in merito alla legge sull’IA”

 155 total views,  3 views today

Capi orribili: come gli algoritmi managers stanno prendendo il controllo dell’ufficio

Un articolo da TheConversation di grande interesse. Per facilitare la lettura al fondo dell’articolo in lingua originale abbiamo postato una traduzione automatica google in italiano. Per qualsiasi utilizzo e riferimento vale la versione in lingua originale.

Horrible bosses: how algorithm managers are taking over the office

Monster Ztudio/Shutterstock

Robert Donoghue, University of Bath and Tiago Vieira, European University Institute

The 1999 cult classic film Office Space depicts Peter’s dreary life as a cubicle-dwelling software engineer. Every Friday, Peter tries to avoid his boss and the dreaded words: “I’m going to need you to go ahead and come in tomorrow.”

This scene is still popular on the internet nearly 25 years later because it captures troubling aspects of the employment relationship – the helplessness Peter feels, the fake sympathy his boss intones when issuing this directive, the never-ending demand for greater productivity.

There is no shortage of pop culture depictions of horrible bosses. There is even a film with that title. But things could be about to get worse. What is to be made of the new bosses settling into workplaces across all sectors: the algorithm managers?

The rise of algorithm management

The prospect of robots replacing workers is frequently covered in the media. But, it is not only labour that is being automated. Managers are too. Increasingly we see software algorithms assume managerial functions, such as screening job applications, delegating work, evaluating worker performance – and even deciding when employees should be fired.

The offloading of tasks from human managers to machines is only set to increase as surveillance and monitoring devices become increasingly sophisticated. In particular, wearable technology that can track employee movements.

From an employer’s point of view, there is much to be gained from transferring managers’ duties to algorithms. Algorithms lower business costs by automating tasks that take longer for humans to complete. Uber, with its 22,800 employees, can supervise 3.5 million drivers according to the latest yearly figures.

Continua a leggere “Capi orribili: come gli algoritmi managers stanno prendendo il controllo dell’ufficio”

 128 total views,  1 views today

Con IA (l’intelligenza artificiale) non si scherza. Un’idea distopica per controllare i comportamenti dei giovani

Riprendiamo questo articolo di denuncia dell’Osservatorio “Algorithm Watch” sull’idea del Partito FdI di utilizzare Intelligenza Artificiale per “individuare” i giovani che al termine dell’obbligo scolastico non proseguono gli studi e non lavorano….Un’idea per il momento messa da parte, non è apparsa sul programma elettorale ma… una volta al governo potrebbe essere riesumata. Per le implicazioni gravi per le libertà personali che comporterebbe questo progetto se fosse realizzato rimandiamo alla lettura dell’articolo. Al fondo del testo originale in lingua inglese abbiamo postato una traduzione automatica in italiano. Per un uso professionale di questo testo va utilizzato il testo alla fonte. Ringraziamo Algorithm Watch per il prezioso lavoro che svolge.

Italian neofascists considered building an authoritarian AI to solve unemployment. They are far from alone.

       The neofascist party Brothers of Italy proposed to use Artificial Intelligence to assign young people mandatory jobs. The idea has a lot in common with “algorithmic solutions” to unemployment in other EU countries.

CPAC 2022 con Hermann Tertsch y Victor Gonzalez | | flickr | CC0 1.0

Back in April, the far-right Brothers of Italy party presented “Notes on a Conservative Program”. In a chapter on work, they called for an “artificial intelligence system” that “traces the list of young people who finish high school and university every year and connects them to companies in the sector.” This, the authors of the chapter wrote, would finally solve “youth unemployment,” as “the young person will no longer be able to choose whether to work or not, but [will be] bound to accept the job offer for himself (sic), for his family and for the country, under penalty of loss of all benefits with the application of a system of sanctions.”

The proposal did not make it to the final program that Brothers of Italy published prior to the election on 25 September, when they became Italy’s largest party with 26% of the vote.

Ironically, the neofascists most likely had intended to use Artificial Intelligence to “create a fog around them, around what they are and what they want, because they want to attract a more moderate right-wing electorate,” says sociologist Antonio Casilli. Guido Crosetto, the Brothers of Italy co-founder who edited the work chapter, is not considered knowledgeable on technology, though he once tweeted about being “in favor of introducing artificial intelligence to the Ministry of Justice”. Unlike in other countries, there is no noticeable overlap between the Italian tech scene and far-right parties like Lega Nord and Brothers of Italy. Continua a leggere “Con IA (l’intelligenza artificiale) non si scherza. Un’idea distopica per controllare i comportamenti dei giovani”

 230 total views,  1 views today

Intelligenza Artificiale: aspetti etici e responsabilità degli scienziati

Fonte: Fondazione Sereno Regis che ringraziamo 
di Elena Camino

Alcune informazioni e riflessioni di questo articolo sono tratte da un testo di Guglielmo Tamburrini, che mette in relazione il tema dell’Intelligenza Artificiale (IA) con i problemi ambientali, chiamando direttamente in causa le responsabilità degli scienziati.

La problematica generale che riguarda la ricerca sull’Intelligenza Artificiale e le sue possibili implicazioni etiche viene affrontata nei numerosi contributi che da alcuni anni il prof. Norberto Patrignani offre, sia nelle sue pubblicazioni scientifiche, sia in seminari e incontri organizzati per il nostro centro studi.

Tra tale documentazione segnalo, in particolare:

Don Milani al tempo dell’Infosfera | Norberto Patrignani (martedì 24 Ottobre 2017)

Slow Tech | 8. Etica e informatica. Dilemmi al confine tra decisioni e scelte. CONVERSAZIONE con Norberto Patrignani (giovedì 28 Novembre 2019)

Fermare la cyberwar prima che sia troppo tardi (martedì 5 Aprile 2022)

Verso un’abbondanza frugale | Incontro con Norberto Patrignani (giovedì 26 Maggio 2022)

“Intelligenza” artificiale: non chiamiamola così! (lunedì 27 Giugno 2022)

Entrambi gli autori richiamano l’attenzione dei lettori sulle responsabilità dei ricercatori – soprattutto i professionisti delle discipline informatiche (esperti, studiosi e professori universitari) nella ricerca e sviluppo di progetti al confine tra etica e scienza.

Guglielmo Tamburrini e Norberto Patrignani, assieme a Francesca Farruggia (Istituto di Ricerche Internazionali Archivio Disarmo – IRIAD di Roma) parteciperanno a un incontro su Tecnologia e Pace co-organizzato da Centro Studi Sereno Regis e Politecnico di Torino nel corso della prossima Biennale Democrazia 2022 (h: 11.00, sala Emma Strada, Politecnico Torino – 12 novembre 2022)


IA: un mondo presente ma sconosciuto

Dell’Intelligenza Artificiale (IA) si parla e si scrive ormai da decenni: tra finanziamenti alla ricerca, sperimentazioni nei più disparati ambiti, e applicazioni concrete, si può affermare che non c’è quasi aspetto della vita umana che non sia stato già cambiato, o che non possa essere modificato nel prossimo futuro.

Nell’Introduzione dell’articolo sopra citato Tamburrini accenna rapidamente all’impatto pervasivo dell’IA negli ultimi 10 anni, alimentato da sistemi informatici di apprendimento dell’IA, che stanno assumendo un ruolo crescente nel commercio, nell’industria, nella gestione dei servizi pubblici e privati, nella comunicazione, nell’intrattenimento, nella sicurezza e nella difesa. Il tema è vasto, e di difficile comprensione per il pubblico non specializzato.

Il ‘machine learning’, l’apprendimento automatico, si basa sull’idea che i computer possono imparare ad eseguire compiti specifici senza essere programmati per farlo, grazie al riconoscimento di schemi tra i dati, che vengono forniti in modo iterativo. Un aspetto importante del machine learning è la ripetitività: esposti più volte ai dati, questi sistemi sono in grado di adattarsi in modo autonomo. Nelle ‘deep neural networks’, reti neurali profonde, di struttura più complessa e caratterizzate da un gran numero di strati e connessioni tra i componenti, il sistema apprende a eseguire dei compiti sempre più sofisticati nella misura in cui viene alimentato da quantità e varietà crescenti di informazioni. Continua a leggere “Intelligenza Artificiale: aspetti etici e responsabilità degli scienziati”

 307 total views,  1 views today

¿Necesitamos una agencia que supervise la inteligencia artificial?

PopTika / Shutterstock

José Luis Verdegay Galdeano, Universidad de Granada

A menudo nos encontramos anuncios de productos con el sello “con inteligencia artificial”. Pero muy pocas veces, por no decir nunca, se informa al usuario de más detalles. ¿Quién nos garantiza que, efectivamente, ese producto funciona en base a inteligencia artificial (IA)? ¿Quién certifica que las respuestas que nos ofrece son las correctas? ¿A qué código ético obedece? Sin saber nada al respecto, cuando por alguna causa ese producto no funciona como esperábamos, es normal concluir que la IA no es fiable y mucho menos los algoritmos que emplea.

Pero ¿sabemos si el producto al que nos referimos funciona en base a un algoritmo? ¿Las soluciones que proporciona son siempre malas o solo lo son dependiendo del usuario? ¿El código ético de quien diseñó ese producto coincide con el nuestro? Y, a propósito: ¿quién define lo que es un comportamiento ético? ¿Cómo se mide la ética?

¿Qué es axactamente un algoritmo?

Un algoritmo es una secuencia ordenada de pasos, exentos de ambigüedad, que cuando se lleva a cabo con fidelidad en un tiempo finito da como resultado la solución del problema planteado, habiendo realizando, por tanto, la tarea para la que se diseñó. Así, para que un algoritmo sea correcto necesita cumplir lo siguiente:

  • debe terminar siempre tras un número finito de etapas;
  • las acciones que ha de llevar a cabo en cada etapa deben estar rigurosamente especificadas, sin ambigüedades;
  • los valores con los que comienza a funcionar se han de tomar de conjuntos preespecificados;
  • el resultado que proporcione siempre dependerá de los datos de entrada;
  • todas las operaciones que haya que realizar en el algoritmo deben ser lo suficientemente básicas como para que se hagan exactamente y en un periodo finito de tiempo.

Cuando no se da alguna de estas propiedades, no tenemos un algoritmo.

Continua a leggere “¿Necesitamos una agencia que supervise la inteligencia artificial?”

 196 total views,  1 views today

Perturbateurs endocriniens : pourquoi les remplaçants du bisphénol A posent aussi problème

Cécile Michel, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

En 2017, le comité des États membres de l’Agence européenne des produits chimiques (ECHA), qui évalue et régule les produits chimiques, a identifié officiellement le bisphénol A comme perturbateur endocrinien.

Cette substance faisait déjà l’objet de plusieurs interdictions en France. Les industriels commercialisant les produits concernés ont donc dû la remplacer par des substances chimiques possédant les mêmes fonctions technologiques.

Le problème est qu’au-delà des fonctions technologiques, ces substituts partagent parfois les mêmes propriétés dangereuses que la substance qu’ils remplacent (on parle alors de « substitution regrettable »).

Continua a leggere “Perturbateurs endocriniens : pourquoi les remplaçants du bisphénol A posent aussi problème”

 434 total views,  2 views today

I vincitori e i vinti del lavoro a distanza

fonte Etui

l Dipartimento di Ricerca, Studi e Statistica (Dares) del Ministero del Lavoro francese ha pubblicato i risultati della sua indagine “TraCov” , dedicata alle conseguenze della crisi sanitaria sulle condizioni di lavoro.

Tra le questioni sollevate c’è la questione del telelavoro e del suo impatto sulla salute dei lavoratori. Basata su un campione di 5.220 dipendenti, questa parte dell’indagine distingue cinque gruppi di telelavoratori: esclusivi, intensivi, vulnerabili, occasionali ed eccezionali. Questi diversi gruppi sono definiti in relazione al loro comportamento nei confronti del telelavoro, sia in termini di frequenza, contenuto dei compiti svolti e mezzi tecnici utilizzati. Tre gruppi sono particolarmente interessanti in quanto hanno visto le loro condizioni di lavoro cambiare di più.

Il gruppo esclusivo (25% dei telelavoratori) telelavora da remoto tutti i giorni della settimana e ritiene di disporre di mezzi sufficienti per svolgere la propria attività da remoto. Sono più qualificati e più frequentemente con contratto a tempo indeterminato (CDI) rispetto agli altri gruppi e il più delle volte hanno precedenti esperienze di telelavoro. Lavorando principalmente nel settore privato, sono spesso dirigenti, ma raramente svolgono compiti di supervisione. Tra le professioni più rappresentate si possono citare quelle dell’informatica, bancaria o assicurativa.

Continua a leggere “I vincitori e i vinti del lavoro a distanza”

 287 total views,  3 views today

Tra pandemia e guerra – Podcast di Diario Prevenzione – 18 marzo 2022 – Puntata n° 96

a cura di Gino Rubini

In questo puntata parliamo di :

– Tra Pandemia e guerra/e dove va a finire la “transizione ecologica ” ?
– Seminario CIIP – Violenze contro operatori sanitari e socio-sanitari –
– Decostruzione dei linguaggi “bellici” e violenti, come fare ?
– Come governare le paure di questa epoca…. riflessioni per percorsi di ragionevolezza …
– Lettera degli scienziati e dei giornalisti scientifici russi contro la guerra in Ucraina

 

 

 609 total views,  6 views today

Sistemi decisionali automatizzati nel settore pubblico: le raccomandazioni di AlgoritmoWatch

Fonte: Algoritmo Watch 

la traduzione è stata effettuata con google translator

 

Quando si utilizzano sistemi decisionali automatizzati (sistemi ADM) nel settore pubblico, le autorità agiscono in un contesto unico e hanno responsabilità speciali nei confronti delle persone interessate. In questo contesto, l’uso dei sistemi ADM da parte delle pubbliche amministrazioni dovrebbe essere soggetto a rigorosi meccanismi di trasparenza, compresi i registri pubblici e le valutazioni d’impatto obbligatorie.

L’automazione delle procedure e dei servizi decisionali nelle pubbliche amministrazioni è in forte aumento. Le amministrazioni la considerano un’opportunità per accelerare l’efficienza, facilitare i processi, nonché accelerare i servizi di massa e di routine. Gli esempi vanno dai chatbot, all’elaborazione automatizzata delle dichiarazioni fiscali o delle richieste di prestazioni sociali, ai sistemi algoritmici per rilevare i rischi di frode sociale, per profilare i disoccupati, per scopi di polizia predittiva o per valutare i rischi di recidiva dei detenuti in libertà vigilata: tutti questi sistemi sono sempre più utilizzati in Europa e oltre.

Continua a leggere “Sistemi decisionali automatizzati nel settore pubblico: le raccomandazioni di AlgoritmoWatch”

 739 total views,  2 views today

I registri algoritmici possono risolvere il bias automatizzato?

Fonte : Equaltimes.org che ringraziamo 

Nel gennaio 2021 il governo olandese è crollato a causa di uno scandalo che mette in evidenza i pericoli del tentativo di amministrare i servizi governativi essenziali con l’intelligenza artificiale (AI) . Tra il 2009 e il 2019, in quello che è diventato noto come il toeslagenaffaire (l’affare dei benefici), circa 26.000 genitori sono stati ingiustamente accusati di aver commesso una frode sugli assegni per l’infanzia.

I servizi fiscali olandesi hanno preso di mira pesantemente le famiglie provenienti da ambienti più poveri e quelle con nomi “dal suono straniero”, in alcuni casi costringendole inutilmente a rimborsare decine di migliaia di euro di assegni familiari. Spesso le persone coinvolte non hanno avuto accesso alle vie legali, portando molte famiglie a indebitarsi e divorziare. Alcune famiglie hanno persino perso la casa. Continua a leggere “I registri algoritmici possono risolvere il bias automatizzato?”

 877 total views,  2 views today