L’approccio europeo alla regolamentazione dell’IA: comprendere la grande tecnologia e gli estremisti della sicurezza

Fonte Algorithmwatch che ringraziamo 

[ la traduzione è automatica tramite google, per un uso di studio o di ricerca raccomandiamo di fare riferimento al testo originale ]

L’Europa sta per adottare due importanti regolamenti sull’intelligenza artificiale: la legge sull’intelligenza artificiale dell’UE e la convenzione sull’intelligenza artificiale del Consiglio d’Europa. Tuttavia, sebbene entrambi i regolamenti fossero inizialmente pensati per ribaltare la situazione sulla Big Tech e per proteggere efficacemente le persone dall’abuso della tecnologia IA da parte dei governi, gli interessi delle aziende tecnologiche e dei sostenitori della sicurezza dei governi potrebbero prevalere.

Nel comitato sull’intelligenza artificiale del Consiglio d’Europa che si riunisce questa settimana a Strasburgo, i negoziatori discutono le opzioni che consentirebbero agli Stati di limitare l’applicabilità del trattato sull’intelligenza artificiale alle autorità pubbliche e di mantenere le società private ampiamente fuori dal campo di applicazione. Nell’UE, l’accordo di compromesso sulla legge sull’AI lascerebbe molte persone in situazioni vulnerabili senza una protezione affidabile contro la sorveglianza e il controllo del governo, esentando allo stesso tempo le aziende da una serie di doveri.

Open AI, Google/Alphabet, Microsoft, Amazon, Meta: questi sono i nomi che beneficiano del grande clamore attorno all’intelligenza artificiale innescato nel novembre 2022, con il rilascio di ChatGPT. Solo poco dopo, questi sono stati anche i nomi dietro le forti richieste di una regolamentazione dell’IA, cioè di norme legali su come questa tecnologia viene sviluppata e utilizzata. Le Big Tech e i loro alleati tendono a spiegare le loro richieste di norme legali sull’intelligenza artificiale indicando scenari futuri non realistici, come ad esempio che l’intelligenza artificiale potrebbe un giorno assumere il controllo sull’umanità.

Leggi tutto

Voto del Parlamento europeo sulla legge sull’IA: i legislatori hanno scelto di proteggere le persone dai danni dei sistemi di intelligenza artificiale

Fonte AlgorithmWatch

Dopo lunghi mesi di intensi negoziati, i membri del Parlamento europeo hanno votato la legge sull’intelligenza artificiale (AI Act) dell’UE. AlgorithmWatch plaude al Parlamento per aver rafforzato la protezione dei diritti fondamentali contro gli impatti negativi dell’intelligenza artificiale, come quello del riconoscimento facciale negli spazi pubblici. Tuttavia, il Parlamento ha perso l’opportunità di rafforzare la protezione per alcune persone che ne avrebbero più bisogno.

l voto storico segna la posizione del Parlamento europeo in vista dei negoziati del trilaterale con il Consiglio dell’UE (che comprende gli Stati membri dell’UE) e la Commissione.

IWH:  Avvio di un programma di ricerca su intelligenza artificiale, lavoro e salute

Fonte IWH  – Institute for Work & Health che ringraziamo

Postiamo questo articolo che proviene dal sito dell‘Istituto per il Lavoro e la Salute (IWH) che ha sede a Toronto Canada, un’organizzazione indipendente e senza fini di lucro. La missione di IWH  è promuovere, proteggere e migliorare la sicurezza e la salute dei lavoratori conducendo ricerche attuabili apprezzate da datori di lavoro, lavoratori e responsabili politici. Nell’articolo si descrive il programma di ricerca promosso da IWH sugli impatti che la IA avrà sul lavoro e sulla vita delle persone. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

In occasione di un evento di lancio nell’ottobre 2022, le parti interessate del sistema di prevenzione esaminano le implicazioni dell’IA su SSL e le disuguaglianze dei lavoratori

Pubblicato: 5 dicembre 2022

Tuttavia, soprattutto, ciò che l’ IA significa per i lavoratori e i luoghi di lavoro non è ancora del tutto chiaro. Questo è stato uno dei messaggi principali ascoltati in un recente incontro di collaborazione tenuto da un gruppo di ricerca dell’Istituto per il lavoro e la salute ( IWH ). Nessuna ricerca che conosciamo ha preso una prospettiva di salute e sicurezza sul lavoro o applicato una lente di equità per esaminare l’ impatto delle applicazioni di intelligenza artificiale sul posto di lavoro sui lavoratori,  in particolare sui gruppi che già sperimentano altre forme di disuguaglianza, ha affermato il dott. Arif Jetha, scienziato IWH e ospite dell’evento.

Leggi tutto

L’anno in cui i sistemi automatizzati avrebbero potuto essere regolamentati: 2022 in rassegna

Fonte Algorithm Watch 

Riportiamo da Algorithm Watch   [che ringraziamo] questo articolo sulle difficoltà a  regolamentare  i sistemi automatizzati  che hanno già rilevanti influenze e tendenze ad invadere nella quotidianità la nostra vita di cittadini in moltissimi ambiti. Molte decisioni sono prese  dalle agenzie statuali e dalle corporation facendo riferimento a data base estratti dai nostri comportamenti quotidiani nel campo della salute, dei nostri consumi materiali e immateriali. L’articolo fa una rassegna degli eventi di questo annus orribilis  che sta finendo vedendoli dal punto di vista dell’impatto che hanno avuto le piattaforme e i sistemi digitali …. La traduzione che postiamo, per facilitare la lettura, è stata effettuata con google translator. Per un uno studio approfondito e professionale di questo articolo raccomandiamo di fare riferimento al testo originale in lingua inglese. editor

I

I sistemi automatizzati erano sorprendentemente assenti dalle storie principali di quest’anno. Sul fronte normativo, le istituzioni europee hanno intensificato i loro sforzi. Quanti cambiamenti possono aspettarsi gli europei dipende dalla risolutezza delle istituzioni, e la prima prova del 2023 è già iniziata.

Nel 2022, proprio come nel decennio precedente e nei decenni a venire, la storia di sviluppo più importante è stata il crollo del nostro clima. La prolungata assenza di precipitazioni sta sconvolgendo i mezzi di sussistenza nell’Africa orientale, mentre i raccolti nell’Africa occidentale sono stati distrutti da acquazzoni torrenziali. Centinaia di milioni hanno sofferto la fame quest’anno e la situazione sta peggiorando.

Che questo sviluppo non abbia nulla a che fare con i sistemi automatizzati potrebbe sorprendere. All’inizio del 2019, ad esempio, Microsoft ha annunciato che “l’uso dell’IA [potrebbe] risolvere la fame e la malnutrizione nel mondo [entro il 2030]”. L’affermazione potrebbe essere stata esagerata.

Nel complesso, come ho valutato nel 2020 , il contributo dell’Intelligenza Artificiale alla crisi climatica è stato l’accelerazione, non la mitigazione. Nei documenti normativi delle società petrolifere e del gas, che sono le principali fonti di emissioni di gas serra, le menzioni dell’IA non sono aumentate in modo significativo rispetto al 2021, ma rimangono ai massimi storici .

Leggi tutto

Capi orribili: come gli algoritmi managers stanno prendendo il controllo dell’ufficio

Un articolo da TheConversation di grande interesse. Per facilitare la lettura al fondo dell’articolo in lingua originale abbiamo postato una traduzione automatica google in italiano. Per qualsiasi utilizzo e riferimento vale la versione in lingua originale.

Horrible bosses: how algorithm managers are taking over the office

Monster Ztudio/Shutterstock

Robert Donoghue, University of Bath and Tiago Vieira, European University Institute

The 1999 cult classic film Office Space depicts Peter’s dreary life as a cubicle-dwelling software engineer. Every Friday, Peter tries to avoid his boss and the dreaded words: “I’m going to need you to go ahead and come in tomorrow.”

This scene is still popular on the internet nearly 25 years later because it captures troubling aspects of the employment relationship – the helplessness Peter feels, the fake sympathy his boss intones when issuing this directive, the never-ending demand for greater productivity.

There is no shortage of pop culture depictions of horrible bosses. There is even a film with that title. But things could be about to get worse. What is to be made of the new bosses settling into workplaces across all sectors: the algorithm managers?

The rise of algorithm management

The prospect of robots replacing workers is frequently covered in the media. But, it is not only labour that is being automated. Managers are too. Increasingly we see software algorithms assume managerial functions, such as screening job applications, delegating work, evaluating worker performance – and even deciding when employees should be fired.

The offloading of tasks from human managers to machines is only set to increase as surveillance and monitoring devices become increasingly sophisticated. In particular, wearable technology that can track employee movements.

From an employer’s point of view, there is much to be gained from transferring managers’ duties to algorithms. Algorithms lower business costs by automating tasks that take longer for humans to complete. Uber, with its 22,800 employees, can supervise 3.5 million drivers according to the latest yearly figures.

Leggi tutto

Con IA (l’intelligenza artificiale) non si scherza. Un’idea distopica per controllare i comportamenti dei giovani

Riprendiamo questo articolo di denuncia dell’Osservatorio “Algorithm Watch” sull’idea del Partito FdI di utilizzare Intelligenza Artificiale per “individuare” i giovani che al termine dell’obbligo scolastico non proseguono gli studi e non lavorano….Un’idea per il momento messa da parte, non è apparsa sul programma elettorale ma… una volta al governo potrebbe essere riesumata. Per le implicazioni gravi per le libertà personali che comporterebbe questo progetto se fosse realizzato rimandiamo alla lettura dell’articolo. Al fondo del testo originale in lingua inglese abbiamo postato una traduzione automatica in italiano. Per un uso professionale di questo testo va utilizzato il testo alla fonte. Ringraziamo Algorithm Watch per il prezioso lavoro che svolge.

Italian neofascists considered building an authoritarian AI to solve unemployment. They are far from alone.

       The neofascist party Brothers of Italy proposed to use Artificial Intelligence to assign young people mandatory jobs. The idea has a lot in common with “algorithmic solutions” to unemployment in other EU countries.

CPAC 2022 con Hermann Tertsch y Victor Gonzalez | | flickr | CC0 1.0

Back in April, the far-right Brothers of Italy party presented “Notes on a Conservative Program”. In a chapter on work, they called for an “artificial intelligence system” that “traces the list of young people who finish high school and university every year and connects them to companies in the sector.” This, the authors of the chapter wrote, would finally solve “youth unemployment,” as “the young person will no longer be able to choose whether to work or not, but [will be] bound to accept the job offer for himself (sic), for his family and for the country, under penalty of loss of all benefits with the application of a system of sanctions.”

The proposal did not make it to the final program that Brothers of Italy published prior to the election on 25 September, when they became Italy’s largest party with 26% of the vote.

Ironically, the neofascists most likely had intended to use Artificial Intelligence to “create a fog around them, around what they are and what they want, because they want to attract a more moderate right-wing electorate,” says sociologist Antonio Casilli. Guido Crosetto, the Brothers of Italy co-founder who edited the work chapter, is not considered knowledgeable on technology, though he once tweeted about being “in favor of introducing artificial intelligence to the Ministry of Justice”. Unlike in other countries, there is no noticeable overlap between the Italian tech scene and far-right parties like Lega Nord and Brothers of Italy.

Leggi tutto

Intelligenza Artificiale: aspetti etici e responsabilità degli scienziati

Fonte: Fondazione Sereno Regis che ringraziamo 
di Elena Camino

Alcune informazioni e riflessioni di questo articolo sono tratte da un testo di Guglielmo Tamburrini, che mette in relazione il tema dell’Intelligenza Artificiale (IA) con i problemi ambientali, chiamando direttamente in causa le responsabilità degli scienziati.

La problematica generale che riguarda la ricerca sull’Intelligenza Artificiale e le sue possibili implicazioni etiche viene affrontata nei numerosi contributi che da alcuni anni il prof. Norberto Patrignani offre, sia nelle sue pubblicazioni scientifiche, sia in seminari e incontri organizzati per il nostro centro studi.

Tra tale documentazione segnalo, in particolare:

Don Milani al tempo dell’Infosfera | Norberto Patrignani (martedì 24 Ottobre 2017)

Slow Tech | 8. Etica e informatica. Dilemmi al confine tra decisioni e scelte. CONVERSAZIONE con Norberto Patrignani (giovedì 28 Novembre 2019)

Fermare la cyberwar prima che sia troppo tardi (martedì 5 Aprile 2022)

Verso un’abbondanza frugale | Incontro con Norberto Patrignani (giovedì 26 Maggio 2022)

“Intelligenza” artificiale: non chiamiamola così! (lunedì 27 Giugno 2022)

Entrambi gli autori richiamano l’attenzione dei lettori sulle responsabilità dei ricercatori – soprattutto i professionisti delle discipline informatiche (esperti, studiosi e professori universitari) nella ricerca e sviluppo di progetti al confine tra etica e scienza.

Guglielmo Tamburrini e Norberto Patrignani, assieme a Francesca Farruggia (Istituto di Ricerche Internazionali Archivio Disarmo – IRIAD di Roma) parteciperanno a un incontro su Tecnologia e Pace co-organizzato da Centro Studi Sereno Regis e Politecnico di Torino nel corso della prossima Biennale Democrazia 2022 (h: 11.00, sala Emma Strada, Politecnico Torino – 12 novembre 2022)


IA: un mondo presente ma sconosciuto

Dell’Intelligenza Artificiale (IA) si parla e si scrive ormai da decenni: tra finanziamenti alla ricerca, sperimentazioni nei più disparati ambiti, e applicazioni concrete, si può affermare che non c’è quasi aspetto della vita umana che non sia stato già cambiato, o che non possa essere modificato nel prossimo futuro.

Nell’Introduzione dell’articolo sopra citato Tamburrini accenna rapidamente all’impatto pervasivo dell’IA negli ultimi 10 anni, alimentato da sistemi informatici di apprendimento dell’IA, che stanno assumendo un ruolo crescente nel commercio, nell’industria, nella gestione dei servizi pubblici e privati, nella comunicazione, nell’intrattenimento, nella sicurezza e nella difesa. Il tema è vasto, e di difficile comprensione per il pubblico non specializzato.

Il ‘machine learning’, l’apprendimento automatico, si basa sull’idea che i computer possono imparare ad eseguire compiti specifici senza essere programmati per farlo, grazie al riconoscimento di schemi tra i dati, che vengono forniti in modo iterativo. Un aspetto importante del machine learning è la ripetitività: esposti più volte ai dati, questi sistemi sono in grado di adattarsi in modo autonomo. Nelle ‘deep neural networks’, reti neurali profonde, di struttura più complessa e caratterizzate da un gran numero di strati e connessioni tra i componenti, il sistema apprende a eseguire dei compiti sempre più sofisticati nella misura in cui viene alimentato da quantità e varietà crescenti di informazioni.

Leggi tutto

¿Necesitamos una agencia que supervise la inteligencia artificial?

PopTika / Shutterstock

José Luis Verdegay Galdeano, Universidad de Granada

A menudo nos encontramos anuncios de productos con el sello “con inteligencia artificial”. Pero muy pocas veces, por no decir nunca, se informa al usuario de más detalles. ¿Quién nos garantiza que, efectivamente, ese producto funciona en base a inteligencia artificial (IA)? ¿Quién certifica que las respuestas que nos ofrece son las correctas? ¿A qué código ético obedece? Sin saber nada al respecto, cuando por alguna causa ese producto no funciona como esperábamos, es normal concluir que la IA no es fiable y mucho menos los algoritmos que emplea.

Pero ¿sabemos si el producto al que nos referimos funciona en base a un algoritmo? ¿Las soluciones que proporciona son siempre malas o solo lo son dependiendo del usuario? ¿El código ético de quien diseñó ese producto coincide con el nuestro? Y, a propósito: ¿quién define lo que es un comportamiento ético? ¿Cómo se mide la ética?

¿Qué es axactamente un algoritmo?

Un algoritmo es una secuencia ordenada de pasos, exentos de ambigüedad, que cuando se lleva a cabo con fidelidad en un tiempo finito da como resultado la solución del problema planteado, habiendo realizando, por tanto, la tarea para la que se diseñó. Así, para que un algoritmo sea correcto necesita cumplir lo siguiente:

  • debe terminar siempre tras un número finito de etapas;
  • las acciones que ha de llevar a cabo en cada etapa deben estar rigurosamente especificadas, sin ambigüedades;
  • los valores con los que comienza a funcionar se han de tomar de conjuntos preespecificados;
  • el resultado que proporcione siempre dependerá de los datos de entrada;
  • todas las operaciones que haya que realizar en el algoritmo deben ser lo suficientemente básicas como para que se hagan exactamente y en un periodo finito de tiempo.

Cuando no se da alguna de estas propiedades, no tenemos un algoritmo.

Leggi tutto

Riteniamo utile e importante condividere questa bozza del Regolamento che delinea le modalità di riordino dell’Istituto Superiore di Sanità.

 

allegato1655889064

Per scaricare il file pdf  del documento clicca QUI 

 

 

La lettura del documento suscita diverse perplessità in particolare per quanto attiene la questione della tematica della prevenzione in materia di infortuni e malattie professionali. Questa tematica che ha un peso rilevante per quanto riguarda la tutela e la promozione della salute della popolazione viene allocata nell’area delle competenze della Direzione Ambiente Salute. Nel comma b) dell’art.7 ci troviamo di fronte ad una definizione generica e confusa nella quale si fa riferimento ad una “prevenzione universale delle esposizioni ad agenti chimici, biologici e psicosociali nell’ambiente naturale, nell’ambiente di vita, nelle acque destinate al consumo umano e… nell’ambiente di lavoro..”
Sarebbe interessante comprendere cosa gli estensori della bozza abbiano voluto dire con questo comma e saremmo pure curiosi di conoscere meglio la definizione di “agenti psicosociali” su cui fare prevenzione… In un certo senso questo documento, qualora non venisse emendato e riscritto per quanto attiene la tematica della prevenzione della salute e della sicurezza nel lavoro, testimonia la separazione culturale, scientifica e operativa che il Ministero della salute sta praticando da tempo rispetto alla tematica “lavoro salute”. Non sono sufficienti i commi p) e q) per “recuperare” il pastrocchio del comma b) dell’art.7.
I rapidi e rilevanti cambiamenti che stanno avvenendo nel lavoro, le nuove modalità di lavoro sempre più ritmate e plasmate da algoritmi e sistemi di AI richiederebbero una definizione certa delle competenze della DG Ambiente Salute di ricerca e monitoraggio sugli impatti sulla salute dei lavoratori nei nuovi contesti lavorativi in collaborazione con le Università e la rete dei Servizi di Prevenzione delle ASL.
Verosimilmente questo non pare interessare. Si preferisce la delega a Inail e/o al IdL con la riduzione dell’intervento alla mera vigilanza antinfortunistica. Tutto ciò in piena coerenza con il percorso normativo già messo in atto con la recente e pessima norma 215/2021. Per questi motivi invitiamo i lettori e le lettrici ad una lettura attenta di questa bozza di Regolamento…

editor

Perturbateurs endocriniens : pourquoi les remplaçants du bisphénol A posent aussi problème

Cécile Michel, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

En 2017, le comité des États membres de l’Agence européenne des produits chimiques (ECHA), qui évalue et régule les produits chimiques, a identifié officiellement le bisphénol A comme perturbateur endocrinien.

Cette substance faisait déjà l’objet de plusieurs interdictions en France. Les industriels commercialisant les produits concernés ont donc dû la remplacer par des substances chimiques possédant les mêmes fonctions technologiques.

Le problème est qu’au-delà des fonctions technologiques, ces substituts partagent parfois les mêmes propriétés dangereuses que la substance qu’ils remplacent (on parle alors de « substitution regrettable »).

Leggi tutto

Tra pandemia e guerra – Podcast di Diario Prevenzione – 18 marzo 2022 – Puntata n° 96

a cura di Gino Rubini

In questo puntata parliamo di :

– Tra Pandemia e guerra/e dove va a finire la “transizione ecologica ” ?
– Seminario CIIP – Violenze contro operatori sanitari e socio-sanitari –
– Decostruzione dei linguaggi “bellici” e violenti, come fare ?
– Come governare le paure di questa epoca…. riflessioni per percorsi di ragionevolezza …
– Lettera degli scienziati e dei giornalisti scientifici russi contro la guerra in Ucraina

 

 

Sistemi decisionali automatizzati nel settore pubblico: le raccomandazioni di AlgoritmoWatch

Fonte: Algoritmo Watch 

la traduzione è stata effettuata con google translator

 

Quando si utilizzano sistemi decisionali automatizzati (sistemi ADM) nel settore pubblico, le autorità agiscono in un contesto unico e hanno responsabilità speciali nei confronti delle persone interessate. In questo contesto, l’uso dei sistemi ADM da parte delle pubbliche amministrazioni dovrebbe essere soggetto a rigorosi meccanismi di trasparenza, compresi i registri pubblici e le valutazioni d’impatto obbligatorie.

L’automazione delle procedure e dei servizi decisionali nelle pubbliche amministrazioni è in forte aumento. Le amministrazioni la considerano un’opportunità per accelerare l’efficienza, facilitare i processi, nonché accelerare i servizi di massa e di routine. Gli esempi vanno dai chatbot, all’elaborazione automatizzata delle dichiarazioni fiscali o delle richieste di prestazioni sociali, ai sistemi algoritmici per rilevare i rischi di frode sociale, per profilare i disoccupati, per scopi di polizia predittiva o per valutare i rischi di recidiva dei detenuti in libertà vigilata: tutti questi sistemi sono sempre più utilizzati in Europa e oltre.

Leggi tutto

I registri algoritmici possono risolvere il bias automatizzato?

Fonte : Equaltimes.org che ringraziamo 

Nel gennaio 2021 il governo olandese è crollato a causa di uno scandalo che mette in evidenza i pericoli del tentativo di amministrare i servizi governativi essenziali con l’intelligenza artificiale (AI) . Tra il 2009 e il 2019, in quello che è diventato noto come il toeslagenaffaire (l’affare dei benefici), circa 26.000 genitori sono stati ingiustamente accusati di aver commesso una frode sugli assegni per l’infanzia.

I servizi fiscali olandesi hanno preso di mira pesantemente le famiglie provenienti da ambienti più poveri e quelle con nomi “dal suono straniero”, in alcuni casi costringendole inutilmente a rimborsare decine di migliaia di euro di assegni familiari. Spesso le persone coinvolte non hanno avuto accesso alle vie legali, portando molte famiglie a indebitarsi e divorziare. Alcune famiglie hanno persino perso la casa.

Leggi tutto

ETUI.Il lavoro  nell’era dell’intelligenza artificiale: perché è necessaria una regolamentazione per proteggere i lavoratori

FONTE ETUI 
Autrice Aída Ponce Del Castillo

Le grandi potenze del mondo, molti stati e aziende stanno combattendo per vincere la corsa all’intelligenza artificiale (AI). L’intelligenza artificiale è di importanza strategica per l’Unione Europea, con la Commissione Europea che ha recentemente dichiarato che “l’intelligenza artificiale è un obiettivo che può fare dell’Europa un leader tecnologico globale”.

Per raggiungere questo obiettivo, l’UE deve creare un quadro etico e giuridico appropriato. Questa Outlook Note sostiene che tale quadro deve essere solidamente basato sulla regolamentazione – può essere raggiunto aggiornando la legislazione esistente – e che deve prestare particolare attenzione alla protezione dei lavoratori. I lavoratori sono in una posizione di subordinazione ai loro datori di lavoro e, nella fretta dell’Europa di vincere la corsa all’IA, i loro diritti rischiano di essere trascurati. Questo è il motivo per cui deve essere sviluppato un quadro giuridico protettivo e applicabile, con la partecipazione delle parti sociali.

DOWNLOAD EBOOK 

Les applications de traçage des contacts pour le COVID-19 : comment éviter que la vie privée ne devienne la prochaine victime rendra possible le traçage des contacts »

 

ETUI Policy Brief N°5/2020
Politiques économiques, sociales et de l’emploi en Europe

Les applications de traçage des contacts pour le COVID-19 : comment éviter que la vie privée ne devienne la prochaine
victime rendra possible le traçage des contacts ». Le 21 avril, le Premier ministre néerlandais Mark Rutte a déclaré que le développementes applications de traçage du COVID-19 se poursuivrait, en dépit  du fait que sept de ces applications ont été testées et qu’aucune d’entre elles n’a réussi à répondre aux exigences en matière de sécurité, de respect de la vie privée et de fiabilité.
Aída Ponce Del Castillo

IL DOCUMENTO

Il futuro ruolo dei big data e dell’apprendimento automatico nell’efficienza delle ispezioni nel settore della salute e della sicurezza

FONTE EUOSHA

Il futuro ruolo dei big data e dell’apprendimento automatico nell’efficienza delle ispezioni nel settore della salute e della sicurezza

Questo articolo valuta in che modo gli ispettorati del lavoro potrebbero utilizzare i big data per selezionare in maniera efficace gli obiettivi delle ispezioni nel settore della salute e della sicurezza. Illustra come oggi le autorità selezionano gli intenti delle ispezioni e si avvalgono degli sviluppi digitali per individuare le imprese ad alto rischio.

Nell’articolo sono riportati alcuni esempi di tecnologie utili nella pratica, compreso uno strumento, sviluppato dall’ispettorato del lavoro norvegese, che pare possa essere utilizzato per le imprese ad alto rischio con un considerevole grado di precisione.

L’articolo individua inoltre alcuni nodi problematici, giungendo alla conclusione che una combinazione di intelligenza artificiale e intelligenza umana è probabilmente la soluzione ideale per un intervento mirato basato sul rischio.

Downloadin:EN

Il volto umano dell’algoritmo: perché il futuro avrà bisogno di più arti e discipline umanistiche

 

FONTE EQUALTIME 

Nel dibattito sul futuro del lavoro, ci sono molti che considerano le arti e le scienze umane come reliquie del passato, una specie esotica sull’orlo dell’estinzione.

(Maria José Carmona)

Queste discipline hanno sempre lottato contro i pregiudizi che li tassano come inutili, ma oggi, agli albori della rivoluzione robotica che sta arrivando, sembrano ancora più obsoleti che mai. Sono tutti studenti che oggi si sporcano le mani con l’argilla, che rivedono le declinazioni latine o studiano le cronache di Erodoto che sostengono, contro ogni previsione, questa spericolata idea di voler vivere.

Nel fervore del dibattito sul futuro del lavoro , molte persone considerano già gli studi di arte, letteratura e umanità come reliquie del passato, un esemplare esotico che è sull’orlo dell’estinzione. È il caso del Giappone, ad esempio, in cui il governo ha raccomandato che le sue università eliminino questi studi e si concentrino su una formazione ” più pratica “.

” Nella maggior parte dei paesi del mondo, le arti, la letteratura e gli studi umanistici, che molti vedono come inutili oggetti decorativi, vengono rimossi ” , ha avvertito Martha Nussbaum, un filosofo statunitense , nel 2016. Suonava principalmente l’allarme sulla situazione negli Stati Uniti dove, guidati dal fervore tecnologico, queste discipline avevano perso quasi il 10% dei laureati.

” Dal 1960, la storia delle discipline delle Arti, Lettere e Scienze umane attraverso diverse crisi ,” riconosce Jordi Ibáñez Fanes, autore di ” El Dizionario de la historia: apuntes sobre las Humanidades in tiempos de crisi ” ( o “Il rovescio della storia: note sulle scienze umane in tempi di crisi”). ” Oggi vengono rimproverati per qualcos’altro, comunque. Sono accusati di essere improduttivi e superflui . E questa immagine è stata rafforzata a causa di un’altra crisi: la crisi economica.

Leggi tutto