Per essere all’altezza dei tempi ….

 

 

I frequentatori più assidui del sito Diario Prevenzione avranno notato che da diverso tempo pubblichiamo sempre più spesso report, documenti e notizie che fanno riferimento a grandi temi come il cambiamento climatico, ai necessari interventi e adattamenti per farvi fronte. Come sempre riprendiamo questi report e articoli dalle fonti più qualificate come Enti di ricerca, siti autorevoli, riviste specializzate.Su questo tema del riscaldamento climatico e della necessaria trasformazione ecologica della società nei modi di produrre e consumare, a causa della guerra in Europa e della crisi energetica, si sta perdendo tempo e si stanno facendo molti passi indietro.

Continua a leggere “Per essere all’altezza dei tempi ….”

 939 total views,  13 views today

E’ online : numero di ottobre 2022 della Rivista Travail et Sécurité dell’INRS. Il Dossier Rischi psicosociali

 

E’ uscito il numero 841 ottobre 2022  della rivista Travail et Sécurité dell’Istituto francese INRS  . Il dossier del mese è dedicato alla prevenzione dei rischi psicosociali. In sintesi, scoprite un’intervista a Pierre-Yves Gomez, economista, per il quale “Il mondo dopo” inizia a chiedere che il lavoro venga reintegrato nella governance aziendale e che vengano ricostituiti forti gruppi di lavoro. Un reportage “In Images” ti porta al cantiere del ponte Simone-Veil, vicino a Bordeaux.

Per leggere la Rivista scarica il file pdf .

CLICCA QUI 

 262 total views,  1 views today

Come combattere la discriminazione algoritmica? Una guida di AutoCheck

Postiamo  questo articolo  pubblicato dal sito Algorithm Watch  Riteniamo importante che si dia visibilità alla tematica della introduzione sempre più diffusa di  ” Sistemi decisionali automatizzati” . Questi sistemi possono diventare “agenti” di scelte  che creano discriminazioni. Il Report qui segnalato …. va letto con attenzione in fattispecie da coloro che hanno responsabilità nelle scelte  in sanità, nei servizi educativi, nella giustizia e in ogni settore produttivo. editor

 

 

 

Ci troviamo di fronte a sistemi decisionali automatizzati quasi ogni giorno e potrebbero essere discriminanti, senza che nemmeno ce ne accorgiamo. Una nuova guida aiuta a riconoscere meglio tali casi e supportare le persone colpite.

Il nostro nuovo rapporto “Sistemi decisionali automatizzati e discriminazione” esamina in modo più approfondito la discriminazione algoritmica: cos’è, come è causata e cosa si può fare al riguardo. Con istruzioni complete, diagrammi e casi di studio, la guida offre ai consulenti antidiscriminazione e alle persone colpite un’introduzione di base all’argomento e li supporta nella ricerca di aiuto con liste di controllo, fonti e informazioni di contatto.

Uno dei maggiori problemi nella lotta alla discriminazione da parte dei sistemi algoritmici è che spesso passa inosservata e le persone colpite – nella maggior parte dei casi – non sanno di essere state discriminate. Ma quando i sistemi algoritmici decidono in modo discriminatorio o suggeriscono decisioni discriminanti, molte persone sono potenzialmente interessate, perché tutte le decisioni seguono lo stesso schema. Questi rischi sono sistematici e l’impatto complessivo sulla società può essere ampio.

Questa pubblicazione fa parte del progetto AutoCheck , finanziato dall’Agenzia federale tedesca per la lotta alla discriminazione. L’obiettivo del progetto è ridurre questa mancanza di consapevolezza sviluppando istruzioni e strumenti concreti e completi per i centri di consulenza antidiscriminazione. Vogliamo supportare i dipendenti degli uffici di consulenza antidiscriminazione per valutare e riconoscere meglio i rischi, e quindi supportare meglio le persone colpite. La project manager e autrice del rapporto, Jessica Wulf, ha iniziato a ricercare casi e condurre interviste con consulenti ed esperti anti-discriminazione nel febbraio 2021. La guida e i corsi di formazione si basano su questo corpus completo di lavoro.

Continua a leggere “Come combattere la discriminazione algoritmica? Una guida di AutoCheck”

 259 total views