Fonte : Algorithmwatch che ringraziamo
di Nikolett Aszódi
I divieti previsti dall’EU AI Act diventano applicabili ora. Alcuni sistemi di IA rischiosi che sono già stati sperimentati o utilizzati nella vita quotidiana sono da ora in poi, almeno in parte, vietati.
Il regolamento dell’UE sull’IA, l’ Artificial Intelligence (AI) Act , è la prima legislazione completa che ha stabilito delle linee rosse per determinate pratiche di IA. Questa legge proibisce i sistemi di IA che ritiene rappresentino rischi inaccettabili per la sicurezza, la salute e i diritti fondamentali delle persone. Questa protezione prevale anche se il sistema è gestito al di fuori dell’UE ma produce un output nell’UE. Le pratiche di IA proibite sono elencate nell’articolo 5 del regolamento.
Il mancato rispetto del divieto di pratiche di IA di cui all’articolo 5 è soggetto a sanzioni amministrative pecuniarie fino a 35.000.000 di euro o, per le imprese, al 7% del loro fatturato annuo totale.
Quali pratiche di intelligenza artificiale sono ora (parzialmente) proibite?
Sono vietati:
- Sistemi di intelligenza artificiale manipolativi o che utilizzano tecniche ingannevoli per alterare il comportamento delle persone, come giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini,
- Sistemi di intelligenza artificiale che sfruttano le vulnerabilità di persone o gruppi,
- alcune forme di punteggio sociale, che non sono correlate al contesto in cui sono stati raccolti i dati che utilizzano,
- Sistemi di intelligenza artificiale che creano o espandono database di riconoscimento facciale tramite lo scraping non mirato di immagini di volti da Internet o da filmati CCTV (come Clearview AI o PimEyes),
- riconoscimento facciale in tempo reale negli spazi pubblici da parte della polizia (con eccezioni).
Parzialmente vietato:
- è polizia predittiva se i sistemi di intelligenza artificiale effettuano valutazioni del rischio degli individui in base ai loro tratti di personalità per prevedere il rischio che commettano un crimine. Non è vietato l’uso di sistemi di polizia predittiva basati su “fatti oggettivi e verificabili direttamente collegati a un’attività criminale”.
- sono sistemi di categorizzazione che cercano di dedurre la razza, le opinioni politiche, l’appartenenza sindacale, le convinzioni religiose o filosofiche, la vita sessuale o l’orientamento sessuale delle persone sulla base di dati biometrici. Questo divieto non si applica alle autorità di polizia.
- sono sistemi di riconoscimento delle emozioni nel contesto educativo e sul posto di lavoro che cercano di dedurre lo stato emotivo (ad esempio stanchezza, atteggiamento negativo verso il lavoro, stress, rabbia o mancanza di rispetto) e tratti caratteristici basandosi su dati biometrici come le espressioni facciali (tranne che per motivi medici e di sicurezza).
La RBI retrospettiva non è affatto vietata dalla legge. Il sospetto che si sia verificato un crimine è sufficiente a giustificarne l’impiego.
Scappatoie
I sostenitori della sicurezza degli stati membri dell’UE hanno fatto pressioni con successo per esentare i requisiti dell’AI Act quando si tratta di “sicurezza nazionale”. Ciò significa che le garanzie del regolamento non si applicheranno ai sistemi di IA se sono sviluppati o utilizzati esclusivamente per scopi di sicurezza nazionale, indipendentemente dal fatto che ciò venga fatto da un’autorità pubblica o da una società privata. Mentre la sicurezza nazionale può essere un motivo giustificato per eccezioni all’AI Act, ciò deve essere valutato caso per caso in linea con la Carta dei diritti fondamentali dell’UE e non deve quindi essere frainteso come un’esenzione generale.
I divieti dell’AI Act si applicano solo ai sistemi immessi sul mercato UE o utilizzati nell’UE. Ciò crea una pericolosa scappatoia: i sistemi vietati che sono considerati dagli enti regolatori UE “incompatibili” con i diritti umani e i valori UE possono comunque essere esportati in paesi terzi.
Cosa puoi fare se ritieni che i tuoi diritti siano stati violati?
Se qualcuno ritiene che i propri diritti siano stati violati dall’uso di un sistema di IA vietato, è possibile presentare reclami all’autorità di vigilanza del mercato competente. In Germania, questa è la Bundesnetzagentur. Resta da vedere con quanta efficacia queste autorità saranno in grado di far rispettare la conformità e ritenere responsabili i trasgressori.
Per saperne di più sul nostro lavoro di politica e advocacy sull’Artificial Intelligence Act