
I sistemi di intelligenza artificiale rivelano pregiudizi radicati che possono influenzare negativamente le percezioni e i comportamenti all’interno della società.
Fonte : GlobalVoices
Articolo pubblicato con licenza Creative Commons Attribuzione-Condividi allo stesso modo 3.0 Internazionale
[ Salvo diversa indicazione, tutti i link presenti in questo post rimandano a
pagine web in lingua inglese. ]
Questo articolo è stato scritto da Safa Ghnaim, in collaborazione con il Goethe-Institut Brasile, e originariamente pubblicato su DataDetoxKit.org . Una versione riveduta di questo articolo è in fase di ripubblicazione da Global Voices nell’ambito di una partnership.
Sebbene sembri una “tecnologia neutrale”, l’intelligenza artificiale (IA) presenta anche dei pregiudizi. Non è lo strumento oggettivo che immaginiamo. L’IA è creata da individui e addestrata utilizzando set di dati. Proprio come te, chi sviluppa l’IA ha convinzioni, opinioni ed esperienze che influenzano le sue scelte, che ne sia consapevole o meno. Ingegneri e aziende coinvolti nello sviluppo e nell’addestramento dell’IA potrebbero attribuire maggiore importanza a determinate informazioni o obiettivi. Gli strumenti di IA, come algoritmi o chatbot, possono produrre risultati distorti, a seconda dei set di dati utilizzati per “alimentarli”. Questo è il motivo per cui l’IA può produrre dati errati, generare false ipotesi o prendere le stesse decisioni sbagliate di un essere umano.
L’intelligenza artificiale non è magia: anche le macchine programmate dall’uomo hanno i loro difetti.
Alcuni pensano all’IA come a una bacchetta magica, ma “l’intelligenza artificiale” non è altro che una macchina. In parole povere, gli strumenti di IA sono programmi informatici alimentati da una grande quantità di dati per aiutarli a fare previsioni. “IA” si riferisce a una varietà di strumenti progettati per riconoscere schemi, risolvere problemi e prendere decisioni a una velocità e su una scala ben superiori a quelle degli esseri umani.
Ma come ogni strumento, l’IA è progettata e programmata dagli esseri umani. Chi progetta queste macchine fornisce loro delle regole da seguire: “Fai questo, ma non fare quello”. Capire che gli strumenti di IA sono sistemi automatizzati, con i loro limiti influenzati dall’uomo, può aiutare a comprenderne meglio le capacità e i limiti.
Quando si parla di intelligenza artificiale, gli argomenti trattati possono essere molto vari. Ecco alcuni esempi di strumenti di intelligenza artificiale particolarmente diffusi e i loro limiti:
Gli strumenti di generazione di testo creano contenuti basati su parole chiave (o “suggerimenti”) definiti dall’utente. Vengono addestrati su grandi volumi di testo raccolti da Internet, la cui qualità varia. Potresti aver sentito parlare di “grandi modelli linguistici” (LLM) o di nomi di prodotti specifici come ChatGPT, o ancora di espressioni più familiari come “chatbot” o “assistenti AI”. Sebbene questi strumenti siano capaci di un’intelligenza quasi umana, come il superamento di esami , sono anche noti per ” creare allucinazioni ” o generare contenuti errati.
Gli strumenti di generazione di immagini consentono di creare immagini o video in base a specifiche parole chiave fornite. Potresti aver sentito parlare di modelli di conversione da testo a immagine o persino di nomi di prodotti specifici come DALL-E o Stable Diffusion. Questi strumenti possono produrre immagini e video molto realistici, ma sono anche noti per trasmettere stereotipi e possono essere utilizzati impropriamente per scopi di sextortion o molestie .
I sistemi di raccomandazione offrono contenuti che “prevedono” siano più propensi a interessarti o a generare engagement. Questi sistemi operano dietro le quinte dei motori di ricerca, dei feed dei social media e della riproduzione automatica di YouTube. Sono anche chiamati “algoritmi”. Questi strumenti tendono a mostrarti contenuti più simili, con il rischio di condurti in un pericoloso baratro senza fondo . I sistemi di raccomandazione vengono utilizzati in decisioni importanti come l’assunzione , l’ammissione all’università , i mutui e molti altri ambiti della vita quotidiana.
Mentre alcuni esperti ritengono che gli strumenti di intelligenza artificiale, come i chatbot, stiano diventando “più intelligenti” autonomamente, altri sostengono che siano pieni di errori . Ecco alcuni motivi per cui dovresti considerare i bias che influenzano l’intelligenza artificiale:
- Alcuni dati utilizzati per l’addestramento del modello riguardano soggetti personali, protetti da copyright o utilizzati senza autorizzazione.
- A seconda dei dati su cui vengono formati, possono incorporare discorsi di odio , teorie del complotto o semplicemente informazioni false .
- I dati potrebbero essere discriminatori nei confronti di determinati individui, a causa del loro genere, cultura, religione, professione o circostanze personali.
Gli strumenti di intelligenza artificiale vengono inoltre addestrati su dati che omettono completamente alcuni elementi. Se i dati di addestramento contengono poche o nessuna informazione su un gruppo, una lingua o una cultura, l’intelligenza artificiale non sarà in grado di fornire risposte affidabili al riguardo. Un importante studio del 2018 di Joy Buolamwini, intitolato ” Shades of Gender “, ha dimostrato che i sistemi di riconoscimento facciale faticano a identificare i volti delle persone di colore, in particolare quelli delle donne nere. All’epoca dello studio, questi strumenti imperfetti erano già ampiamente utilizzati dalla polizia negli Stati Uniti .
Mettendo in evidenza i pregiudizi, possiamo evitare di riprodurli.
Ora che siete consapevoli dei potenziali punti deboli dei set di dati di intelligenza artificiale creati da persone come noi, concentriamoci su noi stessi. In che modo il funzionamento del nostro cervello umano può far luce sui bias dell’intelligenza artificiale?
Esistono pregiudizi profondamente radicati negli individui, nelle organizzazioni, nelle culture e nelle società. Portali alla luce riflettendo su queste domande:
- Cosa ti aspetti dagli altri in termini di presentazione, incluso il loro comportamento, il loro abbigliamento e il loro modo di parlare?
- Alcune persone o gruppi sono più esposti a rischi, sanzioni o stigmatizzazione a causa del loro aspetto, del loro comportamento, del loro modo di vestire o di parlare?
I pregiudizi su cui hai appena riflettuto si basano spesso su presupposti, atteggiamenti e stereotipi profondamente radicati nelle culture e possono influenzare le tue decisioni inconsciamente. Ecco perché parliamo di “pregiudizi impliciti”: sono spesso radicati nella tua mentalità, difficili da individuare e contrastare.
Tra i pregiudizi impliciti più comuni troviamo:
- Pregiudizio di genere: la tendenza a trarre conclusioni affrettate sulle persone in base al loro genere, basandosi su stereotipi o pregiudizi.
- Pregiudizi razziali e/o etnici: la tendenza a trarre conclusioni affrettate sulle persone in base al colore della loro pelle, al loro background culturale e/o alla loro origine etnica.
Harvard offre una vasta gamma di test sui pregiudizi impliciti che puoi svolgere gratuitamente online per comprendere meglio i tuoi pregiudizi e capire dove migliorare. Con così tanti pregiudizi impliciti, può essere difficile identificare queste convinzioni. Il cambiamento non avviene dall’oggi al domani, ma perché non iniziare ora?
Tutto è amplificato
Ora che hai imparato esempi comuni di schemi di pensiero impliciti e pregiudizi, immagina il loro impatto quando vengono replicati su larga scala. Possono influenzare non solo i singoli individui, ma anche interi gruppi, soprattutto quando sono codificati in modo rigido nei sistemi informatici.
Ecco i risultati che si ottengono inserendo la parola chiave “bella donna” nel software gratuito Perchance.org , generatore di testo in immagini .
Immagini AI generate su Perchance.org il 13 agosto 2024. Immagini fornite da Tactical Tech.
Se lo strumento ha generato sei immagini di “belle donne”, perché sono tutte quasi identiche?
Provalo dalla tua parte: i risultati sono diversi?
Sono stati condotti studi più approfonditi su questo argomento, con risultati simili. Puoi leggere uno di questi studi e vedere l’infografica qui: ” Gli esseri umani sono prevenuti. L’intelligenza artificiale generativa è ancora più prevenuta “.
Gli strumenti di intelligenza artificiale non sono né neutrali né imparziali. Sono posseduti e sviluppati da persone guidate dalle proprie motivazioni. Persino gli strumenti di intelligenza artificiale che hanno la parola “open” nel nome non garantiscono la completa trasparenza sul loro funzionamento e potrebbero essere programmati con pregiudizi intrinseci.
È possibile porre domande chiave su come vengono progettati e addestrati i modelli di intelligenza artificiale per comprendere meglio il loro ruolo in un sistema più ampio:
- Chi possiede le aziende che sviluppano modelli di intelligenza artificiale?
- In che modo le aziende ne traggono vantaggio?
- Quali sono i sistemi energetici creati o supportati dalle aziende?
- Chi trae i maggiori vantaggi dagli strumenti di intelligenza artificiale?
- Chi è più vulnerabile ai rischi associati ai sistemi di intelligenza artificiale?
Trovare le risposte a queste domande può essere difficile, se non impossibile. Questo di per sé è significativo.
Poiché la tecnologia è progettata da esseri umani e alimentata da dati (anch’essi raccolti ed etichettati da esseri umani), può essere vista come un riflesso dei problemi esistenti nella società. Possiamo aspettarci che gli strumenti basati sull’intelligenza artificiale rafforzino gli squilibri di potere, sistematizzando e perpetuando i pregiudizi, a una velocità senza precedenti.
Come hai visto, i bias cognitivi sono estremamente comuni: tutti ne soffrono, in un modo o nell’altro. Iniziare ad affrontare queste realtà oggi può aiutarti a evitare errori domani e a individuare difetti in sistemi come l’intelligenza artificiale.