Cos'è l'AI bias e cosa si dovrebbe fare per evitarlo
L'intelligenza artificiale è entrata in un modo o nell'altro nella vita della maggior parte delle persone, ma quanto ne sapete di questo strumento e, più specificamente, dei pregiudizi dell'intelligenza artificiale?
Esempi del mondo reale
La maggior parte degli strumenti di IA impara analizzando i dati, utilizzando un mix di modelli e algoritmi per determinare le risposte. Tuttavia, se prendono queste informazioni dagli esseri umani, con i loro pregiudizi e preconcetti, cosa impedisce all'IA di sviluppare i propri?
La risposta è: niente.
Amazon aveva sviluppato uno strumento di reclutamento che ha dovuto rapidamente essere interrotto a causa delle sue opinioni sessiste". L'intelligenza artificiale era stata addestrata sulla base di dati presentati nell'arco di dieci anni, ma la maggior parte dei dati proveniva da candidati di sesso maschile. Sviluppato nel 2014, nel 2015 è diventato chiaro che il sistema non valutava i candidati da una prospettiva neutrale rispetto al genere. I dati su cui si basava erano stati raccolti per lo più da uomini.
Un altro famoso esempio di distorsione dell'IA è stato un algoritmo americano chiamato Compas. Il Correctional Offender Management Profiling for Alternative Sanctions. È stato dimostrato che il COMPAS etichetta erroneamente gli imputati neri come più propensi alla recidiva. Il COMPAS ha segnalato erroneamente gli imputati neri a un tasso quasi doppio rispetto ai bianchi (45% rispetto a 24%). Questo sistema è stato utilizzato in centinaia di tribunali statunitensi. Razzismo sistemico in una forma molto dimostrabile.
Come ricercatore di Microsoft Kate Crawford ha dichiarato: "Le storie di discriminazione possono vivere nelle piattaforme digitali e, se non vengono messe in discussione, diventano parte della logica dei sistemi algoritmici quotidiani". Situazioni come questa dimostrano la necessità di un fact-checking continuo. Man mano che l'IA diventa sempre più radicata nella nostra società, dobbiamo lavoro per evitare che si verifichino errori basati su pregiudizi come questo.
Che cosa significa?
Si potrebbe pensare che l'IA, in quanto macchina, non abbia pregiudizi, ma purtroppo non è così. Esistono molti tipi di pregiudizi dell'IA ed è difficile individuarne le forme principali. Questo perché ogni programma apprende con metodi diversi. Tuttavia, ci sono alcuni tipi di pregiudizi più riconosciuti di altri.
I cinque tipi di pregiudizio dell'IA più riconosciuti sono:
Bias di selezione: Ciò si verifica quando i dati di addestramento non rappresentano accuratamente la popolazione del mondo reale. Ciò porta l'intelligenza artificiale a fare un'ipotesi errata. Se un modello di riconoscimento facciale viene addestrato principalmente su una tonalità di pelle, può avere difficoltà a riconoscere le persone con altre tonalità di pelle, con conseguente discriminazione.
Bias di conferma: Questo accade quando l'IA si basa troppo sulle informazioni precedenti che ha appreso. Ciò significa che riafferma precedenti pregiudizi storici trovati nei dati o pregiudizi che ha appreso in precedenza. Ad esempio, lo stereotipo secondo cui le donne sono meno qualificate per lavorare nel settore tecnologico. Questo, insieme ai pregiudizi di stereotipizzazione, è stato un fattore enorme nel causare lo scandalo Amazon.
Bias di stereotipizzazione: Chiamato anche Prejudice bias. Si tratta di un pregiudizio che viene addestrato nella macchina e che riflette i pregiudizi, gli stereotipi e le supposizioni della società. Molti assistenti virtuali, come Siri o Alexa, sono progettati con voci femminili e programmati per essere gentili e accomodanti. Ciò rafforza lo stereotipo secondo cui le donne dovrebbero essere disponibili e sottomesse, il che può involontariamente perpetuare i pregiudizi di genere nella società.
Bias di misurazione: Simile al bias di selezione del campione, il bias di misurazione si verifica quando la raccolta dei dati non è stata completata o c'è stato un errore durante la raccolta. Ad esempio, se un'università invia un sondaggio sulla soddisfazione dei corsi, ma contatta solo coloro che sono rimasti iscritti per tutti e tre gli anni e non gli iscritti che hanno abbandonato o cambiato corso, non sta ottenendo un quadro completo.
Bias di omogeneità fuori gruppo: In questo caso, l'intelligenza artificiale generalizza gruppi di dati su cui ha meno dati. Raggruppa gruppi più piccoli anche se possono avere poche somiglianze. Ad esempio, i sistemi di riconoscimento facciale hanno difficoltà a distinguere gli individui appartenenti a gruppi di minoranze razziali o etniche. Ciò è dovuto alla mancanza di diversità nei dati di addestramento.
Questi aspetti sono trattati anche nel nostro Perché l'intelligenza artificiale non sta sostituendo i marketer articolo.
Perché i pregiudizi sull'intelligenza artificiale sono un problema così urgente?
I pregiudizi dell'IA sono un tema così importante perché spesso possono passare inosservati, soprattutto se si considera quanto i pregiudizi dell'IA siano integrati nella società moderna. Se i pregiudizi non vengono controllati, possono favorire gli stereotipi sociali e aumentare la disinformazione. =
In America, un'intelligenza artificiale utilizzata in molti sistemi sanitari statunitensi ha dato priorità ai "pazienti bianchi più sani rispetto ai "pazienti neri più malati" quando si trattava di fornire la gestione dell'assistenza. Questo perché l'algoritmo è stato addestrato in modo errato sui dati sbagliati, essendo stato addestrato sui dati di costo e non sui bisogni di cura. Inoltre, gli algoritmi possono prevedere in modo errato i rischi per la salute di gruppi di persone su cui hanno meno informazioni, come le minoranze etniche.
Ricerche in America Il team ha anche esaminato 50.000 cartelle cliniche e ha scoperto che "il software che guida l'assistenza per decine di milioni di persone privilegia sistematicamente i pazienti bianchi rispetto a quelli neri". Ciò è avvenuto in modo consistente per condizioni di salute croniche come il diabete e i problemi renali. Il documento che ha sollevato il problema non identifica l'azienda che sta dietro all'algoritmo, affermando che "l'azienda ha confermato il problema e sta lavorando per risolverlo".
Questo è accaduto perché l'algoritmo non è stato addestrato per tenere conto della razza di una persona quando affronta i suoi problemi di salute. I risultati distorti hanno dimostrato che anche le formule relativamente "neutre dal punto di vista razziale possono avere effetti discriminatori quando si basano su dati che riflettono le disuguaglianze nella società". I dati distorti evidenziano l'importanza di incoraggiare le persone di tutte le etnie a partecipare alla creazione di IA, algoritmi e ricerca.
Cosa dovremmo fare?
Non tutte le speranze sono perse! A volte è possibile per l'IA ridurre i pregiudizi. Le tecniche di riduzione dei pregiudizi (come il controllo incrociato, il fact-checking e la verifica) possono essere addestrate negli strumenti. Ciò rende l'IA una prospettiva più neutrale rispetto ad alcuni esseri umani. Tuttavia, finché prenderà decisioni basate su dati umani, ci sarà una qualche forma di pregiudizio.
Per ridurre i pregiudizi dell'IA, dobbiamo diversificare i dati che utilizziamo per addestrare i modelli di IA. Bisogna fare attenzione a non escludere o limitare i dati su categorie come gruppi etnici, località, età e sesso. È inoltre necessario un monitoraggio continuo con gli strumenti di IA. Verificare la presenza di anomalie, interpretazioni e rappresentazioni errate dei dati.
Un altro modo per ridurre i pregiudizi dell'IA è quello di diversificare i creatori di IA. Poiché l'IA si basa principalmente su dati storici, è facile amplificare i pregiudizi già esistenti. Incoraggiando persone di ogni provenienza ad approfondire il loro interesse per la creazione di IA, possiamo garantire il maggior numero possibile di prospettive per contribuire a ridurre i pregiudizi sull'IA.
Modi per ridurre i pregiudizi dell'IA nel vostro lavoro.
- Essere consapevoli dello strumento che si sta utilizzando, di chi lo ha creato, di quali pregiudizi possa avere.
- Non tutto ciò che l'IA produce è un dato di fatto, se sembra sbagliato, verificatelo. Se sta contribuendo a qualcosa di valore, il fact-checking dovrebbe sempre far parte del processo di utilizzo dell'IA.
- Considerate i vostri suggerimenti: potete attenuare alcune forme di pregiudizio prendendo in considerazione l'ingegneria dei vostri suggerimenti.
- Aggiungete un contesto, fornite allo strumento la più ampia gamma di dati possibile e incoraggiatelo a riflettere e a considerare diverse prospettive.
- Chiedete alla vostra IA di "spiegare il vostro processo di pensiero" e di citare le sue fonti in modo da poter vedere come ha raccolto i suoi dati.
La specificità è fondamentale, l'intelligenza artificiale non può fare molto. A volte l'intelligenza artificiale ha un'idea di "diversità" diversa dalla vostra, così come altri esseri umani, quindi potreste doverla esplicitare alla macchina.
Qualunque siano le vostre esigenze di design digitale, siamo qui per aiutarvi.
Volete una fetta di torta? Se state costruendo un nuovo sito web, pianificando una nuova campagna di marketing o addirittura un rebranding della vostra azienda, contattateci oggi stesso.
Messaggi correlati
Che cos'è la Link Velocity?
La velocità dei link è la velocità con cui un sito web acquisisce backlink in un determinato periodo. Leggete qui per scoprire se e come influisce sulla vostra SEO.
Che cos'è la SEO internazionale?
Che cos'è la SEO internazionale? Fate clic per saperne di più su come i tag, gli url e i contenuti in lingua possono influenzare la vostra SEO a livello internazionale.