AI-skjevhet kan tilskrives i en ledetekst som denne

Hva er AI-bias, og hva du bør gjøre for å unngå det

AI har gjort sitt inntog i de fleste menneskers liv på en eller annen måte, men hvor mye vet du om verktøyet og mer spesifikt om AI-skjevhet?

Eksempler fra den virkelige verden

De fleste AI-verktøy lærer ved å analysere data, og bruker en blanding av mønstre og algoritmer for å finne svar. Men hvis de tar denne informasjonen fra mennesker, med deres egne fordommer og forutinntatthet, hva er det da som hindrer AI i å utvikle sine egne? 

Svaret er ingenting. 

Amazon hadde utviklet et rekrutteringsverktøy som raskt måtte stoppes på grunn av verktøyets sexistiske synspunkter. Den kunstige intelligensen var trent på data som var sendt inn over ti år, men mesteparten av dataene kom fra mannlige søkere. Systemet ble utviklet i 2014, men i 2015 ble det klart at det ikke vurderte kandidatene ut fra et kjønnsnøytralt perspektiv. Dataene det var bygget på, var for det meste samlet inn fra menn. 

Et annet kjent eksempel på AI-skjevhet var en amerikansk algoritme kalt "Compas. Profilering av lovbrytere for alternative straffereaksjoner. COMPAS viste seg å feilaktig stemple svarte tiltalte som mer tilbøyelige til å begå nye lovbrudd. COMPAS markerte svarte tiltalte feilaktig nesten dobbelt så ofte som hvite (45% sammenlignet med 24%). Dette systemet ble brukt i hundrevis av amerikanske domstoler. Systemisk rasisme i en svært påviselig form.

Som Microsoft-forsker Kate Crawford "Diskrimineringshistorier kan leve videre på digitale plattformer, og hvis de ikke blir stilt spørsmål ved, blir de en del av logikken i hverdagens algoritmiske systemer", sier han. Situasjoner som dette viser behovet for kontinuerlig faktasjekk. Etter hvert som kunstig intelligens blir mer innarbeidet i samfunnet vårt, må vi arbeid for å forhindre at slike feil oppstår.

Så hva betyr dette? 

Du tror kanskje at AI som maskin ikke har noen skjevheter, men det er dessverre ikke sant. Det finnes mange typer skjevheter i kunstig intelligens, og det er vanskelig å peke ut de viktigste formene. Dette skyldes at hvert program lærer på ulike måter. Det finnes imidlertid noen typer skjevheter mer anerkjent enn andre. 

De fem mest anerkjente typene av AI-bias er

Seleksjonsskjevhet: Dette skjer når treningsdataene ikke representerer den virkelige populasjonen på en nøyaktig måte. Det fører til at AI gjør feil antakelser. Hvis en modell for ansiktsgjenkjenning primært er trent på én hudfarge, kan den ha problemer med å gjenkjenne personer med andre hudfarger, noe som kan føre til diskriminering.

Bekreftelsesskjevhet: Dette skjer når den kunstige intelligensen i for stor grad baserer seg på tidligere informasjon den har lært. Det betyr at den bekrefter tidligere historiske fordommer som finnes i dataene, eller fordommer som den har lært seg tidligere. For eksempel stereotypien om at kvinner er mindre kvalifiserte til å jobbe i teknologibransjen. Dette, sammen med stereotypier, var en viktig faktor i Amazon-skandalen.

LES  Oppsummering av digital markedsføring i 1. kvartal

Stereotype fordommer: Også kalt fordomsfull bias. Dette er en skjevhet som er trent inn i maskinen, og som gjenspeiler fordommer, stereotypier og antakelser i samfunnet. Mange virtuelle assistenter, som Siri eller Alexa, er designet med kvinnestemmer og programmert til å være høflige og imøtekommende. Dette forsterker stereotypien om at kvinner skal være hjelpsomme og underdanige, noe som utilsiktet kan bidra til å opprettholde kjønnsskjevheter i samfunnet.

Målefeil: I likhet med utvalgsskjevhet oppstår målefeil når datainnsamlingen ikke er fullført, eller det er en feil under innsamlingen. Hvis et universitet for eksempel sender ut en spørreundersøkelse om kurstilfredshet, men bare kontakter dem som har vært påmeldt i tre år, og ikke dem som har sluttet eller byttet kurs, får de ikke hele bildet.

Homogenitetsskjevhet utenfor gruppen: Det er her AI generaliserer datagrupper som den har mindre data om. Gruppering av mindre grupper selv om de kan ha svært få likheter. Systemer for ansiktsgjenkjenning har for eksempel problemer med å skille mellom personer fra rasemessige eller etniske minoritetsgrupper. Dette skyldes mangel på mangfold i treningsdataene.

Disse er også omtalt i vår hvorfor AI ikke erstatter markedsførere artikkel

Hvorfor er AI-skjevhet et så viktig tema?

AI-partiskhet er et viktig tema fordi det ofte kan gå ubemerket hen, særlig med tanke på hvor integrert AI-partiskhet er i det moderne samfunnet. Hvis skjevheter ikke blir kontrollert, kan de spille inn i sosiale stereotypier og forsterke feilinformasjon.

I USA ble en kunstig intelligens brukt i mange amerikanske helsesystemer prioriterte "friskere hvite pasienter over "sykere svarte pasienter" når det gjaldt å gi pleiebehandling. Dette skyldes at den ble trent på feil data, fordi den ble trent på kostnadsdata og ikke på pleiebehov. I tillegg kan algoritmer feilaktig forutsi helserisiko for grupper av mennesker som den har mindre informasjon om, for eksempel etniske minoriteter. 

Forskning i Amerika har også gått gjennom 50 000 journaler og oppdaget at "programvare som styrer behandlingen av titalls millioner mennesker, systematisk favoriserer hvite pasienter fremfor svarte pasienter". Dette skjedde konsekvent for kroniske helsetilstander som diabetes og nyreproblemer. Avisen som tok opp dette problemet, identifiserer ikke selskapet bak algoritmen, men hevder at "selskapet har bekreftet problemet og jobber med å løse det".  

LES  Hvorfor AI ikke erstatter markedsførere.

Dette skjedde fordi algoritmen ikke var opplært til å ta hensyn til en persons rase når den tok for seg helseproblemene deres. De skjeve resultatene viste at selv relativt "rasenøytrale formler fortsatt kan ha diskriminerende effekter når de lener seg på data som gjenspeiler ulikheter i samfunnet". De skjeve dataene understreker hvor viktig det er å oppmuntre mennesker fra alle etnisiteter til å delta i utviklingen av AI, algoritmer og forskning. 

 

Hva bør vi gjøre?

Ikke alt håp er ute! Det er noen ganger mulig for kunstig intelligens å redusere skjevheter. Teknikker for å redusere skjevheter (som kryssjekking, faktasjekking og verifisering) kan trenes inn i verktøyene. Det gjør AI til et mer nøytralt perspektiv enn noen mennesker. Men så lenge den tar beslutninger basert på menneskelige data, vil det være en eller annen form for skjevhet. 

For å redusere skjevheter i AI må vi diversifisere dataene vi bruker til å trene opp AI-modeller. Vi må være nøye med å ikke ekskludere eller begrense data fra kategorier som etniske grupper, sted, alder og kjønn. Det er også behov for kontinuerlig overvåking med AI-verktøy. Vi må se etter avvik, feiltolkning av data og feilrepresentasjon. 

En annen måte å redusere skjevheter i AI på, er å diversifisere AI-skaperne. Fordi kunstig intelligens stort sett er basert på historiske data, er det lett å forsterke allerede eksisterende fordommer. Ved å oppmuntre mennesker med ulik bakgrunn til å fordype seg i AI-utvikling, kan vi sikre at så mange perspektiver som mulig bidrar til å redusere skjevheter i AI. 

 

Hvordan du kan redusere AI-bias i arbeidet ditt.

  1. Vær oppmerksom på verktøyet du bruker, hvem som har laget det, hvilke fordommer de kan ha
  2. Ikke alt AI produserer er fakta, så hvis det ser feil ut, bør du faktasjekke det. Hvis AI bidrar til noe av verdi, bør faktasjekking alltid være en del av prosessen for bruk av AI
  3. Tenk over spørsmålene dine, du kan redusere noen former for skjevhet ved å ta deg tid til å vurdere spørsmålsformuleringen. 
  4. Legg til kontekst, forsyn verktøyet med et så bredt spekter av data som mulig, og oppfordre det til å tenke og vurdere ulike perspektiver.
  5. Be den kunstige intelligensen om å "forklare tankeprosessen din" og oppgi kilder, slik at du kan se hvordan den har samlet inn dataene sine. 

Spesifisitet er nøkkelen, AI kan bare gjøre så mye. Noen ganger vil AI ha en annen oppfatning av "mangfold" enn deg, og det samme vil andre mennesker ha, så det kan hende du må stave det for maskinen.