Uprzedzenia AI można przypisać w następujący sposób

Czym jest stronniczość AI i co należy robić, aby jej uniknąć?

Sztuczna inteligencja wkroczyła w życie większości ludzi w taki czy inny sposób, ale ile wiesz o tym narzędziu, a dokładniej o uprzedzeniach AI?

Przykłady z życia wzięte

Większość narzędzi AI uczy się poprzez analizę danych, wykorzystując połączenie wzorców i algorytmów do określenia odpowiedzi. Jeśli jednak pobierają te informacje od ludzi, z ich własnymi uprzedzeniami i uprzedzeniami, co powstrzyma sztuczną inteligencję przed opracowaniem własnych? 

Odpowiedź brzmi: nic. 

Amazon opracował narzędzie rekrutacyjne, które szybko musiało zostać zatrzymane z powodu jego seksistowskich poglądów. Sztuczna inteligencja była szkolona na danych przesyłanych przez dziesięć lat, ale większość danych pochodziła od kandydatów płci męskiej. Opracowany w 2014 roku, w 2015 roku stało się jasne, że system nie oceniał kandydatów z perspektywy neutralnej płciowo. Dane, na których został zbudowany, pochodziły głównie od mężczyzn. 

Innym znanym przykładem stronniczości AI był amerykański algorytm o nazwie "Compas. Correctional Offender Management Profiling for Alternative Sanctions. Udowodniono, że COMPAS błędnie oznaczał czarnoskórych oskarżonych jako bardziej skłonnych do ponownego popełnienia przestępstwa. COMPAS błędnie oznaczał czarnoskórych oskarżonych prawie dwukrotnie częściej niż białych (45% w porównaniu do 24%). System ten był używany w setkach amerykańskich sądów. Systemowy rasizm w bardzo wyraźnej formie.

Jak twierdzi badacz z firmy Microsoft Kate Crawford "Historie dyskryminacji mogą żyć na platformach cyfrowych, a jeśli nie są kwestionowane, stają się częścią logiki codziennych systemów algorytmicznych". Sytuacje takie jak ta pokazują potrzebę ciągłego sprawdzania faktów. W miarę jak sztuczna inteligencja staje się coraz bardziej zakorzeniona w naszym społeczeństwie, musimy praca aby zapobiec występowaniu błędów opartych na uprzedzeniach, takich jak ten.

Co to oznacza? 

Możesz myśleć, że sztuczna inteligencja jako maszyna nie jest stronnicza, ale niestety nie jest to prawdą. Istnieje wiele rodzajów stronniczości AI i trudno jest wskazać główne formy. Dzieje się tak, ponieważ każdy program uczy się za pomocą różnych metod. Istnieją jednak pewne rodzaje uprzedzeń są bardziej rozpoznawalne niż inne. 

Pięć najbardziej rozpoznawalnych typów stronniczości AI to:

Błąd selekcji: Dzieje się tak, gdy dane treningowe nie reprezentują dokładnie rzeczywistej populacji. Prowadzi to sztuczną inteligencję do przyjęcia błędnego założenia. Jeśli model rozpoznawania twarzy jest trenowany głównie na jednym odcieniu skóry, może mieć trudności z rozpoznaniem osób o innych odcieniach skóry, co prowadzi do dyskryminacji.

Uprzedzenie potwierdzające: Dzieje się tak, gdy sztuczna inteligencja zbyt mocno opiera się na wcześniejszych informacjach, których się nauczyła. Oznacza to, że potwierdza wcześniejsze historyczne uprzedzenia znalezione w danych lub uprzedzenia, których nauczyła się wcześniej. Na przykład stereotyp, że kobiety są mniej wykwalifikowane do pracy w branży technologicznej. To, obok uprzedzeń związanych ze stereotypami, było ogromnym czynnikiem, który wywołał skandal w Amazonie.

CZYTAJ  Dlaczego sztuczna inteligencja nie zastępuje marketerów.

Stereotypowe uprzedzenia: Nazywane również uprzedzeniami. Jest to uprzedzenie, które jest wyuczone w maszynie i odzwierciedla społeczne uprzedzenia, stereotypy i założenia. Wielu wirtualnych asystentów, takich jak Siri lub Alexa, jest zaprojektowanych z kobiecymi głosami i zaprogramowanych tak, aby były uprzejme i przychylne. Wzmacnia to stereotyp, że kobiety powinny być pomocne i uległe, co może nieumyślnie utrwalać uprzedzenia dotyczące płci w społeczeństwie.

Błąd pomiaru: Podobnie jak w przypadku błędu selekcji próby, błąd pomiaru występuje, gdy gromadzenie danych nie zostało zakończone lub wystąpił błąd podczas gromadzenia danych. Na przykład, jeśli uniwersytet wysyła ankietę dotyczącą zadowolenia z kursu, ale kontaktuje się tylko z tymi, którzy pozostali zapisani przez pełne trzy lata, a nie z członkami, którzy zrezygnowali lub zmienili kurs, nie uzyskuje pełnego obrazu.

Stronniczość jednorodności poza grupą: W tym miejscu sztuczna inteligencja uogólnia grupy danych, na temat których ma mniej danych. Grupowanie mniejszych grup, nawet jeśli mogą one mieć bardzo niewiele podobieństw. Na przykład systemy rozpoznawania twarzy mają trudności z odróżnieniem osób z mniejszości rasowych lub etnicznych. Wynika to z braku różnorodności w danych szkoleniowych.

Zostały one również omówione w naszym dlaczego sztuczna inteligencja nie zastępuje marketerów artykuł

Dlaczego stronniczość AI jest tak palącą kwestią?

Stronniczość SI jest tak ważną kwestią, ponieważ często może pozostać niezauważona, zwłaszcza w obliczu tego, jak zintegrowana jest we współczesnym społeczeństwie. Jeśli uprzedzenia pozostaną niekontrolowane, mogą odgrywać rolę w stereotypach społecznych i wzmacniać dezinformację.

W Ameryce sztuczna inteligencja była wykorzystywana w wielu amerykańskich systemach opieki zdrowotnej. priorytetowo traktowani "zdrowsi biali pacjenci nad "chorymi czarnoskórymi pacjentami", jeśli chodzi o zarządzanie opieką. Wynika to z faktu, że algorytm został nieprawidłowo przeszkolony na podstawie niewłaściwych danych, ponieważ został przeszkolony na podstawie danych dotyczących kosztów, a nie potrzeb w zakresie opieki. Ponadto algorytmy mogą nieprawidłowo przewidywać ryzyko zdrowotne dla grup osób, o których mają mniej informacji, takich jak mniejszości etniczne. 

Badania w Ameryce przeczesał również 50 000 rekordów i odkrył, że "oprogramowanie kierujące opieką nad dziesiątkami milionów ludzi systematycznie uprzywilejowuje białych pacjentów w stosunku do czarnych". Działo się tak konsekwentnie w przypadku przewlekłych schorzeń, takich jak cukrzyca i choroby nerek. Artykuł, który poruszył tę kwestię, nie identyfikuje firmy stojącej za algorytmem, twierdząc, że "firma potwierdziła problem i pracuje nad jego rozwiązaniem".  

CZYTAJ  Znalezienie najlepszej alternatywy Mailchimp dla swojej firmy

Stało się tak, ponieważ algorytm nie został przeszkolony w zakresie uwzględniania rasy danej osoby przy rozpatrywaniu jej problemów zdrowotnych. Jego wypaczone wyniki pokazały, że nawet stosunkowo "neutralne rasowo formuły mogą nadal mieć dyskryminujące skutki, gdy opierają się na danych odzwierciedlających nierówności w społeczeństwie". Wypaczone dane podkreślają znaczenie zachęcania osób ze wszystkich grup etnicznych do udziału w tworzeniu sztucznej inteligencji, algorytmów i badań. 

 

Co powinniśmy robić?

Nie wszystko stracone! Czasami sztuczna inteligencja może zmniejszyć stronniczość. Techniki redukcji uprzedzeń (takie jak sprawdzanie krzyżowe, sprawdzanie faktów i weryfikacja) mogą być szkolone w narzędziach. Dzięki temu sztuczna inteligencja może mieć bardziej neutralną perspektywę niż niektórzy ludzie. Jednak tak długo, jak będzie ona podejmować decyzje w oparciu o ludzkie dane, będzie istnieć pewna forma stronniczości. 

Aby zmniejszyć stronniczość AI, musimy zdywersyfikować dane, których używamy do trenowania modeli AI. Koncentrując się na tym, aby nie wykluczać ani nie ograniczać żadnych danych w kategoriach takich jak grupy etniczne, lokalizacja, wiek i płeć. Istnieje również potrzeba ciągłego monitorowania za pomocą narzędzi AI. Sprawdzanie anomalii, błędnej interpretacji danych i przeinaczeń. 

Innym sposobem na zmniejszenie uprzedzeń związanych ze sztuczną inteligencją jest dywersyfikacja jej twórców. Ponieważ sztuczna inteligencja opiera się głównie na danych historycznych, łatwo jest wzmocnić już istniejące uprzedzenia. Zachęcając ludzi ze wszystkich środowisk do pogłębiania zainteresowania tworzeniem sztucznej inteligencji, możemy zapewnić jak najwięcej perspektyw, aby pomóc zmniejszyć uprzedzenia związane z SI. 

 

Sposoby na zmniejszenie stronniczości AI w pracy.

  1. Należy być świadomym używanego narzędzia, tego, kto je stworzył i jakie może mieć uprzedzenia.
  2. Nie wszystko, co wytwarza sztuczna inteligencja, jest faktem - jeśli wygląda to na nieprawdę, należy to sprawdzić. Jeśli przyczynia się ona do czegoś wartościowego, sprawdzanie faktów powinno zawsze być częścią procesu korzystania ze sztucznej inteligencji
  3. Zastanów się nad podpowiedziami, możesz złagodzić niektóre formy stronniczości, poświęcając czas na rozważenie inżynierii podpowiedzi. 
  4. Dodaj kontekst, zapewnij narzędziu jak najszerszy zakres danych i zachęć je do myślenia i rozważania różnych perspektyw.
  5. Poproś sztuczną inteligencję, aby "wyjaśniła swój proces myślowy" i zacytowała swoje źródła, abyś mógł zobaczyć, w jaki sposób zebrała swoje dane. 

Specyfika jest kluczowa, AI może zrobić tylko tyle. Czasami sztuczna inteligencja będzie miała inne pojęcie "różnorodności" niż ty, podobnie jak inni ludzie, więc może być konieczne sprecyzowanie tego dla maszyny.