Was ist KI-Voreingenommenheit, und was sollten Sie tun, um sie zu vermeiden?
KI hat auf die eine oder andere Weise Einzug in das Leben der meisten Menschen gehalten, aber wie viel wissen Sie über das Tool und insbesondere über KI-Vorurteile?
Beispiele aus der Praxis
Die meisten KI-Tools lernen durch die Analyse von Daten und verwenden eine Mischung aus Mustern und Algorithmen, um Antworten zu finden. Wenn sie diese Informationen jedoch von Menschen mit ihren eigenen Vorurteilen und Vorannahmen übernehmen, was hindert die KI dann daran, ihre eigenen zu entwickeln?
Die Antwort ist nichts.
Amazon hatte ein Rekrutierungstool entwickelt, das aufgrund der sexistischen Ansichten des Tools schnell wieder eingestellt werden musste". Die KI wurde anhand von Daten trainiert, die über einen Zeitraum von zehn Jahren eingereicht wurden, aber die meisten Daten stammten von männlichen Bewerbern. Nach der Entwicklung im Jahr 2014 wurde 2015 klar, dass das System die Bewerber nicht aus einer geschlechtsneutralen Perspektive bewertete. Die Daten, auf denen es basierte, stammten überwiegend von Männern.
Ein weiteres berühmtes Beispiel für KI-Voreingenommenheit war ein amerikanischer Algorithmus namens Kompass. Das Correctional Offender Management Profiling for Alternative Sanctions. Es hat sich gezeigt, dass COMPAS schwarze Angeklagte fälschlicherweise als Personen einstuft, die mit größerer Wahrscheinlichkeit erneut straffällig werden. COMPAS kennzeichnete schwarze Angeklagte fast doppelt so häufig falsch wie Weiße (45% im Vergleich zu 24%). Dieses System wurde in Hunderten von US-Gerichten eingesetzt. Systemischer Rassismus in einer sehr nachweisbaren Form.
Als Microsoft-Forscher Kate Crawford sagte: "Diskriminierungsgeschichten können in digitalen Plattformen weiterleben, und wenn sie nicht hinterfragt werden, werden sie Teil der Logik der alltäglichen algorithmischen Systeme". Situationen wie diese zeigen die Notwendigkeit einer kontinuierlichen Überprüfung der Fakten. Da die KI in unserer Gesellschaft immer mehr Fuß fasst, müssen wir Arbeit um Fehler wie diesen zu vermeiden, die auf Vorurteilen beruhen.
Was bedeutet das also?
Sie denken vielleicht, dass KI als Maschine keine Voreingenommenheit hat, aber das stimmt leider nicht. Es gibt viele Arten von KI-Voreingenommenheit, und es ist schwer, die wichtigsten Formen auszumachen. Das liegt daran, dass jedes Programm mit unterschiedlichen Methoden lernt. Es gibt jedoch einige Arten von Voreingenommenheit mehr anerkannt als andere.
Die fünf bekanntesten Arten von KI-Voreingenommenheit sind:
Voreingenommenheit bei der Auswahl: Dies ist der Fall, wenn die Trainingsdaten die reale Bevölkerung nicht genau repräsentieren. Dies führt dazu, dass die KI eine falsche Annahme trifft. Wenn ein Gesichtserkennungsmodell hauptsächlich auf einen Hautton trainiert wird, kann es Schwierigkeiten haben, Personen mit anderen Hauttönen zu erkennen, was zu Diskriminierung führt.
Confirmation Bias: Dies geschieht, wenn sich die KI zu sehr auf frühere Informationen stützt, die sie gelernt hat. Das bedeutet, dass sie frühere Vorurteile, die sie in den Daten gefunden hat, oder Vorurteile, die sie zuvor gelernt hat, bekräftigt. Zum Beispiel das Stereotyp, dass Frauen weniger qualifiziert sind, um im technischen Bereich zu arbeiten. Dies und die Voreingenommenheit aufgrund von Stereotypen waren ein wichtiger Faktor für den Amazon-Skandal.
Stereotypisierende Voreingenommenheit: Auch "Prejudice bias" genannt. Dabei handelt es sich um eine Voreingenommenheit, die der Maschine antrainiert wird und gesellschaftliche Vorurteile, Stereotypen und Annahmen widerspiegelt. Viele virtuelle Assistenten wie Siri oder Alexa sind mit weiblichen Stimmen ausgestattet und darauf programmiert, höflich und zuvorkommend zu sein. Sie verstärken das Klischee, dass Frauen hilfsbereit und unterwürfig sein sollten, was ungewollt geschlechtsspezifische Vorurteile in der Gesellschaft aufrechterhalten kann.
Verzerrte Messung: Ähnlich wie bei der Stichprobenauswahl kommt es auch bei der Messung zu Verzerrungen, wenn die Datenerhebung nicht vollständig ist oder während der Erhebung ein Fehler auftritt. Wenn eine Universität beispielsweise eine Umfrage zur Studienzufriedenheit verschickt, aber nur diejenigen kontaktiert, die drei Jahre lang immatrikuliert waren, und nicht die Mitglieder, die ihr Studium abgebrochen oder gewechselt haben, erhält sie kein vollständiges Bild.
Homogenitätsverzerrung außerhalb der Gruppe: Hier verallgemeinert die KI Datengruppen, über die sie weniger Daten hat. Sie gruppiert kleinere Gruppen, auch wenn diese nur wenige Gemeinsamkeiten aufweisen. Zum Beispiel haben Gesichtserkennungssysteme Schwierigkeiten, Personen aus rassischen oder ethnischen Minderheitengruppen zu unterscheiden. Dies liegt an der mangelnden Vielfalt der Trainingsdaten.
Diese Themen werden auch in unserem warum KI die Vermarkter nicht ersetzen wird Artikel.
Warum ist KI-Voreingenommenheit ein so dringendes Thema?
KI-Voreingenommenheit ist ein so wichtiges Thema, weil sie oft unbemerkt bleibt, insbesondere wenn man bedenkt, wie sehr KI-Voreingenommenheit in die moderne Gesellschaft integriert ist. Wenn Voreingenommenheit unkontrolliert bleibt, kann sie soziale Stereotypen verstärken und Fehlinformationen fördern. =
In Amerika wurde eine KI, die in vielen US-Gesundheitssystemen zum Einsatz kam Vorrang für "gesündere weiße Patienten über "kranke schwarze Patienten", wenn es um das Versorgungsmanagement ging. Dies liegt daran, dass der Algorithmus auf die falschen Daten trainiert wurde, da er auf Kostendaten und nicht auf den Pflegebedarf trainiert wurde. Außerdem können Algorithmen Gesundheitsrisiken für Personengruppen falsch vorhersagen, über die sie weniger Informationen haben, wie z. B. ethnische Minderheiten.
Forschungen in Amerika hat ebenfalls 50.000 Datensätze durchforstet und festgestellt, dass "Software, die die Versorgung von Dutzenden von Millionen Menschen steuert, systematisch weiße Patienten gegenüber schwarzen Patienten bevorzugt". Dies geschah durchweg bei chronischen Erkrankungen wie Diabetes und Nierenproblemen. Die Zeitung, die dieses Problem aufgeworfen hat, nennt das Unternehmen, das hinter dem Algorithmus steht, nicht und behauptet, dass "das Unternehmen das Problem bestätigt hat und daran arbeitet, es zu lösen".
Dies geschah, weil der Algorithmus nicht darauf trainiert war, die Ethnie einer Person zu berücksichtigen, wenn es um ihre Gesundheit geht. Die verzerrten Ergebnisse zeigen, dass selbst relativ "ethnisch neutrale Formeln immer noch diskriminierende Auswirkungen haben können, wenn sie sich auf Daten stützen, die Ungleichheiten in der Gesellschaft widerspiegeln." Die verzerrten Daten machen deutlich, wie wichtig es ist, Menschen aller Ethnien zu ermutigen, sich an der Entwicklung von KI, Algorithmen und Forschung zu beteiligen.
Was sollten wir tun?
Nicht alle Hoffnung ist verloren! Manchmal ist es möglich, dass KI Verzerrungen abbaut. Techniken zur Verringerung von Voreingenommenheit (z. B. Cross-Checking, Faktenüberprüfung und Verifizierung) können den Tools antrainiert werden. Dadurch kann die KI eine neutralere Perspektive einnehmen als manche Menschen. Solange sie jedoch Entscheidungen auf der Grundlage menschlicher Daten trifft, wird es eine gewisse Form der Voreingenommenheit geben.
Um KI-Verzerrungen zu verringern, müssen wir die Daten, die wir zum Trainieren von KI-Modellen verwenden, diversifizieren. Wir müssen darauf achten, dass wir keine Daten zu Kategorien wie ethnische Gruppen, Standort, Alter und Geschlecht ausschließen oder einschränken. Außerdem ist eine kontinuierliche Überwachung mit KI-Tools erforderlich. Überprüfung auf Anomalien, Fehlinterpretation und Fehldarstellung von Daten.
Eine weitere Möglichkeit, KI-Voreingenommenheit zu verringern, ist die Diversifizierung der KI-Schöpfer. Da KI meist auf historischen Daten basiert, ist es leicht, bereits bestehende Vorurteile zu verstärken. Indem wir Menschen mit unterschiedlichem Hintergrund dazu ermutigen, ihr Interesse an der Entwicklung von KI zu vertiefen, können wir dafür sorgen, dass möglichst viele Perspektiven einbezogen werden, um KI-Voreingenommenheit zu verringern.
Wege zur Verringerung von KI-Voreingenommenheit bei Ihrer Arbeit.
- Seien Sie sich bewusst, welches Tool Sie verwenden, wer es entwickelt hat und welche Vorurteile er möglicherweise hat.
- Nicht alles, was KI produziert, ist eine Tatsache, und wenn es falsch aussieht, sollten Sie es überprüfen. Wenn sie zu etwas Wertvollem beiträgt, sollte die Überprüfung der Fakten immer Teil des KI-Nutzungsprozesses sein.
- Überlegen Sie sich Ihre Prompts. Sie können einige Formen der Voreingenommenheit abmildern, indem Sie sich die Zeit nehmen, Ihre Prompttechnik zu überdenken.
- Fügen Sie den Kontext hinzu, versorgen Sie das Instrument mit einem möglichst breiten Spektrum an Daten und regen Sie es zum Nachdenken und zur Berücksichtigung verschiedener Perspektiven an.
- Bitten Sie Ihre KI, Ihren Gedankengang zu erläutern und ihre Quellen zu nennen, damit Sie sehen können, wie sie ihre Daten gesammelt hat.
Spezifität ist der Schlüssel, KI kann nur so viel tun. Manchmal hat die KI eine andere Vorstellung von "Vielfalt" als Sie, ebenso wie andere Menschen, so dass Sie es für die Maschine vielleicht genauer formulieren müssen.
Was auch immer Sie für Ihr digitales Design benötigen, wir sind für Sie da.
Möchten Sie ein Stück vom Kuchen abhaben? Ganz gleich, ob Sie eine neue Website erstellen, eine neue Marketingkampagne planen oder Ihr Unternehmen umbenennen möchten, kontaktieren Sie uns noch heute.
Verwandte Beiträge
Was ist Link Velocity?
Link-Velocity ist die Rate, mit der eine Website über einen bestimmten Zeitraum Backlinks gewinnt. Lesen Sie hier, ob und wie sie Ihre SEO beeinflusst.
Was ist internationale SEO?
Was ist internationale Suchmaschinenoptimierung? Klicken Sie hier, um mehr darüber zu erfahren, wie Sprach-Tags, URLs und Inhalte Ihre internationale SEO beeinflussen können.