El sesgo de la IA puede imputarse en una pregunta como ésta

¿Qué es el sesgo de la IA y qué debe hacer para evitarlo?

La IA se ha abierto camino en la vida de la mayoría de las personas de una forma u otra, pero ¿cuánto sabe sobre esta herramienta y, más concretamente, sobre el sesgo de la IA?

Ejemplos reales

La mayoría de las herramientas de IA aprenden analizando datos, utilizando una mezcla de patrones y algoritmos para determinar las respuestas. Sin embargo, si toman esta información de los humanos, con sus propios sesgos y prejuicios, ¿qué impide que la IA desarrolle los suyos propios? 

La respuesta es nada. 

Amazon había desarrollado una herramienta de contratación que rápidamente tuvo que interrumpirse debido a las "opiniones sexistas" de la herramienta. La IA se entrenó con datos enviados durante diez años, pero la mayoría de los datos procedían de candidatos varones. Desarrollada en 2014, en 2015 quedó claro que el sistema no calificaba a los candidatos desde una perspectiva neutra de género. Los datos en los que se basaba procedían en su mayoría de hombres. 

Otro ejemplo famoso de sesgo de la IA fue un algoritmo estadounidense llamado Compas. El Correctional Offender Management Profiling for Alternative Sanctions. Se demostró que el COMPAS etiquetaba erróneamente a los acusados negros como más propensos a reincidir. El COMPAS marcó erróneamente a los acusados negros casi el doble que a los blancos (45% frente a 24%). Este sistema se utilizó en cientos de tribunales estadounidenses. Racismo sistémico de forma muy demostrable.

Como investigador de Microsoft Kate Crawford Las historias de discriminación pueden perdurar en las plataformas digitales y, si no se cuestionan, pasan a formar parte de la lógica de los sistemas algorítmicos cotidianos". Situaciones como esta demuestran la necesidad de una comprobación continua de los hechos. A medida que la IA se arraiga en nuestra sociedad, debemos trabajo para evitar que se produzcan errores de sesgo como éste.

¿Qué significa esto? 

Puede que pienses que la IA, como máquina, no tiene prejuicios, pero lamentablemente no es cierto. Hay muchos tipos de sesgo de la IA y es difícil identificar las formas principales. Esto se debe a que cada programa aprende a través de métodos diferentes. Sin embargo, hay algunos tipos de sesgo más reconocidos que otros. 

Los cinco tipos de sesgo de la IA más reconocidos son:

Sesgo de selección: Esto ocurre cuando los datos de entrenamiento no representan con exactitud a la población del mundo real. Esto lleva a la IA a hacer suposiciones incorrectas. Si un modelo de reconocimiento facial se entrena principalmente con un tono de piel, puede tener dificultades para reconocer a quienes tienen otros tonos de piel, lo que conduce a la discriminación.

Sesgo de confirmación: Esto ocurre cuando la IA confía demasiado en la información previa que ha aprendido. Esto significa que reafirma prejuicios históricos anteriores encontrados en los datos o prejuicios que ha aprendido antes. Por ejemplo, el estereotipo de que las mujeres están menos cualificadas para trabajar en tecnología. Esto, junto con los prejuicios estereotipados, fue un factor determinante en el escándalo de Amazon.

LEA  Por qué la IA no sustituye a los profesionales del marketing.

Sesgo estereotipador: También llamado sesgo de prejuicio. Se trata de un sesgo que se forma en la máquina y refleja prejuicios, estereotipos y suposiciones sociales. Muchos asistentes virtuales, como Siri o Alexa, están diseñados con voces femeninas y programados para ser amables y complacientes. Esto refuerza el estereotipo de que las mujeres deben ser serviciales y sumisas, lo que puede perpetuar involuntariamente los prejuicios de género en la sociedad.

Sesgo de medición: De forma similar al sesgo de selección de la muestra, el sesgo de medición se produce cuando la recogida de datos no se completa o hay un error durante la recogida. Por ejemplo, si una universidad envía una encuesta de satisfacción con los cursos, pero sólo contacta con los que permanecieron matriculados durante los tres años completos y no con los miembros que abandonaron o cambiaron de curso, no está obteniendo la imagen completa.

Sesgo de homogeneidad fuera del grupo: Aquí es donde la IA generaliza grupos de datos sobre los que tiene menos datos. Agrupa grupos más pequeños aunque tengan muy pocas similitudes. Por ejemplo, los sistemas de reconocimiento facial tienen dificultades para distinguir individuos de grupos raciales o étnicos minoritarios. Esto se debe a la falta de diversidad en los datos de entrenamiento.

También se abordan en nuestro por qué la inteligencia artificial no sustituye a los profesionales del marketing artículo

¿Por qué el sesgo de la IA es un problema tan acuciante?

El sesgo de la IA es un tema muy importante porque a menudo puede pasar desapercibido, especialmente con lo integrado que está el sesgo de la IA en la sociedad moderna. Si no se controlan, pueden alimentar los estereotipos sociales y potenciar la desinformación =.

En Estados Unidos, una IA que se utilizaba en muchos sistemas sanitarios estadounidenses dio prioridad a los "pacientes blancos más sanos sobre los "pacientes negros más enfermos" a la hora de gestionar los cuidados. Esto se debe a que el algoritmo se formó incorrectamente a partir de datos erróneos, ya que se basó en datos de costes y no en necesidades asistenciales. Además, los algoritmos pueden predecir incorrectamente los riesgos para la salud de grupos de personas sobre los que se tiene menos información, como las minorías étnicas. 

Investigaciones en América también examinó 50.000 registros y descubrió que "los programas informáticos que orientan la atención a decenas de millones de personas privilegian sistemáticamente a los pacientes blancos frente a los negros". Esto ocurría sistemáticamente en enfermedades crónicas como la diabetes y los problemas renales. El documento que planteó esta cuestión no identifica a la empresa que está detrás del algoritmo, afirmando que "la empresa ha confirmado el problema y está trabajando para solucionarlo".  

LEA  Resumen del 1er trimestre sobre marketing digital

Esto ocurrió porque el algoritmo no estaba entrenado para tener en cuenta la raza de una persona a la hora de abordar sus problemas de salud. Sus resultados sesgados demostraron que incluso fórmulas relativamente "neutras desde el punto de vista racial pueden tener efectos discriminatorios cuando se basan en datos que reflejan desigualdades en la sociedad." Los datos sesgados ponen de relieve la importancia de animar a personas de todas las etnias a participar en la creación de IA, algoritmos e investigación. 

 

¿Qué debemos hacer?

No todas las esperanzas están perdidas. A veces es posible que la IA reduzca los sesgos. Las técnicas de reducción de sesgos (como la comprobación cruzada, la verificación de hechos y la verificación) pueden entrenarse en las herramientas. Esto hace que la IA tenga una perspectiva más neutral que algunos humanos. Sin embargo, mientras tome decisiones basadas en datos humanos, habrá algún tipo de sesgo. 

Para reducir el sesgo de la IA, necesitamos diversificar los datos que utilizamos para entrenar los modelos de IA. Centrándonos en tener cuidado de no excluir ni limitar ningún dato en categorías como grupos étnicos, ubicación, edad y sexo. También es necesaria una supervisión continua con herramientas de IA. Comprobación de anomalías, mala interpretación de los datos y tergiversación. 

Otra forma de ayudar a reducir el sesgo de la IA es diversificar a sus creadores. Dado que la IA se basa principalmente en datos históricos, es fácil amplificar los prejuicios ya existentes. Al animar a personas de todos los orígenes a profundizar en su interés por la creación de IA, podemos garantizar el mayor número posible de perspectivas para ayudar a reducir el sesgo de la IA. 

 

Formas de reducir el sesgo de la IA en tu trabajo.

  1. Conozca la herramienta que utiliza, quién la ha creado y qué prejuicios puede tener.
  2. No todo lo que produce la inteligencia artificial son hechos. Si contribuye a algo de valor, la comprobación de los hechos debe formar siempre parte del proceso de uso de la IA.
  3. Tenga en cuenta sus indicaciones: puede mitigar algunas formas de sesgo tomándose el tiempo necesario para considerar la ingeniería de sus indicaciones. 
  4. Añada contexto, proporcione a la herramienta una gama de datos lo más amplia posible y anímela a pensar y a considerar diferentes perspectivas.
  5. Pide a tu IA que "explique su proceso de pensamiento" y que cite sus fuentes para que puedas ver cómo ha recopilado sus datos. 

La especificidad es clave, la IA no puede hacer mucho. A veces, la IA tendrá una idea de la "diversidad" diferente a la tuya, al igual que otros humanos, por lo que puede que tengas que explicárselo a la máquina.