O preconceito da IA pode ser imputado numa pergunta como esta

O que é o enviesamento da IA e o que deve fazer para o evitar

A IA entrou na vida da maioria das pessoas de uma forma ou de outra, mas o que é que sabe sobre a ferramenta e, mais especificamente, sobre o preconceito da IA?

Exemplos do mundo real

A maioria das ferramentas de IA aprende através da análise de dados, utilizando uma mistura de padrões e algoritmos para determinar as respostas. No entanto, se estão a receber estas informações dos seres humanos, com as suas próprias tendências e preconceitos, o que impede a IA de desenvolver as suas próprias? 

A resposta é nada. 

A Amazon tinha desenvolvido uma ferramenta de recrutamento que rapidamente teve de ser interrompida devido às suas "visões sexistas". A IA foi treinada com base em dados apresentados ao longo de dez anos, mas a maioria dos dados provinha de candidatos do sexo masculino. Desenvolvida em 2014, em 2015 tornou-se claro que o sistema não estava a classificar os candidatos numa perspetiva neutra em termos de género. Os dados em que se baseava eram maioritariamente recolhidos junto de homens. 

Outro exemplo famoso de parcialidade da IA foi um algoritmo americano chamado "Compas. O Correctional Offender Management Profiling for Alternative Sanctions. Ficou provado que o COMPAS assinala incorretamente os arguidos negros como tendo maior probabilidade de reincidência. O COMPAS assinalou incorretamente os arguidos negros quase duas vezes mais do que os brancos (45% em comparação com 24%). Este sistema foi utilizado em centenas de tribunais dos EUA. Racismo sistémico de uma forma muito demonstrável.

Como investigador da Microsoft Kate Crawford As histórias de discriminação podem viver nas plataformas digitais e, se não forem questionadas, tornam-se parte da lógica dos sistemas algorítmicos quotidianos". Situações como esta demonstram a necessidade de uma verificação contínua dos factos. À medida que a IA se torna mais enraizada na nossa sociedade, temos de trabalho para evitar a ocorrência de erros baseados em preconceitos como este.

O que é que isto significa? 

Pode pensar-se que a IA, enquanto máquina, não tem preconceitos, mas, infelizmente, isso não é verdade. Há muitos tipos de preconceitos de IA e é difícil identificar as principais formas. Isto deve-se ao facto de cada programa aprender através de métodos diferentes. No entanto, existem alguns tipos de preconceitos mais reconhecidos do que outros. 

Os cinco tipos de preconceitos de IA mais reconhecidos são:

Viés de seleção: Isto ocorre quando os dados de treino não representam com exatidão a população do mundo real. O que leva a IA a fazer uma suposição incorrecta. Se um modelo de reconhecimento facial for treinado principalmente num tom de pele, pode ter dificuldade em reconhecer pessoas com outros tons de pele, o que leva à discriminação.

Viés de confirmação: Isto acontece quando a IA se baseia demasiado em informações anteriores que aprendeu. Isto significa que reafirma preconceitos históricos anteriores encontrados nos dados ou preconceitos que aprendeu anteriormente. Por exemplo, o estereótipo de que as mulheres são menos qualificadas para trabalhar em tecnologia. Este facto, juntamente com o preconceito de estereótipos, foi um fator importante na origem do escândalo da Amazon.

LER  Encontrar a melhor alternativa ao Mailchimp para a sua empresa

Preconceito de estereótipo: Também designado por preconceito. Trata-se de um preconceito que é treinado na máquina e reflecte preconceitos, estereótipos e suposições sociais. Muitos assistentes virtuais, como a Siri ou a Alexa, são concebidos com vozes femininas e programados para serem educados e complacentes. Reforçando o estereótipo de que as mulheres devem ser prestáveis e submissas, o que pode, involuntariamente, perpetuar preconceitos de género na sociedade.

Viés de medição: Semelhante ao enviesamento da seleção da amostra, o enviesamento da medição ocorre quando a recolha de dados não está concluída ou há um erro durante a recolha. Por exemplo, se uma universidade envia um inquérito sobre a satisfação com o curso, mas apenas contacta aqueles que se mantiveram inscritos durante os três anos e não os membros que desistiram ou mudaram de curso, não está a obter uma imagem completa.

Viés de homogeneidade fora do grupo: É aqui que a IA generaliza grupos de dados sobre os quais tem menos dados. Agrupamento de grupos mais pequenos, embora possam ter muito poucas semelhanças. Por exemplo, os sistemas de reconhecimento facial têm dificuldade em distinguir indivíduos de grupos raciais ou étnicos minoritários. Este facto deve-se à falta de diversidade nos dados de treino.

Estas questões são igualmente abordadas no nosso porque é que a IA não está a substituir os profissionais de marketing artigo

Porque é que o preconceito em relação à IA é uma questão tão premente?

O preconceito da IA é uma questão tão importante porque pode muitas vezes passar despercebido, especialmente com a integração do preconceito da IA na sociedade moderna. Se os preconceitos não forem controlados, podem contribuir para os estereótipos sociais e aumentar a desinformação.

Na América, uma IA que estava a ser utilizada em muitos sistemas de saúde dos EUA deu prioridade a "doentes brancos mais saudáveis A equipa de gestão dos cuidados de saúde foi mais bem sucedida do que os "doentes negros mais doentes". Isto deve-se ao facto de ter sido incorretamente treinado com base nos dados errados, tendo sido treinado com base nos dados relativos aos custos e não nas necessidades de cuidados. Além disso, os algoritmos podem prever incorretamente os riscos para a saúde de grupos de pessoas sobre os quais têm menos informação, como as minorias étnicas. 

Pesquisas na América também analisou 50.000 registos e descobriu que "o software que orienta os cuidados de saúde de dezenas de milhões de pessoas privilegia sistematicamente os doentes brancos em detrimento dos negros". Isto aconteceu de forma consistente em relação a doenças crónicas como a diabetes e problemas renais. O documento que levantou esta questão não identifica a empresa por detrás do algoritmo, afirmando que "a empresa confirmou o problema e está a trabalhar para o resolver".  

LER  Resumo do marketing digital do primeiro trimestre

Isto aconteceu porque o algoritmo não foi treinado para ter em conta a raça de uma pessoa quando aborda os seus problemas de saúde. Os resultados distorcidos mostraram que mesmo as "fórmulas relativamente neutras em termos de raça podem ter efeitos discriminatórios quando se baseiam em dados que reflectem as desigualdades na sociedade". Os dados distorcidos realçam a importância de encorajar pessoas de todas as etnias a participar na construção de IA, algoritmos e investigação. 

 

O que é que devemos fazer?

Nem toda a esperança está perdida! Por vezes, é possível que a IA reduza os preconceitos. As técnicas de redução de preconceitos (como a verificação cruzada, a verificação de factos e a verificação) podem ser treinadas nas ferramentas. A IA tem uma perspetiva mais neutra do que alguns seres humanos. No entanto, enquanto a IA tomar decisões com base em dados humanos, haverá alguma forma de parcialidade. 

Para reduzir o enviesamento da IA, temos de diversificar os dados que estamos a utilizar para treinar modelos de IA. Devemos ter o cuidado de não excluir ou limitar quaisquer dados em categorias como grupos étnicos, localização, idade e género. É também necessária uma monitorização contínua com as ferramentas de IA. Verificar a existência de anomalias, má interpretação dos dados e deturpação. 

Outra forma de ajudar a reduzir o enviesamento da IA é diversificar os criadores de IA. Como a IA se baseia principalmente em dados históricos, é fácil amplificar os preconceitos já existentes. Ao encorajar pessoas de todas as origens a aprofundar o seu interesse na construção de IA, podemos garantir o maior número possível de perspectivas para ajudar a reduzir o preconceito da IA. 

 

Formas de reduzir o enviesamento da IA no seu trabalho.

  1. Estar ciente da ferramenta que está a utilizar, de quem a criou e dos preconceitos que possa ter
  2. Nem tudo o que a IA produz é um facto, se parecer estranho, verifique os factos. Se estiver a contribuir para algo de valor, a verificação dos factos deve fazer sempre parte do seu processo de utilização da IA
  3. Considere as suas sugestões, pode atenuar algumas formas de preconceito se dedicar algum tempo a considerar a sua engenharia de sugestões. 
  4. Acrescente contexto, forneça à ferramenta uma gama de dados tão vasta quanto possível e incentive-a a pensar e a considerar diferentes perspectivas.
  5. Peça à sua IA que "explique o seu processo de pensamento" e cite as suas fontes para que possa ver como recolheu os dados. 

A especificidade é fundamental, a IA não pode fazer muito. Por vezes, a IA terá uma ideia de "diversidade" diferente da sua, tal como outros seres humanos, pelo que poderá ter de a especificar para a máquina.