Qu'est-ce qu'un biais d'IA et que devez-vous faire pour l'éviter ?
L'IA a fait son chemin dans la vie de la plupart des gens d'une manière ou d'une autre, mais que savez-vous de cet outil et plus particulièrement des préjugés de l'IA ?
Exemples concrets
La plupart des outils d'IA apprennent en analysant des données, en utilisant un mélange de modèles et d'algorithmes pour déterminer les réponses. Cependant, si ces informations proviennent d'humains, avec leurs propres biais et préjugés, qu'est-ce qui empêcherait l'IA de développer les siens ?
La réponse est : rien.
Amazon avait mis au point un outil de recrutement qui a rapidement dû être arrêté en raison des "opinions sexistes" qu'il véhiculait. L'IA a été formée à partir de données soumises sur dix ans, mais la plupart des données provenaient de candidats masculins. Développée en 2014, il est apparu en 2015 que le système n'évaluait pas les candidats d'un point de vue non sexiste. Les données sur lesquelles il a été construit ont été recueillies principalement auprès d'hommes.
Un autre exemple célèbre de partialité de l'IA est celui d'un algorithme américain appelé Compas. Le programme COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Il a été prouvé que le COMPAS étiquetait à tort les prévenus noirs comme étant plus susceptibles de récidiver. Le COMPAS a signalé à tort des accusés noirs presque deux fois plus souvent que des blancs (45% contre 24%). Ce système a été utilisé dans des centaines de tribunaux américains. Il s'agit de racisme systémique sous une forme tout à fait démontrable.
Comme l'a souligné un chercheur de Microsoft Kate Crawford a déclaré : "Les histoires de discrimination peuvent perdurer sur les plateformes numériques et, si elles ne sont pas remises en question, elles deviennent partie intégrante de la logique des systèmes algorithmiques quotidiens". Des situations comme celle-ci démontrent la nécessité d'une vérification continue des faits. À mesure que l'IA s'installe dans notre société, nous devons travail pour éviter que des erreurs de partialité comme celle-ci ne se produisent.
Qu'est-ce que cela signifie ?
Vous pensez peut-être que l'IA en tant que machine n'a pas de parti pris, mais ce n'est malheureusement pas le cas. Il existe de nombreux types de biais dans l'IA et il est difficile d'en identifier les principales formes. En effet, chaque programme apprend selon des méthodes différentes. Cependant, il existe certains Certains types de préjugés sont plus reconnus que d'autres.
Les cinq types de biais d'IA les plus connus sont les suivants :
Biais de sélection : Cela se produit lorsque les données d'apprentissage ne représentent pas fidèlement la population réelle. L'IA est alors amenée à faire des suppositions erronées. Si un modèle de reconnaissance faciale est entraîné principalement sur une couleur de peau, il peut avoir du mal à reconnaître les personnes ayant d'autres couleurs de peau, ce qui entraîne une discrimination.
Biais de confirmation : Cela se produit lorsque l'IA s'appuie trop fortement sur les informations qu'elle a apprises précédemment. Cela signifie qu'elle réaffirme les préjugés historiques trouvés dans les données ou les préjugés qu'elle a appris auparavant. Par exemple, le stéréotype selon lequel les femmes sont moins qualifiées pour travailler dans la technologie. Ces préjugés, ainsi que les stéréotypes, ont joué un rôle important dans le scandale d'Amazon.
Préjugés stéréotypés : Également appelé préjugé. Il s'agit d'un préjugé qui est intégré à la machine et qui reflète les préjugés, les stéréotypes et les hypothèses de la société. De nombreux assistants virtuels, tels que Siri ou Alexa, sont conçus avec des voix féminines et programmés pour être polis et accommodants. Renforçant le stéréotype selon lequel les femmes doivent être serviables et soumises, ce qui peut involontairement perpétuer les préjugés sexistes dans la société.
Biais de mesure : Tout comme le biais de sélection de l'échantillon, le biais de mesure se produit lorsque la collecte des données n'est pas complète ou qu'il y a une erreur lors de la collecte. Par exemple, si une université envoie une enquête de satisfaction sur les cours, mais ne s'adresse qu'à ceux qui sont restés inscrits pendant les trois années et non à ceux qui ont abandonné ou changé de cours, elle n'obtient pas une image complète de la situation.
Biais d'homogénéité hors groupe : L'IA généralise les groupes de données sur lesquels elle dispose de moins de données. Regrouper des groupes plus petits même s'ils n'ont que très peu de similitudes. Par exemple, les systèmes de reconnaissance faciale ont des difficultés à distinguer les individus appartenant à des groupes raciaux ou ethniques minoritaires. Cela est dû à un manque de diversité dans les données d'apprentissage.
Ces questions sont également abordées dans notre pourquoi l'IA ne remplace pas les spécialistes du marketing article.
Pourquoi les biais liés à l'IA constituent-ils une question aussi urgente ?
Les préjugés liés à l'IA sont une question très importante car ils passent souvent inaperçus, notamment en raison de l'intégration des préjugés liés à l'IA dans la société moderne. Si les biais ne sont pas contrôlés, ils peuvent jouer sur les stéréotypes sociaux et renforcer la désinformation. =
En Amérique, une IA utilisée dans de nombreux systèmes de santé américains Priorité aux "patients blancs en meilleure santé". Le système de gestion des soins de santé est plus important pour les "patients noirs plus malades" que pour les autres. Cela s'explique par le fait que l'algorithme a été formé sur la base de données erronées, c'est-à-dire sur des données relatives aux coûts et non aux besoins en matière de soins. En outre, les algorithmes peuvent prédire de manière erronée les risques pour la santé de groupes de personnes sur lesquels ils disposent de moins d'informations, comme les minorités ethniques.
Recherches en Amérique a également passé au peigne fin 50 000 dossiers et découvert que "les logiciels guidant les soins pour des dizaines de millions de personnes privilégient systématiquement les patients blancs par rapport aux patients noirs". Cela s'est produit systématiquement pour des maladies chroniques telles que le diabète et les problèmes rénaux. L'article qui a soulevé cette question n'identifie pas l'entreprise à l'origine de l'algorithme, affirmant que "l'entreprise a confirmé le problème et s'efforce de le résoudre".
Cela s'est produit parce que l'algorithme n'avait pas été formé pour prendre en compte la race d'une personne lorsqu'il s'agissait de traiter ses problèmes de santé. Ses résultats biaisés ont montré que même des "formules relativement neutres sur le plan racial peuvent encore avoir des effets discriminatoires lorsqu'elles s'appuient sur des données qui reflètent les inégalités dans la société". Les données biaisées soulignent l'importance d'encourager les personnes de toutes les ethnies à participer à la construction de l'IA, des algorithmes et de la recherche.
Que devrions-nous faire ?
Tout espoir n'est pas perdu ! L'IA peut parfois réduire les biais. Les techniques de réduction des biais (telles que le recoupement, la vérification des faits et la vérification) peuvent être formées dans les outils. L'IA offre ainsi une perspective plus neutre que certains humains. Cependant, tant qu'elle prendra des décisions basées sur des données humaines, il y aura une certaine forme de partialité.
Pour réduire les biais de l'IA, nous devons diversifier les données que nous utilisons pour former les modèles d'IA. Il faut veiller à ne pas exclure ou limiter les données sur des catégories telles que les groupes ethniques, la localisation, l'âge et le sexe. Les outils d'IA doivent également faire l'objet d'une surveillance continue. Vérifier les anomalies, les erreurs d'interprétation des données et les représentations erronées.
Un autre moyen de réduire les préjugés liés à l'IA consiste à diversifier les créateurs d'IA. L'IA étant basée sur des données essentiellement historiques, il est facile d'amplifier des préjugés déjà existants. En encourageant des personnes de tous horizons à approfondir leur intérêt pour la construction de l'IA, nous pouvons garantir autant de perspectives que possible pour contribuer à réduire les préjugés en matière d'IA.
Façons de réduire les biais liés à l'IA dans votre travail.
- Soyez conscient de l'outil que vous utilisez, des personnes qui l'ont créé et des préjugés qu'elles peuvent avoir.
- Tout ce que l'IA produit n'est pas nécessairement un fait, si cela semble erroné, vérifiez-le. Si elle contribue à quelque chose de valable, la vérification des faits devrait toujours faire partie de votre processus d'utilisation de l'IA.
- Vous pouvez atténuer certaines formes de préjugés en prenant le temps de réfléchir à l'ingénierie de vos messages.
- Ajoutez du contexte, fournissez à l'outil un éventail de données aussi large que possible et encouragez-le à réfléchir et à prendre en compte différentes perspectives.
- Demandez à votre IA d'"expliquer votre processus de réflexion" et de citer ses sources afin que vous puissiez voir comment elle a recueilli ses données.
La spécificité est essentielle, l'IA ne peut pas tout faire. Parfois, l'IA n'aura pas la même idée de la "diversité" que vous, tout comme d'autres humains, et vous devrez donc la préciser à la machine.
Quels que soient vos besoins en matière de conception numérique, nous sommes là pour vous aider.
Envie d'une part du gâteau ? Que vous souhaitiez créer un nouveau site web, planifier une nouvelle campagne de marketing ou même donner une nouvelle image à votre entreprise, contactez-nous dès aujourd'hui.
Articles connexes
Qu'est-ce que la vélocité des liens ?
La vélocité des liens est la vitesse à laquelle un site web gagne des backlinks au cours d'une période donnée. Lisez ici pour savoir si, et comment, elle affecte votre référencement.
Qu'est-ce que le référencement international ?
Qu'est-ce que le référencement international ? Cliquez pour en savoir plus sur la façon dont les balises linguistiques, les URL et le contenu peuvent affecter votre référencement international.