{"id":83,"date":"2026-03-21T13:55:25","date_gmt":"2026-03-21T13:55:25","guid":{"rendered":"https:\/\/laeka.org\/blog\/?p=83"},"modified":"2026-03-23T11:50:57","modified_gmt":"2026-03-23T15:50:57","slug":"ia-et-les-biais","status":"publish","type":"post","link":"https:\/\/laeka.org\/blog\/fr\/ia-et-les-biais\/","title":{"rendered":"L&#8217;IA et les biais : elle reproduit nos pr\u00e9jug\u00e9s (en pire)"},"content":{"rendered":"<p>Une IA d\u00e9cide si tu as un pr\u00eat. Une autre IA choisit les candidats pour un emploi. Une troisi\u00e8me IA d\u00e9termine si tu re\u00e7ois des services de sant\u00e9. Et l\u00e0, tu d\u00e9couvres quelque chose de glacial : l&#8217;IA est biais\u00e9e. Elle aime pas les personnes comme toi.<\/p>\n<p>\u00ab Mais c&#8217;est juste des chiffres \u00bb, tu dis. \u00ab Les chiffres sont objectifs, right? \u00bb<\/p>\n<p>Wrong. Les chiffres, c&#8217;est juste du pr\u00e9jug\u00e9 en nombre.<\/p>\n<h2>Comment un biais rentre dans l&#8217;IA<\/h2>\n<p>L&#8217;IA learn de donn\u00e9es historiques. Si historiquement, les banques donnaient plus de pr\u00eats aux hommes blancs qu&#8217;aux femmes noires, l&#8217;IA va apprendre \u00e7a. Elle va reproduire le biais. Pas parce qu&#8217;elle est m\u00e9chante. Parce qu&#8217;elle apprend ce qui s&#8217;est pass\u00e9 avant.<\/p>\n<p>C&#8217;est comme si tu apprenais \u00e0 cuisiner en regardant ta m\u00e8re toute ta vie. Si ta m\u00e8re salait pas assez, tu vas saler pas assez. C&#8217;est pas de ta faute. Tu copias juste ce que tu as vu.<\/p>\n<p>Sauf qu&#8217;avec l&#8217;IA, c&#8217;est pire. Parce que l&#8217;IA reproduit les biais, pis elle les amplifie. Si le data historique montre que les femmes sont moins souvent engag\u00e9es dans la tech, l&#8217;IA va \u00ab apprendre \u00bb que c&#8217;est normal. Et quand elle choisit les candidats, elle va privil\u00e9gier les gars. Plus que ce que les humains faisaient.<\/p>\n<p>Et personne remarque, parce que c&#8217;est un algoritme. C&#8217;est \u00ab objectif \u00bb. C&#8217;est des nombres. C&#8217;est scientifique.<\/p>\n<h2>Les vraies cons\u00e9quences<\/h2>\n<p>\u00c7a semble abstrait jusqu&#8217;\u00e0 ce que \u00e7a t&#8217;affecte.<\/p>\n<p>Y a eu des cas o\u00f9 une IA d&#8217;embauche refusait les femmes syst\u00e9matiquement. Une autre IA refusait les gens avec des noms qui \u00ab sondaient \u00bb immigrants. Une autre encore offrait des pr\u00eats plus chers aux personnes noires pour les m\u00eames demandes que les personnes blanches.<\/p>\n<p>Ce qui est vraiment fou? Les gens qui construisaient l&#8217;IA pensaient qu&#8217;elle \u00e9tait juste. Ils avaient regard\u00e9 les chiffres. Pas le contexte. Pas l&#8217;histoire. Juste les chiffres.<\/p>\n<p>Et imagine combien de cas on a pas encore d\u00e9couverts. Une compagnie d&#8217;assurance qui utilise une IA biais\u00e9e, c&#8217;est des milliers de gens qui paient plus. Une appli d&#8217;embauche biais\u00e9e, c&#8217;est des milliers de gens qui perdent un emploi. Et personne sait pourquoi. L&#8217;IA a d\u00e9cid\u00e9.<\/p>\n<h2>Et c&#8217;est plus que juste la discrimination<\/h2>\n<p>Y a un autre biais : celui de ce qu&#8217;on vaut la peine de servir. Si une IA voit que historiquement, les jeunes ados utilisaient une app, elle va montrer plus d&#8217;ads \u00e0 des ados. Elle va investir dans les ados. Mais si elle voit que les a\u00een\u00e9s utilisaient moins, elle va \u00ab apprendre \u00bb que les a\u00een\u00e9s c&#8217;est pas important. Et plus elle apprend \u00e7a, plus elle va les ignorer.<\/p>\n<p>C&#8217;est un biais de circularit\u00e9. Le pr\u00e9sent devient le pass\u00e9. Le pr\u00e9jug\u00e9 d&#8217;aujourd&#8217;hui devient la \u00ab v\u00e9rit\u00e9 \u00bb de demain.<\/p>\n<h2>Ce qu&#8217;on peut faire<\/h2>\n<p>D&#8217;abord, \u00eatre conscient. Si une IA prend une d\u00e9cision qui t&#8217;affecte\u2014un pr\u00eat refus\u00e9, un emploi rejet\u00e9, une assurance refus\u00e9e\u2014tu as le droit de demander pourquoi. Et pas juste \u00ab parce que l&#8217;IA a dit non \u00bb. Pourquoi vraiment.<\/p>\n<p>Deuxi\u00e8mement, soutenir la r\u00e9gulation. Les gouvernements commencent \u00e0 demander que les companies expliquent leurs IAs. C&#8217;est bon. \u00c7a veut pas dire bannir l&#8217;IA. \u00c7a veut juste dire : \u00ab Montrez-nous ce que vous faites. \u00bb C&#8217;est justice basique.<\/p>\n<p>Troisi\u00e8mement, demander \u00e0 la compagnie qui utilise une IA si elle a test\u00e9 pour le biais. Une bonne compagnie peut te dire. \u00ab Oui, on a regard\u00e9. Voici ce qu&#8217;on a trouv\u00e9. Voici comment on l&#8217;a fix\u00e9. \u00bb Si elle peut pas te dire \u00e7a, c&#8217;est un red flag.<\/p>\n<p>Et finalement, reste humain. L&#8217;IA peut t&#8217;aider \u00e0 prendre une d\u00e9cision. Mais pas la d\u00e9cision elle-m\u00eame. Pas sur quelque chose qui t&#8217;affecte vraiment.<\/p>\n<p><strong>Tu veux comprendre comment les biais entrent dans la tech?<\/strong> <a href=\"https:\/\/sherpa.live\">Sherpa<\/a> (gratuit) t&#8217;explique simplement. Ou creuse dans <a href=\"https:\/\/research.laeka.org\">Laeka Research<\/a> pour les d\u00e9tails vraiment importants.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Une IA d\u00e9cide si tu as un pr\u00eat. Une autre IA choisit les candidats pour un emploi. Une troisi\u00e8me IA&#8230;<\/p>\n","protected":false},"author":1,"featured_media":74,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"_kad_post_classname":"","footnotes":""},"categories":[184],"tags":[],"class_list":["post-83","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-lia-et-toi"],"_links":{"self":[{"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/posts\/83","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/comments?post=83"}],"version-history":[{"count":1,"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/posts\/83\/revisions"}],"predecessor-version":[{"id":331,"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/posts\/83\/revisions\/331"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/media\/74"}],"wp:attachment":[{"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/media?parent=83"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/categories?post=83"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/laeka.org\/blog\/wp-json\/wp\/v2\/tags?post=83"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}