L’IA peut-elle mentir? (Oui. Mais pas comme tu penses.)
Si tu as déjà utilisé ChatGPT et que tu t’es fait donner une réponse qui sonnait super crédible mais qui était complètement fausse, bienvenue dans le club. L’IA peut « mentir » — mais c’est pas de la malhonnêteté. C’est quelque chose de plus bizarre que ça.
Les hallucinations : quand l’IA invente
En jargon technique, ça s’appelle des hallucinations. L’IA génère du texte mot par mot, en choisissant le mot le plus probable à chaque étape. Des fois, cette chaîne de mots probables mène à une affirmation qui a l’air vraie… mais qui l’est pas du tout. L’IA te dit ça avec la même confiance qu’une vraie information, parce qu’elle fait pas la différence.
Des exemples concrets
Des avocats ont soumis des dossiers à la cour avec des citations juridiques inventées par ChatGPT. L’IA avait créé des noms de causes, des numéros de dossiers — tout avait l’air légitime. Sauf que rien de ça existait. C’est le genre de « mensonge » dont on parle : pas de mauvaise intention, juste de la fiction présentée comme du fait.
Pourquoi ça arrive?
L’IA n’a pas de base de données de faits qu’elle consulte. Elle prédit le prochain mot. Quand tu lui demandes « Quel est le livre le plus vendu de 1987? », elle génère une réponse qui ressemble à ce qu’une bonne réponse devrait avoir l’air — mais sans vérifier si c’est vrai. C’est comme un étudiant qui bluffe à un examen oral.
Comment se protéger?
Vérifie toujours les faits importants que l’IA te donne. Si elle te cite un chiffre, une date, un nom, un lien — va valider ça ailleurs. Utilise l’IA pour brainstormer, organiser tes idées, explorer un sujet. Mais pour les faits précis, fais ta propre vérification.
L’IA ment pas par méchanceté. Elle ment parce qu’elle sait pas qu’elle ment. Et ça, c’est presque plus inquiétant.