Pourquoi l’IA dit parfois n’importe quoi (et c’est normal)

T’as sûrement déjà vu ça. Tu poses une question à ChatGPT et il te répond avec un aplomb total… sauf que la réponse est complètement fausse. Il invente un livre qui existe pas. Il cite un article scientifique fictif. Il te donne des statistiques sorties de nulle part.

Et le pire? Il a l’air totalement sûr de lui.

C’est ce qu’on appelle une hallucination. Et c’est pas un bug. C’est une conséquence directe de comment l’IA fonctionne.

L’IA est une machine à compléter des phrases

ChatGPT génère du texte un mot à la fois, en choisissant le mot le plus probable après celui d’avant. C’est un autocomplete géant. Il a pas de « base de données de faits » qu’il consulte. Il a pas de petit bibliothécaire intérieur qui vérifie les sources.

Quand tu lui demandes « Quel est le plus haut pont au Québec? », il cherche pas la réponse dans une encyclopédie. Il génère la suite de mots qui ressemble le plus à une bonne réponse, basé sur tout ce qu’il a lu pendant son entraînement.

La plupart du temps, ça donne la bonne réponse. Mais quand les données sont floues, contradictoires ou simplement absentes… il invente. Avec confiance. Parce qu’il a pas le concept de « je sais pas ».

C’est comme un conteur professionnel

Imagine un conteur qui a lu tous les livres du monde. Tu lui demandes de te raconter l’histoire de la Bataille de Châteauguay. S’il l’a lue souvent, il va bien la raconter. Mais si tu lui demandes l’histoire de la Bataille de Saint-Rémi-de-Napierville (qui existe pas), il va quand même te raconter une histoire. Avec des dates, des noms, des détails. Parce que c’est ça qu’il fait : il raconte.

L’IA fait pas la différence entre raconter quelque chose de vrai et raconter quelque chose de plausible. Pour elle, c’est le même processus.

Les hallucinations les plus courantes

Les fausses citations sont un classique. Demande à ChatGPT de te trouver 5 études sur un sujet pointu et il va t’en donner 5, avec titres, auteurs et dates. Sauf que 2 ou 3 vont être complètement inventées. Les auteurs existent, mais l’article, lui, existe pas.

Les faux faits historiques sont fréquents aussi. L’IA va mélanger des événements, inventer des dates, ou combiner deux histoires différentes en une seule. C’est comme un étudiant qui a trop étudié la veille de l’examen et qui mélange tout.

Et les calculs. L’IA est surprenamment mauvaise en math de base. Elle va parfois te dire que 37 x 14 = 498 (la bonne réponse est 518) parce qu’elle « prédit » le résultat au lieu de le calculer.

Comment te protéger

La règle d’or : vérifie tout ce qui est factuel. Si ChatGPT te donne un fait, une date, une statistique, un nom — vérifie avec une source fiable. Traite l’IA comme un premier jet, jamais comme une source finale.

Pour les tâches créatives — brainstorming, rédaction, reformulation — les hallucinations sont rarement un problème parce que t’es pas en train de chercher des faits. T’es en train de générer des idées.

Le truc c’est de savoir quand faire confiance et quand vérifier. C’est exactement ce qu’on enseigne dans Sherpa, notre guide IA gratuit. Parce que l’IA qui dit n’importe quoi, c’est normal. Mais toi qui le gobe sans vérifier, ça c’est un problème qu’on peut régler.

Publications similaires