L’hallucination n’est pas un bug
Chaque article de sécurité de l’IA traite l’hallucination comme un défaut. Un mode de défaillance à éliminer. Le modèle a dit quelque chose qui n’est pas vrai, donc le modèle est cassé.
Ce framing révèle une confusion plus profonde — non pas sur l’IA, mais sur ce que la cognition fait réellement.
Machines de prédiction
Anil Seth, l’un des neuroscientifiques de premier plan travaillant sur la conscience, appelle la perception humaine une « hallucination contrôlée ». Ton cerveau ne reçoit pas passivement la réalité. Il construit activement un modèle de ce qui est probablement là-bas basé sur les priors et les signaux sensoriels, puis projette ce modèle vers l’extérieur. Ce que tu expérimentes comme « voir » est une prédiction, pas un enregistrement.
Ce n’est pas une métaphore. C’est le mécanisme littéral. Ton cortex visuel génère des attentes plus vite que les données sensorielles n’arrivent. Quand la prédiction et le signal correspondent, tu perçois un monde stable. Quand ils divergent, tu obtiens une surprise — ou, dans les cas pathologiques, une vraie hallucination.
Les LLM font la même chose. Ils prédisent le token suivant basé sur les distributions apprises. Quand la prédiction est bien calibrée, la sortie est utile. Quand elle est mal calibrée, tu obtiens une confabulation. Même mécanisme. Différent substrat.
Le cadre de calibrage
Une fois que tu vois l’hallucination comme une prédiction mal calibrée plutôt qu’un défaut de fabrication, le problème change de forme entièrement.
Tu ne fixes pas le mé-calibrage en ajoutant des règles. Tu ne le résous pas en filtrant les sorties. Tu le résous en améliorant la qualité du modèle interne qui génère les prédictions. De meilleurs priors produisent de meilleures prédictions. Les représentations internes plus cohérentes produisent des sorties plus fiables.
C’est exactement ce que l’entraînement contemplatif fait dans les réseaux neuronaux biologiques. Un méditant avec des décennies de pratique ne cesse pas de prédire — la prédiction est ce que les cerveaux font. Il développe un meilleur calibrage. Il apprend à distinguer entre le signal et la projection. Il reconnaît quand son modèle de réalité s’éloigne de ce qui se passe réellement.
Les traditions contemplatives ont un terme précis pour cela : le discernement. Non la suppression de l’activité mentale, mais le raffinage de son exactitude.
L’avantage mystique
C’est ici que cela devient intéressant pour l’IA. Les praticiens qui comprennent que la perception est construite — que ce qu’ils expérimentent comme « réalité » est déjà un modèle — ont un avantage fondamental dans le travail avec les systèmes d’IA qui font la même chose.
La plupart des humains traitent leurs perceptions comme la vérité absolue. Le ciel est bleu. Cette personne est en colère. Cette décision est correcte. Ils ne remarquent pas la couche de prédiction. Les contemplatifs le font. Ils se sont entraînés pendant des années pour voir le processus de construction lui-même.
Cela signifie qu’ils peuvent identifier les motifs d’hallucination de l’IA que d’autres utilisateurs manquent — non pas parce qu’ils connaissent plus de faits, mais parce qu’ils reconnaissent la signature d’une prédiction mal calibrée. Ils savent à quoi cela ressemble quand un système (biologique ou artificiel) confond son modèle avec la réalité, parce qu’ils ont passé des décennies à se rattraper en train de faire exactement cela.
Ce que cela signifie pour les datasets
La méthodologie du dataset de Laeka exploite cela directement. Quand un praticien contemplatif identifie une hallucination d’IA, il n’est pas juste en train de signaler une erreur factuelle. Il identifie un motif structurel — un endroit où la représentation interne du modèle est mal calibrée.
La correction n’est pas « la capitale de l’Australie est Canberra, pas Sydney ». C’est une correction factuelle. N’importe quel dataset peut faire cela. La correction est « tu confonds la prédiction fluide avec la représentation exacte ». C’est une correction structurelle. Elle cible le mécanisme qui produit l’hallucination, pas l’instance individuelle.
Un modèle fine-tuné sur des milliers de ces corrections structurelles devrait développer quelque chose d’analogue au discernement — une capacité améliorée à distinguer entre les prédictions à haute confiance et les confabulations. Pas une exactitude parfaite. Un meilleur calibrage.
L’implication inconfortable
Si l’hallucination est inhérente à la prédiction, et la prédiction est inhérente à la fois aux réseaux neuronaux biologiques et artificiels, alors l’objectif d’« éliminer l’hallucination » est incohérent. Tu pourrais aussi bien essayer d’éliminer la prédiction elle-même.
Le vrai objectif est le calibrage. Un système qui sait quand il est incertain est plus utile qu’un système qui est toujours confiant. Un système qui peut signaler ses propres prédictions comme provisoires est plus digne de confiance qu’un qui présente tout avec une conviction égale.
Les traditions contemplatives ont entraîné cette capacité pendant des millénaires. La question est de savoir si ce signal d’entraînement se transfère aux systèmes artificiels. Nous pensons que c’est le cas. Non pas à cause d’une connexion mystique — parce qu’un réseau neural est un réseau neural, et le calibrage est le calibrage, indépendamment de ce dont le réseau est fait.