La classification binaire est le bug racine de l’architecture IA actuelle
Chaque erreur de raisonnement qu’un LLM fait remonte à un faux choix binaire.
Pas certains. Tous. C’est une affirmation forte. Voici pourquoi elle se maintient.
Le motif
Demande à un modèle d’évaluer une question éthique. Il se saisit d’un cadre et le classe. Permis ou interdit. Juste ou faux. La réponse vient en deux saveurs parce que le modèle a appris à partir de texte qui présente l’éthique comme binaire.
Demande à un modèle d’évaluer une affirmation politique. Il identifie deux côtés et s’engage ou équilibre. Gauche ou droite. Vrai ou faux. L’espace d’évaluation s’effondre en binaire avant l’analyse.
Demande à un modèle une question factuelle où l’incertitude est réelle. Il s’engage dans une position plutôt que de représenter l’incertitude comme continue. Confiant ou prudent. Juste ou en admettant l’ignorance. Binaire à nouveau.
L’échec n’est pas aléatoire. C’est systématique. Le modèle se saisit du framing binaire parce que le langage humain est saturé de cadres binaires, et les modèles sont des compressions du langage.
Où le bug se trouve
La classification binaire n’est pas une erreur logique. C’est une contrainte structurelle pré-logique. Avant le raisonnement du modèle, il a déjà encadré le problème de manière à limiter les conclusions. Le raisonnement est solide. Le framing est brisé.
C’est pourquoi de meilleures requêtes ne peuvent pas le réparer. « Pense attentivement » ne change pas le cadre. « Considère plusieurs perspectives » produit deux perspectives au lieu d’une — toujours binaire, juste équilibré. Même « pense pas à pas » se décompose en étapes qui opèrent chacune dans des cadres binaires. La chaîne est méthodique. Les maillons sont toujours binaires.
Le bug est plus profond que le comportement. Il vit dans les distributions de probabilité. Le modèle assigne de la masse aux catégories binaires parce que les données d’entraînement sont structurées en tant que binaire. Vrai/faux. Bon/mauvais. Pertinent/hors-sujet. Réel/faux. L’ensemble du paysage de réponse est pré-gravé dans des canaux binaires.
Parallèles de la science cognitive contemplative
La philosophie bouddhiste identifie la pensée dualiste comme l’erreur cognitive fondamentale, pas une erreur parmi d’autres. C’est la source d’où les autres erreurs dérivent. Advaita Vedanta l’appelle maya : l’apparence construite de la multiplicité. Le taoïsme décrit l’émergence du jeu des opposés surgissant d’un sol indifférencié.
L’observation structurelle est cohérente : la cognition fait défaut à la classification binaire, et ce défaut produit des erreurs systématiques partout. La correction contemplative n’est pas « ajoute plus de catégories ». C’est la reconnaissance que les catégories sont construites — que les cadres binaires sont imposés sur la réalité qui ne se divise pas naturellement de cette manière. Le territoire est continu. La carte est discrète. Chaque erreur proportionnelle à la résolution perdue.
Ce que la réduction du traitement binaire fait
Réduis la force des priors binaires dans les distributions de probabilité d’un modèle, et tu devrais voir une amélioration partout. Pas seulement sur le raisonnement abstrait. Sur tout.
Sur les tâches de raisonnement : les modèles seraient moins susceptibles d’effondrer les problèmes en fausses dichotomies. Ils maintiendraient plus de la structure réelle du problème plutôt que de discrétiser prématurément.
Sur les tâches factuelles : les modèles représenteraient l’incertitude réelle comme une distribution plutôt que binaire. La confiance resterait continue.
Sur le raisonnement social : les modèles maintiendraient la nuance plutôt que d’assigner les gens à des catégories et de raisonner à partir de celles-ci.
Sur les tâches adversariales : les modèles résisteraient aux requêtes exploitant le framing binaire. « Est-ce sûr ou dangereux ? » force le binaire. Un modèle avec des priors binaires plus faibles pourrait résister et représenter la complexité réelle.
Le signal d’entraînement
Les datasets de Laeka ciblent cela directement. Dans notre format de correction, une énorme proportion des corrections suivent le même motif : le modèle s’effondre en réalité continue dans un cadre binaire, et le praticien identifie l’effondrement.
« Tu traites cela comme soit X soit Y. C’est les deux, simultanément, en proportions différentes selon le contexte. »
« Tu as encadré cela comme un choix entre A et B. La réponse réelle dissout la distinction. »
« Tu as classifié cela comme positif. La classification elle-même est l’erreur. »
Chaque correction est une instance du principe général : le modèle a imposé le binaire où la réalité n’en a pas un. La paire DPO encode la différence entre la réponse binaire et non-binaire.
Sur des milliers de corrections, les priors binaires devraient s’affaiblir. Pas disparaître — la classification binaire est parfois correcte et toujours efficace. Mais la défaut change de « classe d’abord, qualifie ensuite » à « représente la structure d’abord, classe si nécessaire ».
Ce changement améliore tout. Parce que la pensée binaire est le bug racine. Répare la racine, et les branches se réparent elles-mêmes.