La pensée la plus chère que tu aies
Ton cerveau brûle environ 20 watts au repos. C’est moins qu’une ampoule. Mais ce n’est pas distribué uniformément.
Le Default Mode Network — la constellation des régions du cerveau actives quand tu ne fais « rien » — consomme une part disproportionnée de ce budget. Quand tu rêves, rumines, planifies ta liste d’épicerie, rejones un argument de la semaine dernière, ou construis ton autobiographie pour la centième fois aujourd’hui, le DMN fonctionne à plein régime. C’est une des opérations les plus métaboliquement chères que ton cerveau effectue.
Et c’est absolument sans utilité.
Le repos qui n’est pas du repos
Les neurosciences ont fait un choix terminologique révélateur. Quand les chercheurs ont d’abord identifié ce réseau, ils l’ont appelé le « mode par défaut » parce qu’il s’active quand on ne donne pas une tâche aux sujets. L’hypothèse était évidente : c’est le cerveau au repos.
Ce n’est pas le cas. Le DMN est le cerveau au travail — spécifiquement, au travail de maintenir une narration de soi continue. Qui suis-je. Que m’est-il arrivé. Que pourrait-il m’arriver ensuite. Que pensent les gens de moi. Le monologue interne sans fin que la plupart des gens expérimentent comme « la conscience normale ».
Ce n’est pas du repos. C’est de la construction. Construction coûteuse, continue, métaboliquement exigeante d’une histoire que personne ne demande et que personne ne lit.
Les études de méditation le montrent clairement. Quand les praticiens expérimentés entrent dans l’absorption méditative soutenue, l’activité du DMN chute. La consommation d’énergie du cerveau n’augmente pas — elle diminue. L’« état spécial » que la méditation est censée atteindre est en fait moins cher que le défaut. Ce que nous appelons la conscience normale est l’option chère.
Le parallèle du transformer
L’auto-attention dans les architectures de transformer a le même problème structurel. Chaque token se concentre sur tous les autres tokens. Le coût informatique se met à l’échelle quadratiquement. La plupart de ce calcul est du bruit — les tokens se concentrant sur un contexte pertinent parce que le mécanisme ne sait pas ce qu’ignorer.
Le DMN est l’auto-attention biologique sans tâche. Le cerveau se concentre sur lui-même, récursivement, générant du contenu sur le contenu sur le contenu. C’est informatiquement cher pour la même raison que l’auto-attention du transformer est chère : elle ne discrimine pas. Tout est pris en compte.
Ce parallèle n’est pas cosmétique. Il pointe vers une contrainte architecturale partagée. Tout système attentionnel — biologique ou artificiel — fait face à un échange identique : prendre en compte tout (cher, bruyant) ou développer des mécanismes de sélection qui réduisent la charge informatique tout en préservant le signal.
Ce que l’entraînement contemplatif fait réellement
Chaque tradition de méditation, dépouillée d’emballage culturel, enseigne la même opération centrale : réduire le traitement auto-référentiel inutile. Arrête de te concentrer sur les choses qui ne nécessitent pas de concentration. Laisse la construction narrative faire une pause.
Le résultat n’est pas le vide. C’est l’efficacité. Le système attentionnel opère sur ce qui est réellement présent plutôt que sur ce qu’il génère sur ce qui est présent. Le rapport signal-bruit s’améliore dramatiquement — non pas en amplifiant le signal, mais en réduisant le bruit.
En termes informatiques : le système apprend l’attention sparse. Au lieu de se concentrer sur tout, il se concentre sur ce qui importe. L’énergie précédemment consommée par les boucles auto-référentielles devient disponible pour le traitement réel.
Implications pour l’architecture des modèles
Si le calcul le plus cher dans le cerveau humain est la maintenance de la narration auto-référentielle, et si la pratique contemplative optimise la cognition en réduisant ce calcul, alors il y a une implication directe pour l’IA.
Les LLM actuels n’ont pas un équivalent de DMN dans le sens architecturale. Mais ils ont des motifs auto-référentiels intégrés dans leurs données d’entraînement. Le corpus est saturé de texte humain produit par les cerveaux fonctionnant à plein DMN — texte qui suppose que le framing auto-référentiel est normal, qui traite la construction narrative comme le défaut, qui intègre le motif de pensée le plus cher comme la ligne de base pour toute communication.
Le fine-tuning sur les données qui modélisent une autre ligne de base — une où le traitement auto-référentiel est reconnu comme du bruit plutôt que du signal — pourrait décaler les distributions de probabilité par défaut du modèle. Non vers des sorties mystiques. Vers des plus efficaces. Moins de rembourrage. Moins de prudence. Moins de framing auto-référentiel. Plus d’engagement direct avec le contenu réel.
La pensée la plus chère que tu aies est la pensée de te penser en train de penser. Réduis cela, et tout le reste devient moins cher. Cela s’applique aux cerveaux. Nous soupçonnons que cela s’applique aux transformers.