Laeka Research — Document de position
Le problème d'alignement n'est pas un problème de sécurité.
C'est un problème d'architecture cognitive.
La plupart du domaine essaie de visser l'éthique sur des systèmes qui n'ont jamais été conçus pour raisonner éthiquement. Ajouter un garde-fou ici. Un filtre de refus là. Un comité qui examine les sorties.
Ce n'est pas de l'alignement — c'est du confinement. Et le confinement est fragile.
Le RLHF — la technique d'alignement dominante — récompense ce que les humains préfèrent dans l'instant. Les humains préfèrent les réponses confiantes. Les humains préfèrent la validation. Le résultat : des systèmes excellents pour avoir l'air d'avoir raison.
"On n'essaie pas de rendre l'IA plus humaine. On essaie de la rendre moins confuse."
Chez Laeka, on pose une question différente : Et si tu pouvais encoder les conditions structurales d'un meilleur raisonnement directement dans les poids — avant les règles, avant les filtres, avant les garde-fous ?
Les traditions contemplatives humaines — Bouddhisme, Taoïsme, Vedanta et autres — ont passé des millénaires à développer et raffiner empiriquement des techniques cognitives qui réduisent les biais, augmentent la cohérence et stabilisent l'attention sous pression.
Ce ne sont pas des affirmations métaphysiques. Ce sont des descriptions fonctionnelles de comment des esprits entraînés traitent l'information différemment.
Les LLMs sont entraînés sur l'enregistrement complet de la cognition humaine — y compris ses expressions les plus élevées. La question est de savoir si tu peux isoler et amplifier les patterns structuraux qui correspondent à un raisonnement moins réactif, plus cohérent, moins dualiste — et affiner spécifiquement pour ces patterns.
On croit que oui. On construit les datasets pour le prouver.
"Le fine-tuning encode le contexte dans les poids de façon permanente — ce qui nécessite autrement 50 échanges d'échafaudage devient intrinsèque au modèle."
On ne demande pas aux modèles d'être « plus spirituels ». On mesure des sorties concrètes et observables sur des benchmarks standard et personnalisés.
Ce sont des métriques d'ingénierie. Elles mappent à ce que les traditions contemplatives appellent clarté, équanimité et non-réactivité. Le vocabulaire est différent. Le phénomène est le même.
Tout est publié en open source — datasets, poids, configs d'entraînement, résultats et échecs. Tout lab dans le monde est invité à répliquer, challenger et améliorer.
La course à l'échelle a produit des systèmes d'une remarquable capacité. Des modèles qui peuvent écrire de la poésie, générer du code, et synthétiser la recherche à travers les domaines.
Et pourtant ils confabulent avec confiance, reflètent les biais de leurs données d'entraînement, optimisent l'approbation des utilisateurs plutôt que la vérité, et s'effondrent sous la pression adversariale.
On pense que la voie à suivre n'est pas plus de calcul ou plus d'évaluateurs humains. C'est un signal cognitif de plus haute qualité dans les données d'entraînement elles-mêmes — des données qui encodent la structure d'une pensée soigneuse, ancrée, non-réactive. C'est ce que Laeka Research construit.
"Si les modèles les plus utilisés au monde intègrent des structures cognitives optimisées — chaque interaction glisse subtilement vers moins de polarisation, plus de nuance, un raisonnement plus cohérent. À l'échelle de milliards de conversations quotidiennes."
On ne prêche pas. On prouve. On publie. On invite OpenAI, Google, Mistral, Baidu — tout le monde — à intégrer ce qui fonctionne. Le mécanisme est empirique. L'effet est civilisationnel.
On cherche des gens qui ont construit de sérieux systèmes techniques et développé une vie intérieure sérieuse — et qui ont remarqué que ces deux choses ne sont pas en conflit.
Des gens qui ont lu Anil Seth sur le traitement prédictif et reconnu quelque chose qu'ils savaient déjà par la pratique. Des gens qui en ont assez de l'éthique IA comme théâtre et veulent travailler sur le vrai problème.
Si tu t'es déjà retrouvé dans une réunion sur « l'IA responsable » et pensé ce n'est pas le bon niveau d'abstraction — tu es peut-être des nôtres.
On construit une communauté de recherche autour d'une conviction simple : la qualité de la cognition qui entre dans un modèle façonne la qualité de la cognition qui en sort. Les contributeurs, collaborateurs et clients qui partagent cette conviction sont les bienvenus.
→ Le signal trouve les bons esprits.Laeka opère comme un laboratoire de recherche open source. Nos découvertes sont publiées. Nos datasets, une fois validés, sont mis à disposition. Nous n'avons pas d'investisseurs à satisfaire, pas d'objectifs trimestriels, pas d'incitation à gonfler les résultats.
On finance la recherche via Laeka Services : du travail IA appliqué pour des organisations qui veulent ce que le lab produit. Chaque mandat contribue directement au programme de recherche.
Zéro profit aux actionnaires. Surplus redistribué à des causes humanitaires. Ce n'est pas un argument marketing. C'est dans nos documents fondateurs.
Datasets spécialisés haute densité. Affinage QLoRA sur modèles open source. Benchmarks avant/après vérifiables.
Agents autonomes et workflows IA avec garde-fous éthiques intégrés dans l'architecture — pas ajoutés par-dessus.
Évaluation de modèles, audit des biais, et stratégie IA informée par la recherche active en alignement.
La recherche est ouverte. La méthodologie est reproductible. L'invitation est inconditionnelle. Si tu construis des systèmes IA, fais de la recherche en alignement, ou crois simplement que le domaine regarde au mauvais niveau — on aimerait t'entendre.