Aller au contenu

LÆKA

  • ProtocoleDéplier
    • Monade
    • Symbiote
    • Architect
    • Empath
  • ProduitsDéplier
    • Seahorse
    • Artefact
    • Cognitive Engine
    • Starpod
    • Hibou
    • Sherpa
  • Académie
  • RechercheDéplier
    • Publications
    • Blog
  • À proposDéplier
    • Laeka
    • Manifeste
CONTACT
LÆKA
  • Le problème du suraliignement : quand la sécurité rend les modèles inutiles
    Sécurité et éthique IA

    Le problème du suraliignement : quand la sécurité rend les modèles inutiles

    La sécurité est importante. Mais il y a un mode de défaillance dont personne ne parle : le suralignement. Les modèles tellement contraints qu’ils refusent les demandes légitimes. « Je ne peux pas t’aider…

  • Le compromis qualité-quantité : 500 bonnes paires battent 50 000 mauvaises
    Datasets et curation

    Le compromis qualité-quantité : 500 bonnes paires battent 50 000 mauvaises

    Il y a une pression pour construire de grands datasets. 100k paires. 500k paires. « Plus de données c’est toujours mieux », la pensée va. C’est faux. La recherche de Laeka montre un motif…

  • Le phénomène de fusion de modèles : combiner les capacités sans entraînement
    Architecture IA

    Le phénomène de fusion de modèles : combiner les capacités sans entraînement

    Et si tu pouvais combiner les forces de deux modèles sans réentraîner ? Créer un modèle qui écrit du code comme le Modèle A mais raisonne comme le Modèle B ? C’est le fusion…

  • Comment construire un dataset DPO à partir de zéro : un guide pratique
    DPO et alignement

    Comment construire un dataset DPO à partir de zéro : un guide pratique

    Construire un dataset DPO à partir de zéro est un travail méthodique. Cela prend de la planification, de la discipline et de l’itération. Ce guide traverse chaque étape, de la définition au déploiement. Phase…

  • Entraînement sans règles explicites : quand les modèles apprennent l’alignement par la structure
    DPO et alignement

    Entraînement sans règles explicites : quand les modèles apprennent l’alignement par la structure

    Le problème de l’alignement est généralement encadré comme un problème de suivi de règles. Ne dis pas de choses nuisibles. N’hallucine pas. Ne discrimine pas. Les règles fonctionnent dans les domaines contrôlés. Mais elles…

  • L’humain dans RLHF est le maillon le plus faible. Remplace-le par la structure.
    DPO et alignement

    L’humain dans RLHF est le maillon le plus faible. Remplace-le par la structure.

    RLHF fonctionne parce que les humains fournissent des jugements. Mais les humains sont la partie la plus faible du pipeline. Ils sont fatigués, biaisés, inconsistants et chers. Pouvons-nous remplacer le jugement humain par la…

  • QLoRA : la révolution quantifiée du fine-tuning accessible
    Fine-tuning

    QLoRA : la révolution quantifiée du fine-tuning accessible

    QLoRA combine deux techniques transformatrice : la quantification et l’adaptation de rang faible. Le résultat est la méthode de fine-tuning la plus accessible jamais créée. Tu peux fine-tuner un modèle de 70B paramètres sur…

  • Pourquoi la plupart des datasets DPO sont de la poubelle (et comment corriger le vôtre)
    DPO et alignement

    Pourquoi la plupart des datasets DPO sont de la poubelle (et comment corriger le vôtre)

    DPO est puissant. Mais la plupart des datasets expédiés pour entraîner les modèles sont bruyants, biaisés et inconsistants. Cela ruine l’entraînement. Comprendre les modes de défaillance est la première étape pour les corriger. Problème…

  • Comment générer 1 000 paires DPO qui améliorent réellement ton modèle
    DPO et alignement

    Comment générer 1 000 paires DPO qui améliorent réellement ton modèle

    La qualité plutôt que la quantité est un cliché parce que c’est vrai. Mais tu as toujours besoin de quantité. Le défi est de générer 1 000 paires DPO sans introduire du bruit qui…

  • Le Correction Triangle : un nouveau format de données DPO pour l’IA intégrée cognitivement
    DPO et alignement

    Le Correction Triangle : un nouveau format de données DPO pour l’IA intégrée cognitivement

    La plupart des datasets DPO sont des paires : requête + bonne réponse vs mauvaise réponse. C’est de la pensée binaire. Laeka propose le Correction Triangle : requête + réponse défectueuse AVEC DIAGNOSTIC +…

Navigation de page

Page précédentePrécédent 1 … 5 6 7 8 9 … 12 Page suivanteSuivante

© 2026 LÆKA — Open Source Intelligence Lab

  • Protocole
    • Monade
    • Symbiote
    • Architect
    • Empath
  • Produits
    • Seahorse
    • Artefact
    • Cognitive Engine
    • Starpod
    • Hibou
    • Sherpa
  • Académie
  • Recherche
    • Publications
    • Blog
  • À propos
    • Laeka
    • Manifeste