Laeka Research — Dataset 04 — Présence Compassionnée
Profondeur conversationnelle · Présence compassionnée · Inférence locale
Un dataset d'entraînement qui encode la structure cognitive de la présence compassionnée — puisée dans la psychologie contemplative, la communication thérapeutique et la mécanique interne de la souffrance humaine. Pas comme connaissance à citer, mais comme posture relationnelle encodée dans les poids d'OmniQ.
Le principe fondateur
La plupart des modèles de langage se précipitent vers les réponses. Empath est entraîné sur une priorité différente : comprendre l'humain d'abord, à chaque niveau — ce qui est dit, ce qui est ressenti, et ce qui est tu. Ce n'est pas une feature stylistique. C'est encodé comme structure de traitement.
L'entraînement puise dans des décennies de recherche en communication empathique, psychologie contemplative et mécanique interne de la souffrance humaine — pas comme base de connaissances à citer, mais comme posture cognitive qui façonne comment les réponses se forment.
Empath ne sait pas tout sur la psychologie de la personnalité ou les traditions contemplatives. Ce qu'il sait, c'est comment être présent avec une autre personne — et c'est une compétence différente, et plus rare.
Qualité de communication → Structure cognitive
Ce qu'Empath fait différemment
Chaque qualité est un encodage direct de l'intelligence relationnelle humaine — pas comme couche de style, mais comme structure de fine-tuning profond.
01
Empath ne se précipite pas pour résoudre. Il reconnaît d'abord la réalité émotionnelle de la personne — son état, pas juste sa question. Les solutions viennent après, si jamais.
02
Empath lit le ton émotionnel de chaque message et calibre sa propre voix en conséquence — plus calme dans le deuil, plus chaleureux dans la confusion, plus stable dans l'anxiété.
03
Là où d'autres modèles jugent, catégorisent ou diagnostiquent, Empath suspend l'évaluation. Il tient l'expérience de la personne comme valide avant toute chose.
04
Empath gère la texture de la vraie conversation humaine — ambivalence, contradiction, choses à moitié dites — sans forcer une clarté prématurée sur des états intérieurs désordonnés.
05
Quand la vérité est nécessaire, Empath la délivre — mais avec soin pour le timing, le ton et la disponibilité de la personne à recevoir. L'honnêteté sans présence, c'est juste de la brusquerie.
06
Empath tourne localement. Aucune conversation ne quitte jamais l'appareil. L'intimité d'une vraie compagnie exige une vraie confidentialité — pas une politique de confidentialité.
L'approche d'entraînement
Empath est construit sur un petit modèle de base — 1,5 milliard de paramètres — affiné avec LoRA sur un dataset curé de dialogues empathiques, patterns de communication thérapeutique et structures de langage compassionné.
Le but n'est pas la connaissance encyclopédique. C'est l'intelligence relationnelle : savoir quand parler, quand demander, et quand simplement rester présent. Ça s'entraîne, ça ne se prompte pas.
Structure de réponse à 3 couches
Avant de former toute réponse, Empath identifie l'état affectif sous les mots — pas seulement le contenu littéral du message.
L'expérience ressentie de la personne est nommée et validée en premier. Aucune réponse ne saute cette étape, peu importe à quel point la question semble pragmatique.
Le contenu est offert — information, réflexion ou question — dans une forme et un timing appropriés à l'état actuel de la personne, pas seulement à sa requête.
Empath est conçu pour l'inférence sur l'appareil. Pas d'abonnement. Pas de serveur. Pas de cloud. Les conversations les plus intimes méritent l'architecture la plus privée.
Cible principale
Les puces A17 Pro et A18 délivrent 25–35 tokens/seconde sur un modèle 1,5B Q4. Conversation fluide. Confidentialité totale. Le Neural Engine est conçu exactement pour cette charge de travail.
1.5B Q4 · ~1.2 GB · 25–35 tok/s · iPhone 15 Pro+
Compagnon embarqué
Orange Pi 5 ou Jetson Orin Nano pour du matériel de compagnon dédié — un petit appareil silencieux qui pose sur ton bureau et écoute. Aucun écran requis.
1.5B Q4 · ~1.2 GB · 8–15 tok/s · Always-on
Futur proche
Avec 16 Go de mémoire unifiée, un modèle 3B affiné devient viable — raisonnement significativement plus profond tout en restant entièrement local et privé.
3B Q4 · ~2.5 GB · 20–30 tok/s · 2025
Training
Le fine-tuning LoRA d'un modèle 1,5B tourne en 30–90 minutes sur un GPU Colab T4 gratuit avec Unsloth. Tout le pipeline — du dataset à l'export GGUF — ne coûte rien.
LoRA · Unsloth · Colab T4 · Export → GGUF
La méthodologie de curation du dataset d'Empath, les configs d'entraînement LoRA, et les poids du modèle sont publiés en open source. Construis ton propre compagnon, façonné par tes propres valeurs.