Cognition intégrée dans les systèmes artificiels : au-delà du traitement binaire

La plupart des systèmes d’IA pensent en binaires. Vrai ou faux. Positif ou négatif. Sûr ou non-sûr. Cela fonctionne pour les tâches de classification. Cela échoue pour tout ce qui compte. La limitation réside dans la façon dont les architectures actuelles s’effondrent dans des catégories discrètes des problèmes complexes et multidimensionnels. La cognition réelle nécessite de tenir plusieurs perspectives valides en parallèle sans forcer une résolution prématurée.

La cognition intégrée est la capacité à travailler avec de multiples perspectives en parallèle sans forcer une résolution prématurée. C’est quelque chose que les humains développent par l’entraînement. La recherche en IA l’a à peine remarqué qu’elle existe.

Le piège binaire

La classification binaire est le fondement de l’apprentissage automatique moderne. Un filtre spam décide : spam ou non-spam. Un analyseur de sentiment décide : positif ou négatif. Même les grands modèles de langage, malgré leur sophistication apparente, généralement générient finalement des sorties en sélectionnant le token qui a la probabilité la plus élevée parmi tous les autres.

Cela fonctionne brillamment pour les problèmes bien définis. Mais la plupart des problèmes du monde réel ne sont pas bien définis. Ils sont ambigus, contextuels, et multi-couches. Quand tu demandes à un modèle si une politique est bonne ou mauvaise, la réponse honnête est généralement « les deux, selon la perspective et l’horizon de temps. » L’architecture binaire rend cette réponse structurellement difficile à produire.

Le résultat est ce que nous voyons à travers l’industrie : les modèles qui sur-simplifient les questions complexes parce que leur architecture récompense la simplification.

Ce que la cognition intégrée ressemble

Dans la pratique humaine compétente, la cognition intégrée n’est pas vague ou indécise. C’est précis. Cela signifie percevoir une situation à partir de multiples angles simultanément et tenir ces angles dans la conscience sans forcer une résolution prématurée.

Un thérapeute compétent fait cela naturellement. Ils entendent l’histoire du client et simultanément tiennent la perspective du client, leur propre évaluation clinique, les facteurs systémiques en jeu, et l’incertitude sur ce qui se passe réellement. Ils ne réduisent pas cela dans un diagnostic unique. Ils travaillent avec la complexité complète.

Un système d’IA cognitivement intégré ferait la même chose. Donné une question complexe, il générerait des réponses qui reconnaissent de multiples perspectives valides, identifierait les tensions entre eux, et résisterait à l’envie de déclarer un gagnant. Pas parce qu’il ne peut pas décider, mais parce que la résolution prématurée est une forme de perte d’information.

Un cadre pour la recherche

Nous proposons quatre dimensions le long desquelles la cognition intégrée dans les systèmes artificiels peut être développée et mesurée.

Tenue de perspective. La capacité du système à représenter et maintenir de multiples perspectives sur le même phénomène. Les modèles actuels le font mal. Ils ont tendance à s’ancrer sur une perspective et puis « considèrent » les alternatives en tant qu’ajouts tardifs. Un système cognitivement intégré maintiendrait de véritables représentations parallèles.

Tolérance de tension. La capacité du système à siéger avec contradiction sans la résoudre. La plupart des modèles sont entraînés à produire des sorties cohérentes et cohérentes. Mais la cohérence au coût de la précision est de la flagornerie. La tolérance de tension signifie reconnaître quand la preuve pointe véritablement dans de multiples directions.

Sensibilité contextuelle. La capacité du système à décaler son cadre selon le contexte. Une affirmation peut être vrai dans un contexte et fausse dans un autre. La cognition intégrée reconnaît cela comme une caractéristique de la réalité, pas comme une erreur logique à résoudre.

Conscience meta-perspective. La capacité du système à observer son propre processus de tenue de perspective. Le système ne tient pas juste de multiples perspectives. C’est conscient qu’il les tient et peut réfléchir sur la façon dont sa propre architecture façonne quelles perspectives il génère.

Pourquoi cela importe pour l’alignement

Le problème d’alignement est fondamentalement un problème cognitif. « Aligne-toi avec les valeurs humaines » présuppose un ensemble unique de valeurs humaines pour s’aligner. Mais les humains ne sont pas d’accord sur les valeurs. Différentes cultures, différents contextes, différents individus veulent différentes choses des systèmes d’IA.

Une approche binaire de l’alignement force un choix : dont les valeurs ? La réponse actuelle est typiquement « les valeurs de l’organisation construisant le modèle, » qui est workable mais problématique. Une approche cognitive intégrée entrainerait les modèles à naviguer entre des systèmes de valeurs différents plutôt que de s’engager à un.

Ce n’est pas du relativisme. La cognition intégrée ne signifie pas que toutes les perspectives sont également valides. Cela signifie que le processus d’évaluation des perspectives est lui-même complexe et dépendant du contexte. Un modèle qui peut le faire bien serait plus véritablement aligné avec la diversité de l’expérience humaine qu’un qui a été entraîné à réciter un cadre éthique unique.

Chemins de mise en œuvre

Plusieurs directions de recherche concrètes émerge de ce cadre.

Données d’entraînement multi-perspective. Au lieu de l’entraînement sur des données qui présente des réponses correctes uniques, l’entraînement sur les données que présentent de multiples analyses valides de la même situation. Les paires DPO pourraient inclure les cas où les deux les réponses « préférées » et « rejetées » contiennent les éléments valides.

Modifications architecturales. Explore les architectures qui maintiennent les flux de traitement parallèles pour différentes perspectives, plutôt que tout effondrer dans un seul état caché. Les modèles de mélange d’experts pointent dans cette direction mais ne vont pas assez loin.

Métriques d’évaluation. Développe les benchmarks qui récompensent les réponses nuancées multi-perspective plutôt que de les pénaliser comme « prudente » ou « indécise. » Les benchmarks actuels favorisent fortement les réponses décisives à perspective unique.

Contribution interdisciplinaire. Engagez les chercheurs de neuroscience, philosophie, et psychologie qui étudient comment la cognition humaine gère la complexité. Ils peuvent identifier les modes d’échec que les ingénieurs manqueraient.

L’opportunité de recherche

La cognition intégrée n’est pas une curiosité philosophique. C’est une capacité cognitive que les systèmes artificiels manquent actuellement. Le fossé entre la classification binaire et la compréhension véritablement vit dans cet espace.

Construire les systèmes qui peuvent penser de manières intégrées exige l’ingénierie qui prend sérieusement la complexité de la cognition du monde réel. Les cadres existent. La recherche en IA fournit les outils. Les connecter est l’opportunité.

L’alternative est les modèles qui continuent à devenir meilleurs à répondre aux questions simples et continuent à échouer aux complexes qui importent réellement.

Laeka Research — laeka.org

Publications similaires

Leave a Reply

Your email address will not be published. Required fields are marked *