C’est quoi un modèle de langage? (En 3 minutes)
Tu entends « modèle de langage » partout. GPT-4, Claude, Llama, Gemini — c’est tous des modèles de langage. Mais c’est quoi exactement?
En 3 minutes, tu vas comprendre. Promis.
Un prédicteur de mots surpuissant
Un modèle de langage, c’est un programme informatique qui fait une seule chose : prédire le prochain mot.
Tu lui donnes « Le Canadien de Montréal a gagné le match » et il prédit que le prochain mot pourrait être « hier », « contre », « grâce ». Il choisit le plus probable et continue. Mot par mot, il construit des phrases, des paragraphes, des pages entières.
C’est l’autocomplete de ton téléphone, mais dopé aux stéroïdes. Ton téléphone prédit un mot. Un modèle de langage prédit des textes entiers.
Comment il sait quoi prédire
On l’a entraîné sur une quantité hallucinante de textes. Des livres, des articles, des forums, des sites web, des documents. Imagine toute la bibliothèque de ton quartier, multipliée par un million.
En lisant tout ça, le modèle a appris les règles non écrites du langage. Pas juste la grammaire — le style, le ton, les associations d’idées, les faits, les opinions. Il a vu tellement de textes qu’il peut en générer des nouveaux qui ressemblent à ce qu’un humain écrirait.
Le mot « modèle » est important. C’est un modèle du langage humain. Une représentation statistique de comment les humains utilisent les mots. Pas une copie du cerveau. Pas de la compréhension. Un modèle.
Pourquoi c’est impressionnant
Ce qui est fou, c’est que juste en prédisant le prochain mot, le modèle développe des capacités qu’on lui a jamais enseignées. Il peut résumer, traduire, expliquer, coder, raisonner (un peu), faire des blagues, écrire de la poésie.
Personne lui a dit comment faire un résumé. Mais il a lu tellement de résumés qu’il sait à quoi ça ressemble. Et il peut en générer un nouveau qui correspond à tes données.
C’est comme un musicien qui a écouté tellement de musique qu’il peut improviser dans n’importe quel style. Il a pas appris les « règles » du jazz consciemment — il les a absorbées par l’exposition.
Les limites que tu dois connaître
Un modèle de langage sait pas ce qui est vrai. Il sait ce qui est probable. C’est une différence énorme. Si le texte le plus probable après « La capitale de l’Australie est » est « Sydney », il va dire Sydney. Même si la bonne réponse est Canberra.
Il a pas accès à Internet en temps réel (sauf si on le connecte exprès). Ses connaissances s’arrêtent à sa date d’entraînement. Il sait pas ce qui s’est passé hier.
Et il invente. Avec assurance. Parce que son travail c’est de produire du texte probable, pas du texte vrai. C’est pour ça que tu dois toujours vérifier les faits importants.
Voilà, tu sais l’essentiel
Un modèle de langage prédit des mots. Il a appris en lisant des milliards de textes. Il est impressionnant mais pas fiable à 100%. Et comprendre ça, c’est la base pour bien utiliser tous ces outils — ChatGPT, Claude, Gemini, ou Sherpa, notre guide IA gratuit en français.
Pour aller plus loin dans la compréhension technique, Laeka Research publie de la recherche accessible sur comment ces modèles fonctionnent et comment les améliorer.