Apprentissage fédéré : entraîner des modèles sans partager les données
Le paradoxe de la vie privée de l’IA Le machine learning a un problème de données, et ce n’est pas ce que tu penses. Le problème n’est pas qu’il n’y ait pas assez de…
Le paradoxe de la vie privée de l’IA Le machine learning a un problème de données, et ce n’est pas ce que tu penses. Le problème n’est pas qu’il n’y ait pas assez de…
La sécurité de l’IA a un angle mort. Elle est construite presque entièrement sur la philosophie analytique, la théorie de la décision, et les mathématiques formelles. Ce sont des outils puissants. Mais ils partagent…
Chaque grand lab d’IA fait la course pour éliminer les hallucinations. Ils ont tort. Pas sur le problème — sur ce que les hallucinations réellement sont. L’hallucination est juste la créativité sans laisse Quand…
L’éthique de l’IA repose sur les règles. Ne génère pas de contenu violent. Ne révèle pas d’informations personnelles. Ne discrimine pas. Le problème : l’éthique basée sur les règles ne s’échelonne pas aux situations…
L’industrie IA se réorganise plus vite que quiconque l’avait prédit. Les entreprises qui ont dominé il y a deux ans peinent. Les startups que personne n’avait entendues sont soudainement évaluées à des milliards. La…
MMLU est saturé. HumanEval est contaminé. La plupart des benchmarks populaires sont devenus des objectifs d’optimisation plutôt que des outils de mesure. Quand le benchmark devient l’objectif, il cesse de mesurer ce qu’il était…
Nous avons d’excellents benchmarks pour la connaissance. MMLU teste la connaissance générale dans les domaines. Arc teste le raisonnement. HellaSwag teste le sens commun. Mais nous n’avons pas de bons benchmarks pour l’empathie, la…
Les benchmarks actuels mesurent la vitesse, la précision, les scores de benchmark. Ils ne mesurent pas ce qui compte vraiment : la nuance, la capacité à tenir des perspectives concurrentes, la cohérence structurelle du…
La sécurité est importante. Mais il y a un mode de défaillance dont personne ne parle : le suralignement. Les modèles tellement contraints qu’ils refusent les demandes légitimes. « Je ne peux pas t’aider…
Chaque article de sécurité de l’IA traite l’hallucination comme un défaut. Un mode de défaillance à éliminer. Le modèle a dit quelque chose qui n’est pas vrai, donc le modèle est cassé. Ce framing…