Note conceptuelle pour un essai qui démonte la finance moderne comme une arnaque statistique, en s’appuyant sur les modèles de langage, la théorie de l’information et le chaos pour montrer que la plupart des « alpha » et des prédictions d’experts ne se distinguent pas du bruit.
La preuve scientifique de l’arnaque
Pendant des décennies, la finance a entretenu le mythe d’une prédiction maîtrisable des marchés. Derrière les graphiques sophistiqués, les modèles statistiques et les discours experts, une réalité plus inconfortable apparaît : une grande partie de ce que l’on présente comme de la « science » n’est, au mieux, qu’une ingénierie de probabilité appliquée à des systèmes fondamentalement chaotiques.
Les modèles d’IA modernes, et en particulier les LLM (Large Language Models), offrent un miroir fascinant pour comprendre cette illusion. Ils révèlent jusqu’où peut aller la modélisation… et où elle atteint ses limites.
1. Les LLM : des fonctions déterministes habillées de hasard
À première vue, un LLM semble mystérieux, presque magique. Pourtant, mathématiquement, il n’a rien de mystique : c’est une fonction déterministe. Donnez‑lui le même input, avec les mêmes paramètres et le même état interne, et il produira toujours les mêmes logits – ces scores bruts avant la conversion en probabilités.
Là où le hasard apparaît, ce n’est pas dans le réseau lui‑même, mais dans l’étape de génération :
- Le réseau calcule des logits de manière parfaitement déterministe.
- Une fonction softmax transforme ces logits en une distribution de probabilités sur les prochains tokens possibles.
- Un échantillonnage (sampling) pioche un token dans cette distribution.
Si l’on fixe une graine aléatoire ou que l’on prend toujours le token le plus probable (température = 0, greedy decoding), on obtient un comportement strictement déterministe. Autrement dit : l’« aléatoire » est un choix de design, pas une propriété intrinsèque du modèle.
Cette distinction est cruciale pour la finance : comme en gestion de portefeuille, un même modèle peut être exploité de façon très conservatrice ou très exploratoire selon la quantité de hasard qu’on laisse entrer dans le système.
2. Softmax : un vieux concept pour un monde nouveau
On pourrait croire que softmax est une invention récente née avec l’IA moderne. En réalité, il s’agit d’un habillage moderne d’une idée du XIXe siècle : la distribution de Boltzmann.
- Historiquement :
- 1868 : Ludwig Boltzmann formalise une loi qui décrit la probabilité pour un système physique d’occuper un certain état d’énergie.
- Début XXe siècle : Gibbs et d’autres généralisent ces idées.
- Années 1940–1950 : on invente les méthodes de Monte Carlo.
- 1989 : John Bridle popularise le terme softmax en apprentissage automatique.
- Softmax prend une liste de scores réels (les logits), applique l’exponentielle, puis normalise le tout pour obtenir une distribution de probabilités. Ce n’est pas un gadget :
- cela garantit des probabilités positives et normalisées ;
- cela amplifie les petites différences de score ;
- cela s’inscrit dans un cadre profond de maximisation d’entropie sous contraintes, commun à la physique statistique et à la théorie de l’information.
- Le paramètre de température vient directement de la thermodynamique :
- température basse → distribution très concentrée (une issue domine) ;
- température élevée → distribution plus uniforme (plus d’incertitude).
Les LLM n’inventent donc pas une nouvelle loi du monde : ils exploitent une vieille loi qui décrit comment l’énergie (ou l’information) se distribue dans des systèmes complexes. Ce qui a changé, ce n’est pas la formule, c’est l’échelle : internet, les GPU, des milliards de paramètres.
3. Quand la « science » rencontre les marchés : les limites de la causalité
Une fois qu’on accepte que les modèles sont déterministes mais exploités de façon probabiliste, une autre question surgit : jusqu’où peut‑on vraiment faire de la science sur un système comme un marché financier ?
C’est là que l’économétrie et ses outils — comme les variables instrumentales — montrent leurs limites.
- En théorie, un bon instrument permettrait de corriger les biais d’endogénéité en isolant une source de variation « exogène ». En pratique :
- l’hypothèse clé (l’instrument n’agit sur le résultat que via la variable d’intérêt) est invérifiable sur les données ;
- dans un système où « tout est lié à tout », croire qu’une variable ne touche pas le résultat par un autre canal relève souvent du conte de fées ;
- les instruments faibles produisent des estimations instables, parfois pires que l’absence de correction.
Même lorsque les conditions semblent réunies, on identifie souvent un effet local (LATE) sur une sous‑population particulière, pas une loi universelle. Sur le papier, on fait de la « science » ; dans la réalité, on travaille sur un échafaudage d’hypothèses fragiles.
4. Quant vs gestion traditionnelle : même combat, mêmes illusions
On pourrait espérer que les modèles quantitatifs modernes, dopés à l’IA, sortent enfin la finance de cette zone grise.
- Les faits sont moins flatteurs :
- La majorité des fonds actifs traditionnels sous‑performent leurs indices sur le long terme.
- Les fonds quantitatifs, malgré leur sophistication, ne montrent pas non plus une surperformance durable systématique.
- Ceux qui brillent pendant quelques années finissent souvent par rejoindre la moyenne, voire par sous‑performer.
Deux explications coexistent :
- Certains gérants et équipes quants sont réellement meilleurs… mais leur avantage est temporaire, car le marché apprend, copie, s’adapte.
- Dans un univers avec des milliers de fonds, quelques trajectoires exceptionnelles sont statistiquement inévitables, même si tout le monde joue à pile ou face.
Au niveau agrégé, qu’on remplace les humains par des modèles ou l’inverse, la même loi semble se vérifier : > Il est extraordinairement difficile de battre durablement un marché auquel on participe soi‑même.
5. Le problème à trois corps : pourquoi la prédiction est structurellement impossible
Pour comprendre pourquoi cette difficulté est plus qu’un simple « manque de talent », il suffit de regarder du côté de la physique : le problème à trois corps.
- Avec deux corps en interaction (par exemple une planète et son étoile), on peut écrire des équations exactes pour décrire le mouvement. Avec trois corps, le système devient chaotique :
- petites différences dans les conditions initiales → trajectoires radicalement différentes à long terme ;
- pas de solution générale fermée ;
- seule option : des simulations numériques, utiles à court terme mais rapidement imprévisibles.
- Les marchés financiers ressemblent beaucoup plus à un système à des millions de corps qu’à un système à deux corps :
- innombrables acteurs humains et algorithmiques,
- règles du jeu qui changent (régulation, technologies, produits),
- boucles de rétroaction permanentes (les prix influencent les décisions, qui influencent les prix).
Dans un tel univers, chercher une loi simple et stable pour « prédire » l’avenir des prix, c’est un peu comme demander une équation fermée pour tous les systèmes gravitationnels possibles : la demande elle‑même est mal posée.
6. Alors, pourquoi paie‑t‑on encore si cher pour ça ?
Si la prédiction parfaite est impossible, pourquoi continuons‑nous à rémunérer grassement des armées de gérants, de quants et de stratèges pour tenter de la réaliser ?
- Quelques raisons humaines et politiques :
- Nous avons horreur de l’idée que personne ne contrôle réellement le système.
- Nous préférons un récit de compétence (« ce fonds sait ce qu’il fait ») à un récit de hasard (« nous sommes tous dans le même chaos »).
- Les incitations économiques de l’industrie sont alignées sur la vente de l’illusion de maîtrise, pas sur la reconnaissance des limites structurelles.
Ce n’est pas un complot, mais une économie de la consolation : on paye pour réduire notre angoisse face à l’incertitude, autant que pour espérer un rendement supérieur.
7. Ce que les LLM révèlent vraiment
- Les LLM ne sont pas des oracles infaillibles ; ils sont des machines à exploiter des régularités dans des données passées, avec une couche d’aléatoire contrôlé pour éviter la monotonie. À ce titre, ils ressemblent beaucoup à la finance quantitative :
- mêmes briques mathématiques (probabilités, entropie, optimisation) ;
- même puissance à décrire et à simuler ;
- mêmes limites dès qu’il s’agit de faire de la causalité pure ou de la prédiction infaillible dans un système chaotique.
La « preuve scientifique de l’arnaque » n’est pas que tout serait volontairement frauduleux. Elle est plus subtile, et plus dérangeante :
> Nous avons habillé d’un vernis scientifique des pratiques qui reposent, en dernière analyse, sur des systèmes trop complexes pour être prédits de façon fiable.
Les modèles, qu’ils soient statistiques, économétriques ou neuronaux, sont des outils puissants de compréhension locale. Mais lorsqu’on les vend comme des machines à transformer le chaos en certitude, l’arnaque commence — même si tout le monde est, au départ, de bonne foi.
- La vraie décence, en finance comme en IA, commence peut‑être ici :
- reconnaître les limites structurelles de nos modèles ;
- utiliser la puissance de calcul pour éclairer l’incertitude, pas pour la nier ;
- accepter que dans un univers à « N corps », une grande partie de ce qui compte restera, quoi qu’on fasse, fondamentalement imprévisible.