+
-

Interview

Le machine learning en finance

Les House of Finance Days 2018 ont consacré une journée au machine learning en finance et à ses différentes applications. L’interview de ses intervenants* permet d’en restituer les principales conclusions et réflexions : Emmanuel Bacry, Directeur de recherche au CNRS attaché à Paris Dauphine et Professeur associé à Polytechnique, Timothée Consigny, Responsable recherche quantitative et développement chez H20 Asset Management, Peter Hafez, Chief Data Scientist chez Ravenpack, Jean-Baptiste Janvier, Data Scientist à la Société Générale, et Charles-Albert Lehalle, Senior Research Advisor chez Capital Fund Management et Visiting Researcher à L’imperial College de Londres.

Le 05/09/2018
Charles-Albert Lehalle | Emmanuel Bacry | Thimothée Consigny | Peter Hafez | Jean-Baptiste Janvier

Antonin Lecomte (A. L.) : Comment utilisez-vous le machine learning dans votre activité ?

Jean-Baptiste Janvier (J.-B. J.) : Les techniques de machine learning nous permettent de qualifier des risques, lever des alertes, et mieux anticiper les aléas. L’enjeu n’est pas de remplacer les modèles actuels qui fonctionnent déjà très bien, mais de décharger les opérationnels de certaines tâches répétitives pour se concentrer sur des tâches à plus forte valeur ajoutée.

A. L. : Comment se décide et s’organise un projet de machine learning dans votre activité ?

J.-B. J. : Il se décide et s’organise autour d’un besoin métier, pour lequel nous évaluons avec les opérationnels ce que pourrait apporter la Data Science, en prenant en compte la valeur ajoutée court terme apportée par la solution, et la valeur ajoutée long terme apportée par la maîtrise d’une technologie particulière. Par exemple les techniques de clustering permettent de créer rapidement des outils répondant à des questions très concrètes, tandis que les techniques de NLP [1] offrent des gains métiers immédiats plus modérés, mais leur maîtrise peut apporter un avantage compétitif sur le long terme. Le projet s’organise entre les équipes métiers, Data Science et IT.

A. L. : Pouvez-vous donner des exemples de projets en analyse du risque ?

J.-B. J. : Nous travaillons actuellement sur des systèmes d’early warning qui mettent en avant des comportements inhabituels ou des éléments d’information considérés comme impactant notre jugement envers une contrepartie ou un facteur de risque. Des feedbacks peuvent être demandés, ce qui permet d’améliorer ces systèmes et ainsi de créer des cercles vertueux d’innovation.
Un autre exemple est l’analyse de portefeuilles par poches de risque en utilisant des méthodes non supervisées.

A. L. : Comment utilisez-vous les méthodes de NLP ?

J.-B. J. : En risque opérationnel, nous avons beaucoup de notes écrites en interne. La classification automatique de ces notes permet d’être très flexible sur les analyses qui sont faites, car la classification peut être définie a posteriori et pas nécessairement au moment de la rédaction comme c’était le cas jusqu’à présent. En risque de marché, l’analyse des news est une activité chronophage, et nous sommes intéressés par des méthodes permettant d’avoir une vue synthétique des news autour d’une contrepartie ou d’un facteur de risque donné.
Enfin, ayant une présence dans 70 pays, les problématiques de traduction et de détection de signaux faibles multi-langues offrent des perspectives intéressantes.

A. L. : Quelles sont les erreurs à ne pas commettre ou les recommandations à donner pour implémenter de tels projets ?

J.-B. J. : Il est important de bien utiliser la valeur ajoutée métier, ce qui permet plus de visibilité et plus de motivation des équipes impliquées et d’anticiper le déploiement, tant du point de vue technique, réglementaire, que du point de vue humain, avec des cercles d’utilisateurs de plus en plus large au fur et à mesure de la maturité du projet.

A. L. : Quels modèles utilisez-vous pour analyser la dynamique du carnet d’ordres ?

Emmanuel Bacry (E. B.) : Nous utilisons des modèles de processus ponctuels et plus particulièrement des modèles de Hawkes.

A. L. : Quel type de base de données utilisez-vous ?

E. B. : Nous avons un historique d’un an de tous les ordres envoyés au carnet d’ordres qui cote le future sur CAC40 sur le marché Euronext. Pour le travail effectué, il est indispensable d’avoir des données dites « labellisées », c’est-à-dire que nous avons, pour chaque ordre, un identifiant (chiffré) indiquant l’agent donneur d’ordre.

A. L. : Quelles sont les différentes classes d’acteurs identifiables avec ces modèles ?

E. B. : Nous n’avons pas cherché à faire du clustering, ce n’était pas le but de notre travail : le but était de comprendre la part de volatilité dont chaque agent est responsable. Dans ce cadre-là, il est apparu naturellement une échelle de graduation des différents agents avec aux extrêmes : un comportement de type market-makers (beaucoup d’ordres avec une durée de vie relativement courte, jeu non directionnel, position flat en fin de journée…) et un comportement plus directionnel (type CTA [2]) (fréquence plus basse, jeu directionnel, position non flat en fin de journée…).

A. L. : Quelles sont les principales conclusions de votre analyse ?

E. B. : Nous obtenons une façon de quantifier la part de volatilité dont chaque agent est responsable directement et indirectement. Nous pouvons ainsi identifier les acteurs dont les stratégies en moyenne stabilisent le marché et ceux qui, au contraire, ont des stratégies qui augmentent la volatilité du marché. Il n’a cependant pas été fait pour la prédiction et serait donc à mon avis sous-optimal pour cela.

A. L. : Quelles suites allez-vous donner à cette étude ?

E. B. : Faire une étude beaucoup plus systématique sur tous les cours stock du CAC40 directement, ainsi que des analyses cross assets.

Chloé Rabanel (C. R.) : Pouvez-vous nous expliquer ce que vous entendez par changement de régime dans le marché ?

Timothée Consigny (T. C.) : L’environnement financier fluctue avec le temps. On observe de longues périodes de faible volatilité entrecoupées de brèves périodes de stress.

C. R. : Pouvez-vous nous dire comment vous utilisez les surfaces de volatilité pour détecter des arbitrages ?¶

T. C. : Les surfaces de volatilité sont construites à partir des anticipations de marché des différents acteurs. Chaque régime de marché possède son propre type de surface de volatilité. On identifie des points statiquement atypiques, sur lesquels des arbitrages peuvent être analysés en comparant la surface à l’ensemble des observations du même régime.

C. R. : Quels sont les principaux paramètres que vous avez identifiés pour représenter la forme d’une surface de volatilité ?

T. C. : La majorité de l’information contenue dans une surface de volatilité peut être expliquée par quatre critères que l’on peut interpréter comme des paramètres : de niveau moyen, de maturité, de skew et de convexité.

C. R. : Quels liens ou corrélations existe-t-il entre ces différents paramètres ?

T. C. : Bien souvent, un niveau moyen faible est accompagné par une structure croissante avec la maturité et par un skew et une convexité peu prononcés. À l’inverse, lorsque la volatilité est élevée, la structure devient décroissante avec la maturité tandis que le skew et la convexité sont beaucoup plus marqués.

C. R. : Combien de « régimes différents » ou de types de surfaces de volatilité différents distinguez-vous ?

T. C. : Nous distinguons trois régimes de volatilité : un régime de faible volatilité, un régime stressé et un régime de normalisation, qui représentent respectivement 70 %, 10 % et 20 % des observations.

C. R. : Quelles techniques statistiques utilisez-vous pour identifier ces régimes ?

T. C. : Nous utilisons les algorithmes des K-means ainsi que des cartes auto-organisatrices et obtenons des résultats très cohérents d’un actif à l’autre.

C. R. : Comment utilisez-vous ces résultats dans votre activité au quotidien ?

T. C. : Nous avons mis en place deux types d’indicateurs pour l’équipe de gestion. Une description concise du dernier régime observé des actifs et une suggestion des options les plus intéressantes à acheter ou vendre.

C. R. : Pourriez-vous nous expliquer quelle sorte de données alternatives vous fournissez ?

Peter Hafez (P. H.) : RavenPack produit des outils permettant de recueillir et d’analyser des données de marché de format non structuré (nouvelles, médias sociaux et contenu textuel de clients) via des méthodes de traitement de langage (NLP). Cela permet à nos clients de suivre des entreprises, des produits, ou tout autre sujet à l›aide de tableaux de bord en temps réel, de créer des rapports interactifs en ligne, de partager ces connaissances avec le reste de leur compagnie, de recevoir des alertes et de télécharger nos flux de données dans leurs applications professionnelles.

C. R. : Quels sont les principaux utilisateurs de ce type de données ?

P. H. : Les clients types sont les hedge funds (75 % des 20 premiers hedge funds systématiques sont des clients de RavenPack) et les grandes banques d’investissement. Alors que nous « démocratisons » l’accès à RavenPack Analytics à un plus grand nombre d’intervenants sur les marchés financiers, de plus en plus d’investisseurs discrétionnaires et de petites institutions financières utilisent nos données.

C. R. : Pouvez-vous nous donner votre avis sur la qualité et la durée de l’alpha que ces données alternatives fournissent ?

P. H. : La plupart des investisseurs systématiques sont capables de créer des signaux de trading qui durent entre quelques jours et quelques semaines. Cependant, plus le modèle est sophistiqué, plus le signal peut durer longtemps. Certains de nos clients très quantitatifs estiment pouvoir générer des stratégies d’investissement à plus de 6 mois à l’aide de ces signaux, en plus de la valeur qu’ils peuvent en tirer en intra-day.

C. R. : Pourriez-vous nous donner quelques exemples précis d’utilisation ?

P. H. : Les clients sont très discrets quant à la façon dont ils utilisent nos données, mais notre bibliothèque compte plus de 50 rapports de recherches provenant des meilleurs cabinets de recherche et banques d’investissement, ainsi que d’universités de premier plan et de notre propre équipe de data science. Pour citer quelques-unes de ces utilisations :
– J.-P. Morgan en trading global macro (FX, taux, indices) et pour des stratégies actions ;
– Citi sur l’impact positif des annonces de CAPEX avec des effets persistants à 3 mois et plus ;
– Deutsche Bank à des stratégies de pair trading à l’aide de sentiment analysis ;
– Macquarie dans le cadre de stratégies d’investissement factoriel et event driven.

C. R. : Quelle serait votre recommandation à quelqu’un qui voudrait intégrer ces données alternatives dans sa stratégie d’investissement ?

P. H. : Notre CEO a récemment publié un article que je recommande sur le sujet, « 10 conseils pour éviter une overdose de données alternatives  [3]».

C. R. : Que peut apporter le machine learning au trading ?

Charles-Albert Lehalle (C.-A. L.) : Le machine learning repose sur l’exploitation de larges bases de données. En un mois, la négociation d’un titre du CAC 40 sur Euronext génère à peu près 120 000 transactions et 130 millions d’ordres. Les investisseurs institutionnels lorsqu’ils effectuent de gros achats ou de grosses ventes vont utiliser des automates pour découper ces ordres [4]assistés par des systèmes d’aide à la décision, qui peuvent être améliorés grâce à des méthodes de machine learning. Avec Robert Azencott et d’autres coauteurs, nous avons montré comment le faire sur un exemple de suivi en ligne de plusieurs centaines d’algorithmes en même temps.

C. R. : Est-ce qu’il y a des spécificités qui rendent particulièrement difficile l’application du machine learning au trading ?

C.-A. L. : Oui, car ici les actions modifient l’environnement et il faut se reposer sur des modèles qui vont modéliser la dynamique de l’environnement (qui pour la négociation est essentiellement constitué des carnets d’ordres). Le livre récent Trades, Quotes and Prices [5]résume bien, je pense, ce que l’on comprend de la dynamique des carnets d’ordres.

C. R. : En quoi les méthodes de statistical learning permettent-elles d’optimiser une exécution d’ordre ?

C.-A. L. : On peut envisager des applications : à la prédiction du market impact d’un ordre, à la mise en place de monitoring en temps réel et à l’analyse post trade. Le plus complexe est l’exécution automatique en raison des effets de rétroaction. Nous avons proposé des solutions pour l’exécution, avec Sophie Laruelle et Gilles Pagès, dans une série d’articles sur les algorithmes stochastiques où la problématique est de choisir comment allouer des ordres entre plusieurs Dark Pools.

C. R. : Existe-t-il de bonnes pratiques à respecter pour la mise en place d’un automate de trading utilisant des méthodes de machine learning ?

C.-A. L. : Il faut mettre en place des systèmes de suivi des performances du système et des prédicteurs de grandeurs telles les probabilités de transitions entre les états possibles du carnet d’ordres. Lors de travaux sur le sujet avec Mathieu Rosenbaum et Weibing Huang il y a quelques années, nous avons utilisé des méthodes statistiques classiques, mais cela pourrait se faire avec du machine learning, voire avec du deep learning. Un autre élément important est de déterminer une enveloppe de trading qui donne des bornes inférieures et supérieures du rythme d’achat à appliquer. Avec Othmane Mounjid et Mathieu Rosenbaum, nous avons montré comment faire cela avec des techniques de contrôle stochastique « standard », mais il est aussi possible de le faire en utilisant du contrôle par renforcement.

C. R. : Que sait-on de la pratique des divers intervenants ?

C.-A. L. : On distingue différents types de comportements en fonction du type d’activité : banque d’investissement, courtier, trader haute fréquence ou teneur de marché haute fréquence. Avec Eyal Neuman à l’Imperial College et Othmane Mounjid à l’École Polytechnique, nous avons montré que les traders haute fréquence pour compte propre se comportent très différemment suivant que les probabilités de transition du carnet d’ordre vont dans le sens d’une hausse ou d’une baisse (ce qui est moins le cas des banques d’investissement ou des courtiers). Ceci nous indique que les probabilités de transitions sont au centre des tactiques de trading des acteurs spécialisés.
Avec Mathieu Rosenbaum et des chercheurs de l’AMF, nous avons également analysé comment les teneurs de marché haute fréquence réagissent lorsque la formation des prix est « sous stress », par exemple lors d’annonces de chiffres macroéconomiques et remarqué qu’ils réagissaient différemment en période d’annonce ou hors d’annonce. On peut donc en conclure qu’ils sont capables d’intégrer des informations plus macros que les carnets d’ordres malgré leurs stratégies haute fréquence, et qu’ils ne fournissent pas autant de liquidité dans ces périodes pourtant critiques pour les autres participants.

C. R. : Finalement, que conclure sur le machine learning en trading ?

C.-A. L. : Comme toute l’industrie financière, les salles de marché sont transformées par le machine learning. Pour le trading, on peut facilement imaginer des applications comme l’aide à la décision, le monitoring des ordres, l’anticipation des mouvements de prix en fonction de l’offre et de la demande de liquidité, l’automatisation de la négociation, etc. Néanmoins, la rétroaction de l’action des automates rend délicate une automatisation complète. Il faut être rigoureux et prendre garde au risque opérationnel. Il est nécessaire de penser dès maintenant la nature des interfaces homme-machine : comment instaurer une communication efficace entre plusieurs centaines d’algorithmes et un pilote humain ? Quand faut-il attirer son attention, lui rendre la main, et quels leviers d’action lui donne-t-on ? Ce sont sans doute les questions auxquelles il faut réfléchir dès maintenant, pour construire les systèmes d’intermédiation souples et efficaces de demain.

 

Propos recueillis par Nous remercions Antonin Lecomte (étudiant Master MASEF) et Chloé Rabanel (étudiante Master Actuariat) qui ont recueilli les propos des différents intervenants

[1] Natural Language Processing.

[2] Commodities Trading Advisors

[3] Disponible à l'adresse : https://www.ravenpack.com/blog/tips-to-avoid-an-alternative-data-hangover/.

[4] « Market Microstructure in Practice » (CA Lehalle, World Scientific Publishing)

[5] J.-P. Bouchaud, J. Bonart, J. Donier and M. Gould, Trades, Quotes and Prices -Financial Markets Under the Microscope, 2018.

L'auteur

Cet article est extrait de
Revue Banque n°HOF2018

Articles du(des) même(s) auteur(s)

Sur le même sujet