77
1 Les systèmes de transactions automatiques dans les activités de marchés : pratique et perspectives. Thomas Raynal Maître de Mémoire : M. Michel Ruberte

Les systemes de transactions_automatiques_dans_les_activités_de_marchés

Embed Size (px)

Citation preview

Page 1: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

1

Les systèmes de transactions automatiques

dans les activités de marchés : pratique et

perspectives.

Thomas Raynal Maître de Mémoire : M. Michel Ruberte

Page 2: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

2

Les marchés financiers contemporains et la transaction électronique ............................................................................. 5

Introduction ............................................................................................................................................................................. 5

Les marchés financiers contemporains : structures & dynamiques ................................................................................. 7

L'informatisation des marchés financiers ..................................................................................................................... 7

La nouvelle cartographie des marchés ........................................................................................................................... 9

Dynamiques dans l'adoption des plateformes de transactions automatiques ..................................................... 12

L’activité sur les marchés ..................................................................................................................................................... 15

Le processus de transaction ........................................................................................................................................... 15

Les coûts de transactions ................................................................................................................................................ 18

Trading quantitatif .......................................................................................................................................................... 19

Trading algorithmique ................................................................................................................................................... 21

Trading haute-fréquence ................................................................................................................................................ 23

Focus sur les algorithmes orientés exécution d’ordres ............................................................................................. 24

Typologie des sources de profit .................................................................................................................................... 26

Conclusion ............................................................................................................................................................................. 30

Les transactions automatiques sur les marchés : réseaux, systèmes et applications .......................................................... 31

Vue d’ensemble de l’architecture d’une plateforme d’échanges .............................................................................................. 35

Le processus de traitement de flux de cotations ............................................................................................................... 35

Couches matériels et réseaux .............................................................................................................................................. 37

Couche Transport & Session ............................................................................................................................................... 39

Anatomie d’une plateforme de transactions automatiques ............................................................................................ 41

Le gestionnaire de flux de cotations ............................................................................................................................. 42

Système d’opérations, services de stockage et middlewares .................................................................................. 44

Traitement d’évènements complexes ........................................................................................................................... 47

Plateforme de transmissions d’ordres.......................................................................................................................... 50

Prospective .................................................................................................................................................................................................... 54

Software Defined Sillicon.............................................................................................................................................. 54

Marchandisation : « A ticker plant in a box » ............................................................................................................. 56

Cloud computing ............................................................................................................................................................. 57

RDMA et Infiniband ....................................................................................................................................................... 58

GPU et calcul distribué ................................................................................................................................................... 61

Data mining et intelligence artificielle ........................................................................................................................ 63

Quel système de transactions automatiques pour demain ? ...................................................................................................... 66

Sources ........................................................................................................................................................................................................... 68

Page 3: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

3

Résumé

Les échanges sur les marchés financiers ont connu ces dix dernières années des transformations très

importantes. Les entreprises de dérégulation des marchés couplées à la montée en puissance des

moyens alternatifs d'accès aux marchés ont bouleversé l'activité sur les places financières : de

nouveaux acteurs, de nouvelles méthodes et de nouvelles stratégies ont vu le jour.

L’automatisation du processus transactionnel s’est faite par étapes sous l’influence de facteurs

conjoncturels, de l’évolution du cadre légal et de l’émergence de standards en matière de protocoles

de communication dédiés. Le trading, dit « algorithmique », est une parfaite illustration du

phénomène. Ce type d'échanges, fondé sur la mise en œuvre de programmes informatiques, touche à

toutes les dimensions de l'activité sur un marché, du séquençage et du routage des ordres, jusqu'à la

mise en œuvre de stratégies d'échanges. L'informatique permet un traitement moins cher, plus fiable

et plus efficace au niveau d'une activité où le jugement humain est moins performant que

l’appréciation quantitative d'une situation. Le trading algorithmique a permis une réduction des coûts

pour les intermédiaires comme pour les investisseurs, et a ainsi gagné en importance et en volume.

La transaction informatisée est devenue la norme sur les marchés et affecte toutes les activités

relatives aux produits financiers, du choix du portefeuille à la passation d’ordres, jusqu’à la

compensation et au règlement. De nouveaux acteurs comme les opérateurs, dits haute-fréquence,

influencent le comportement et la qualité des marchés. Le nombre d’acteurs annexes, c’est-à-dire qui

agissent en support de l’activité du buy-side et du sell-side, a augmenté de manière considérable.

Pourvoyeurs et prestataires de services, constructeurs et éditeurs de logiciels proposent un ensemble

de solutions adapté à chaque type d’opérateurs et donnent l’élan à l’innovation technologique.

La latence est devenue un enjeu considérable dans le choix et le déploiement des systèmes de

transactions automatiques. Le procédé de colocation des systèmes d’un opérateur dans des datacenters

du marché est une réponse naturelle à l’augmentation de la capacité de calcul et au caractère

incompressible du délai dans les communications. La milliseconde est désormais la métrique

d’évaluation de la performance d’un système. De manière à apporter les meilleures réponses à ces

problématiques, les constructeurs capitalisent les évolutions contemporaines du traitement

informatique, le cloud computing et le calcul distribué sur GPU, et redécouvrent des technologies

jusqu’à lors limitées à des secteurs très spécifiques de l’industrie, les ASICs. Les budgets et le volume

du marché justifient une activité intense en recherche et en développement et, de ce fait, suscitent une

concurrence très rude.

Mots-clefs : trading algorithmique, marchés financiers, prospective

Page 4: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

4

Abstract

Financial markets underwent a major transformation those last ten years. Financial deregulation, the

rise of alternative liquidity platforms made a radical change in the way people plan and act on

financial venues: it gave rise to a whole new set of participants, methods and strategies.

The automation of the trading process went step by step, heavily influenced by conjunctural factors,

the evolution of the legal framework, and standardization of communication protocols. Algorithmic

trading is a direct product of those contemporary transformations. Based on the execution of

computer programs, algorithmic trading covers every dimension of market activity, from orders

creation and routing to implementation of trading strategies. Computers allow a reduction in

processing costs, increase reliability and efficiency, on a transactional process where quantitative

evaluation, and therefore automated decision making, is superior to human appreciation.

Consequently, algorithmic trading volume soared as well as its importance in the financial system.

Electronic trading is the norm on financial markets, from portefolio management and order execution

to compliance and settlement. New participants like the high frequency trading firms influence both

the market behavior and the quality. The amount of participants acting as a support for the buy side

and the sell side soared: service provision, software publishing as well as hardware distribution offer

a wide range of solutions for any kind of player and set the pace of technological innovation

Latency has become a considerable challenge for automated trading system. Collocation within

execution venues datacenters is a natural answer to the increase in available computing power and

incompressibility of communication delay, topped by the speed of light. Millisecond has now become

the metric for performance evaluation. In order to cope with the ever increasing demand for high

performance systems, manufacturers and publishers look down contemporary innovation, like cloud

computing and distributed computing on GPUs. Long standing technologies are rediscovered and

put forward: the ASICs. The budgets and the market volume inspire an intense R&D process and

thus, competition.

Keywords : algorithmique trading, financial markets, prospective

Page 5: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

5

Les marchés financiers contemporains et la transaction électronique

Introduction

Les échanges sur les marchés financiers ont connu ces dix dernières années des transformations très

importantes. Les entreprises de dérégulations des marchés, couplées à la montée en puissance des

moyens alternatifs d'accès aux marchés, ont bouleversé l'activité sur les places financières : de

nouveaux acteurs, de nouvelles méthodes et de nouvelles stratégies ont vu le jour. Les gestionnaires

de portefeuilles utilisent désormais des systèmes informatisés de gestion des ordres pour suivre les

positions et déterminer les transactions souhaitées. Puis, ils se tournent vers les systèmes informatisés

de gestion de l’exécution pour envoyer leurs ordres aux sources de liquidité les plus éloignées.

Parmi les grandes évolutions contemporaines, on note l'accroissement des échanges dits

« algorithmiques » (Algorithmic Trading, AT). Ces types d'échanges, fondés sur la mise en œuvre de

programmes informatiques, touchent à toutes les dimensions de l'activité sur un marché, du

séquençage et du routage des ordres jusqu'à la mise en œuvre de stratégies d'échanges. Le trading

algorithmique a permis une réduction des coûts pour le buy side1 et le sell side, et a ainsi gagné en

importance et en volume. L’analyse des coûts de transactions, en utilisant des ordinateurs pour capter

les mouvements des prix sur et entre les marchés, permet ensuite aux gestionnaires d’actifs de

calculer leurs coûts de transactions pour des stratégies spécifiques de transactions et de prédire alors

leurs coûts en utilisant des stratégies alternatives.

Proportion de l’adoption du trading électronique par classes d’actifs, Aite Group 2008

1 Le buy-side fait référence aux acheteurs de produits financiers, investisseurs ou industriels, gérants de fonds et éventuellement courtiers. Le sell-side représente les créateurs de produits financiers, généralement les banques d’investissements, via les introductions en bourse (IPO), la création d’obligations corporate et de manière générale l’ingénierie financière.

Page 6: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

6

Proportion de l’adoption du trading algorithmique par classes d’actifs, Aite Group 2008

Le trading haute-fréquence (High Frequency Trading, HFT) est une déclinaison récente du trading

algorithmique qu’il illustre parfaitement et qui prend un essor considérable. Il capitalise sur les

technologies de pointe, en particulier au niveau des moyens de communication avec les sources de

liquidité (marchés et plateformes alternatives d’échanges). Il définit la performance en termes de

latence entre l'obtention d'une information et l'action qui suit sa consommation. L'unité de temps

relative aux activités d'échanges (prise de position, débouclage et fréquence des échanges) est très

faible. Elle est mesurée en millisecondes sur la partie système et sur la partie applicative, et en

microsecondes sur la couche réseau. Les traders à haute-fréquence utilisent des systèmes

informatiques optimisés pour la performance dans le traitement ainsi qu’une connectique privilégiée

avec les marchés pour à la fois fournir et prendre de la liquidité sur et entre les marchés. La définition

exacte d’un acteur haute-fréquence n’est pas claire, car fonction d’une frontière floue avec le trading

algorithmique dont de nombreux aspects capitalisent eux aussi sur la vitesse d’exécution. Néanmoins,

l’activité d’entités, qui capitalisent sur un rythme très fin dans les transactions de produits financiers

sur les marchés publics, a gagné en importance depuis une dizaine d’années pour devenir

actuellement incontournable. De nombreux opérateurs haute-fréquence agissent comme animateurs

de marché en plaçant des ordres limites sur des carnets d’ordres. Ces ordres passifs fournissent la

contrepartie pour les opérateurs qui souhaitent trouver un acheteur ou un vendeur sur le marché.

L’activité des acteurs haute-fréquence couvre aussi une dimension plus classique des opérations

boursières qui concerne l’arbitrage statistique. Ils capitalisent sur la performance informatique pour

isoler et exploiter des opportunités d’arbitrages sur une ou plusieurs classes d’actifs. Avec des taux de

participation estimés à 30-50 % sur les bourses des actions européennes et qui vont jusqu’à 70 % sur

les bourses des actions américaines, les transactions à haute-fréquence influencent profondément les

marchés actuels.

Page 7: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

7

La transaction informatisée est devenue la norme sur les marchés et affecte toute la gamme des

transactions relatives aux produits financiers, du choix du portefeuille à la passation d’ordres, jusqu’à

la compensation et au règlement. De nouveaux acteurs et de nouvelles stratégies, qui emploient la

transaction algorithmique, influencent le comportement et la qualité des marchés.

Les marchés financiers contemporains : structures & dynamiques

L'informatisation des marchés financiers

La baisse du prix du calcul informatique, que ce soit en termes d'acquisition de matériel, de

technologies ou de services, a profondément transformé l'industrie, et en particulier, l'industrie

financière. Dans le même temps, la gestion de portefeuilles et la manipulation de produits financiers

pour répondre à un besoin, qu’il soit spéculatif ou de nature industrielle, sont devenues beaucoup

plus complexes. La globalisation financière, l'interconnexion des économies, l'émergence d'une

myriade de nouveaux acteurs et de nouveaux produits ainsi que les approches novatrices de

l'ingénierie financière, ont rendu l'activité de marché de plus en plus technique.

La disponibilité d’une puissance de calcul bon marché a rendu possible le déploiement de systèmes

automatisés de transactions considérablement plus performants. Dans la plupart des cas, cette

performance était auparavant fondée sur des approches mathématiques, ancrées dans les théories

statistiques de modélisation et de probabilité. Cette nouvelle vague de systèmes automatisés se

concentrait alors sur l’exécution d’une opération. Le système informatique ne prenait pas la décision

de manipuler un certain groupe d’actifs car ces décisions étaient toujours prises par des hommes. Une

fois la transaction décidée, son exécution était confiée à un système d’exécutions automatisé. À

l’origine, il s’agissait de confier le soin d’exécuter des transactions à un système d’exécutions

automatisé pour laisser les traders se consacrer à des opérations plus compliquées. Avec la

généralisation des systèmes d’exécutions automatisés et par la confiance croissante placée en eux,

différentes institutions de transactions ont commencé à expérimenter des approches plus

sophistiquées de l’exécution automatisée. Différentes méthodes et différents algorithmes pouvaient

être déployés pour satisfaire les contraintes de différentes classes de transactions, dans des

circonstances de marché variables. Le concept de transactions algorithmiques était né.

Page 8: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

8

Les avantages des algorithmes,TABB Group 2005

Deux grands jalons définissent et balisent le processus d’informatisation.

La volonté des régulateurs américains de favoriser d’abord la transparence dans le processus de

cotations (Order Handling Rules, 1997) et la réduction des écarts offre/demande (spreads) avec la

décimalisation des prix (2001), puis par la compétition entre plateformes d’échanges au moyen d’un

benchmark national (Regulatory National Market System ou Reg NMS, 2004), ont influencés de manière

profonde la conception et la pratique des transactions sur les marchés financiers. L’effet majeur des

législations américaines comme européennes a été l’accroissement progressif du nombre et du type

de plateformes d’échanges. Ce phénomène possède une dynamique qui lui est propre et qui sera

décrit plus loin. De façon à assurer la compétition avec les marchés régulés, ces nouvelles

plateformes capitalisent sur l’informatique de manière à assurer une performance plus importante en

termes de gestion de volumes et des coûts réduits en termes de maintenance qui auront à leur tour un

impact sur les coûts de transactions. L’Europe suivra avec un temps de décalage. La Markets in

Financial Instruments Directive (MiFID), entrée en application en 2007, encourage la compétition entre

plateformes par la reconnaissance de moyens d’accès alternatifs aux marchés de capitaux. Les

marchés de dettes, monétaires ou dérivés, pour des raisons liées au type de produits échangés,

suivent la dynamique des marchés de capitaux avec une intensité pour l’instant bien moindre.

L’adoption d’un standard pour la communication entre systèmes de passages d’ordres, le protocole

FIX (Financial Information eXchange), est un corolaire de la multiplication des acteurs. Initié côté buy-

side de manière à fluidifier les échanges avec le courtage, ce protocole deviendra le composant

essentiel dans les nouvelles plateformes de gestion d’ordres qui vont constituer les premiers systèmes

de transactions totalement automatisés. Toutes les avancées en matière d’informatisation des

processus de transactions orientés marché dépendent, à des degrés divers, du choix d’un moyen de

communication commun entre les systèmes des différents acteurs.

Page 9: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

9

La nouvelle cartographie des marchés

Fragmentation & compétition

La cartographie actuelle des plateformes d'échanges est caractérisée par la fragmentation des sources

de liquidité, la compétition pour réunir offre et demande, la pluralité des modes d'accès aux marchés

et l'automatisation des stratégies de transactions.

On isole un phénomène de centralisation/fragmentation dans l’évolution de la cartographie des

plateformes d’échanges de produits financiers. L’évènement marquant au niveau de la

transformation cartographique des marchés est la reconnaissance, par les régulateurs, des plateformes

de transactions électroniques alternatives (Electronic Communication Network, ECN) qui proposent un

service similaire à celui d’un marché régulé. Ils tentent d’attirer l’offre et la demande au moyen de

nouveaux modèles transactionnels (par exemple, la rémunération des apporteurs de liquidité) ou en

proposant une meilleures performance de traitement dans la gestion des transactions2. Ces nouvelles

plateformes, fondées sur des systèmes informatiques, ont contribué en tant que telles, mais aussi par

l’accent mis sur la vitesse du traitement comme indicateur de performance, à la généralisation des

plateformes de transactions automatiques et au trading algorithmique.

Parmi les grands noms de ces nouvelles plateformes, on trouve Better Alternative Trading System

(BATS), fondé en 2006 et Direct Edge produit du rachat de l’ECN Attain par Knight Group en 2005,

depuis devenus des marchés régulés qui concurrencent les marchés d’actions tenus par

NYSE/Euronext et NASDAQ. Les pionniers sont Island racheté par Instinet, le plus vieux ECN, lui-

même racheté par le NASDAQ en 2005 et Archipelago racheté par NYSE/Euronext (NYSE ARCA) et

REDIBook qui fusionne avec Archipelago en 1998. Par ailleurs, Chi-X Europe, un ECN lancé en 2007

avec le soutien de plusieurs grands noms de la banque d’investissements américaine, attaque les

marchés d’actions européens avec un succès notable. Chi-X Global, l’équivalent asiatique de Chi-X

Europe lancé en 2010, propose une plateforme pour les transactions de produits actions australiens et

japonais et vise à terme toute la zone Pacifique.

La généralisation du modèle ECN est suivie par une phase de centralisation alors que les grands

marchés régulés absorbent leurs concurrents dans le cadre d’un grand processus d’informatisation.

Dans le même temps une autre génération d’ECN, les plateformes de transactions alternatives

(Alternative Trading System, ATS dit Dark Pools) voient le jour : l’une des principales, Liquidnet, est

lancée en 2001. Ces plateformes, tout comme les ECN, proposent un service unique : des transactions

fondées sur un anonymat complet – pas de notions de prix, pas de notions de volumes mais

2 Les ECN en tant que tel existent depuis longtemps : Instinet a été fondé en 1969, avec en perspective la compétition avec le NYSE et le NASDAQ, et a été présenté comme le premier marché d'actions électroniques à sa fondation en 1971. Le boom technologique qui a accompagné le développement d’Internet est en grande partie responsable de la banalisation des compétences informatiques et de la réduction du coût des plateformes matériels et logiciels.

Page 10: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

10

uniquement une négociation. Un ATS est une plateforme d’échanges réduite à sa plus simple

expression : un moyen pour l’offre et la demande d’indiquer un intérêt pour un produit.

Division des transactions relatives aux produits actions US par types de plateformes, au premier

trimestre 2010, Tabb Group 2010

Ainsi, on observe un processus de fragmentations suivi d’une centralisation autour des grands pôles

d’échanges. Alors que les principaux ECN deviennent des marchés régulés et que les autres se

marginalisent ou sont absorbés, une nouvelle génération de plateformes alternatives voit le jour et se

développe.

Dé-verticalisation & spécialisation

Les récentes évolutions du système juridique qui encadre les transactions sur les marchés financiers,

Req NMS aux USA et la MiFID en Europe, ont transformé l'organisation des acteurs. Le modèle buy-

side / sell-side où le premier représente les investisseurs institutionnels, les fonds d'investissements et

le second, les banques, a éclaté désormais en une myriade d'acteurs qui proposent des services très

divers. Ces services peuvent être de nature utilitaire, agrégateurs de flux de cotations, processeurs de

flux évènementiels, modèles de stratégies financières, modèles de gestion de risques, modèles

d'exécutions d'ordres, systèmes automatisés de transactions. Il peut aussi s'agir de moyens d'accès

alternatifs aux sources de liquidité qui privilégient l'anonymat dans la transaction, de manière à

limiter l'activité prédatrice d'autres acteurs ou de plateformes d'échanges dédiées entièrement à une

classe d'actifs ou à une catégorie de produits financiers. La croissance de ces nouveaux acteurs est

fulgurante : Chi-X, lancé par Instinet en 2007, couvre 26% des transactions sur l'index britannique

FSTE 100 et globalement 15% des transactions sur les produits actions européens. L'investisseur peut

désormais choisir tous les composants de son processus de transactions.

Page 11: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

11

Les avancées en matière de communication électronique et de calcul informatique vont, en parallèle

aux évolutions de la législation contemporaine, permettre une dé-verticalisation du système des

acteurs financiers. Les coûts d'entrée moindres pour l'acquisition et la mise en œuvre d'une

performance technique au moins équivalente à celle des grands acteurs du monde des échanges

financiers vont contribuer à une spécialisation de l'activité et à l’émergence de nouveaux acteurs. Les

principales institutions vont déléguer le volet échanges à des acteurs spécialisés sur une dimension

très spécifique du processus d'échanges. De fait, les grands pôles de l'architecture du système

financier actuel, Londres, New York, Singapour et Tokyo sont concurrencés par l'émergence de

systèmes d'échanges mis en œuvre par des entreprises privées qui ont fait l'investissement d'une

infrastructure technologique et d'une main d'œuvre qualifiée.

L’adoption de plateformes de transactions automatiques est fonction d’une dynamique qui vise à

réduire les coûts d’opérations et à augmenter la capacité à traiter un volume d’ordres en constante

augmentation. Ce phénomène a, en retour, transformé l’activité sur les marché, spécifiquement en

termes de vitesse, de volumes d’actifs associés à un ordre et de volumes de transactions.

Les tendances actuelles sont claires. D’une part, les transactions électroniques sont devenues la norme

et d’autre part, le trading algorithmique adapté à un système de transactions très rapide sur

plateformes multiples est de plus en plus utilisé. Les investisseurs, firmes ou particuliers, ont accès de

plus en plus facilement aux plateformes d’échanges. Les plateformes de transactions alternatives

Page 12: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

12

(ATS) deviennent de plus en plus attractives et captent de plus en plus de liquidités. Cette flexibilité

dans l’accès aux marchés, couplée à une technologie très abordable et facilement disponible, a

contribué en retour à augmenter le type et le nombre d’acteurs. Ceux-ci sont autant des opérateurs de

marché, les firmes de HFT comme exemple, que des prestataires de services, des constructeurs ou des

éditeurs de logiciels. On note ainsi un phénomène de marchandisation des compétences et des

systèmes associés aux transactions automatiques sur les marchés. Ce dernier est décrit plus

précisément par la suite.

Dynamiques dans l'adoption des plateformes de transactions automatiques

Le cadre légal actuel : Reg NMS et MiFID

La législation des marchés régulés américains a été bouleversée par la Reg NMS qui a posé le concept

de meilleur offre/meilleure demande (National Best-Bid Best-Offer - NBBO) au niveau national. Les

marchés doivent désormais router les ordres sur la plateforme qui propose la meilleure offre ou

demande ou annuler l'ordre. En Europe, la MiFID a introduit un principe similaire. Cependant,

contrairement à la Reg NMS, l'obligation de router les ordres en fonction du couple offre/demande

n'est pas imposée. Les plateformes d'échanges où les intermédiaires doivent néanmoins "tout faire

pour obtenir" la meilleure transaction pour leur client, ce qui en pratique revient, soit à une évaluation

en amont, au choix de la meilleure plateforme pour l’échange d’un actif donné, soit à un système

similaire à celui mis en place aux US avec une évaluation ordre par ordre et en temps réel. La

première option est de loin la plus répandue compte tenu du coût important de la seconde. La MiFID

encadre l’existence et l’activité de ces plateformes par une structure juridique : les ECN américains

sont caractérisés comme Multilateral Trading Facilities (MTS) et les ATS comme Systematic Internalizer

(SI).

La convergence des différents facteurs : puissance de calcul peu onéreuse, stratégies de transactions

informatiques intensives, exécution automatisée et accès direct au marché, a apporté aux acteurs du

marché, au cours de ces dernières années, des avantages et des bénéfices qui leur permettent

d’identifier et d’exécuter des transactions, le tout en quelques secondes seulement.

Straight Through Processing : l’informatisation complète du processus de transactions

L'informatisation des marchés financiers a débuté il y a une quarantaine d'années, au début des

années 1970, lorsque le NASDAQ a le premier déployé un système de cotations automatiques pour

son activité d'animation de marché. En Europe, les premiers services informatiques ont été créés au

cours des années 1980 et il a fallu attendre les années 1990 pour que les plateformes d'échanges

deviennent complètement automatiques. Le cœur du processus d'informatisation des marchés est

l'implémentation d'un carnet d'ordres centralisé pour les ordres limites qui définit de manière

Page 13: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

13

quantitative l'intérêt porté par les acteurs à un actif et qui est accessible par tous les acteurs. Cette

transparence a contribué à réduire la dissymétrie entre les acteurs en matière d'information, à

favoriser la liquidité des plateformes d'échanges et la détermination des prix.

Le Straight through processing (STP) est une conception du processus de transactions relatif aux

produits financiers sur les opérations trade et post-trade qui visent à automatiser l’intégralité des

actions. Les processus de transactions, de contrôles, de compensations, de règlements et de

comptabilisation sont concernés avec l’objectif de limiter le risque et de réduire les coûts. Le concept

STP est un ensemble de processus et de technologies utilisé pour créer une infrastructure qui

permette la gestion des transactions sur les marchés en temps réel. L'impulsion initiale pour une

approche STP est venue de la régulation américaine (SEC) et de la Securities Industry Association (SIA)

qui ont proposé de réduire les opérations de compensations de trois jours à une journée. Cet objectif

s'est par la suite étendu pour inclure l'intégralité du cycle d'une transaction sur le volet trade/post-

trade.

Le volume de transactions est en augmentation constante et le risque associé à ces transaction- crédit,

liquidité, contrepartie - devient de plus en plus maîtrisable, hors système de traitements temps réel.

Par ailleurs, l'impact combiné de l'expansion de la transaction électronique, de la standardisation des

produits financiers et d'une régulation axée sur la réduction des spreads, a contribué à réduire les

marges des grands opérateurs. Le concept STP est passé de l'expression d'une nécessité à un impératif

pour l'industrie financière. Il témoigne de l'exclusivité de la transaction électronique dans les

opérations contemporaines sur les marchés financiers dont la qualité, en tant que processus

informatique, représente le facteur élémentaire dans la performance d'un opérateur. La qualité du

système informatique d'un opérateur de marché contemporain ne détermine pas sa performance, par

contre, la performance d'un acteur est fatalement construite sur un système informatique performant.

L’accès direct au marché

Le modèle classique, courtage ou intermédiaire référencé par un marché qui prend en charge les

transactions sur les plateformes d'échanges, n'est plus l'unique modèle. L'accès direct au marché

représente un canal mis à disposition par un courtier pour un investisseur afin qu'il puisse opérer

directement sur un marché via les infrastructures du courtier, ce dernier ne conservant que les

opérations de gestion du risque.

L'accès sponsorisé, une déclinaison du procédé d’accès direct au marché (Direct Market Access -

DMA), représente une location de référencements d'un courtier sur un marché (Sponsored Access - SA).

L'investisseur peut, dès lors, agir avec ses propres infrastructures et choisir ou non de déléguer la

gestion du risque au courtier (Filtered SA contre Naked SA). Dans ce dernier cas, le courtier reçoit juste

une notification des différentes transactions. Le grand avantage d'un modèle DMA est un temps

Page 14: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

14

d'exécution moindre pour chaque ordre. De fait, il s'agit d'une configuration tout à fait adaptée aux

échanges algorithmiques.

L’accès DMA est le produit d’un long processus d’automatisation des transactions du côté des

investisseurs. Initié par la normalisation des échanges, avec notamment le protocole FIX, accéléré par

l’inter connectivité des systèmes, le développement des ECN et la progressive mise à l’écart des

transactions par opérateurs humains, DMA représente la dernière étape d’un processus amorcé il y

bientôt 20 ans.

Les modalités de rémunérations des plateformes d'échanges, en termes de volumes ou de moyens,

ont aussi influencé l'écosystème des marchés financiers. La concurrence entre les grandes places

financières et les plateformes d'échanges alternatives, particulièrement sur les marchés actions, a

contribué à revoir à la baisse les systèmes de commissionnement et à mettre en place des modes de

tarification incitatifs. Le modèle en la matière est maker/taker dans lequel le preneur de liquidité, à

l'achat ou à la vente, a pour charge le règlement de la commission. L'initiateur de ce modèle est l'ECN

Island, à la fin des années 1990.

L'informatisation des marchés a renforcé l'exigence de rapidité dans le passage d'un ordre.

L'évolution d'une situation est effectivement fonction d'un rythme très soutenu et le risque

d'obsolescence dans l'exécution d'une stratégie est donc beaucoup plus marqué. L'industrie

Page 15: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

15

informatique, constructeurs et développeurs, a pris acte de ce nouveau marché et s'est développée

dans des proportions très importantes. En parallèle, les marchés ont ouvert leurs datacenters aux

opérateurs et vendent la possibilité de réduire le délai de transmission à fraction négligeable

(colocation). Le fonctionnement de ce système est développé plus loin. Enfin, l’origine de ces

évolutions récentes est liée aux nouvelles régulations des marchés qui ont défini comme règle

première, pour toute transaction de produits financiers sur les marchés régulés, le routage vers la

source de liquidité qui propose le meilleur prix. Ces nouvelles régulations ont ainsi entraîné la

fragmentation des marchés.

L’activité sur les marchés

La technologie a contribué à transformer en profondeur l'activité sur les marchés financiers.

L'automatisation du processus transactionnel, de l'initialisation jusqu'à la confirmation d'un ordre,

l'utilisation massive de systèmes informatiques d'exécutions d'ordres qui assurent la gestion, la

notification et le routage, ont placé l'informatique au cœur de l'activité. Depuis une dizaine d'années,

le développement de stratégies fondé exclusivement sur des moyens informatiques, associés ou non à

des modèles mathématiques, a placé la vitesse d'exécution comme facteur essentiel dans la réalisation

d’un profit.

Le processus de transaction

Les marchés financiers se distinguent par les classes d’actifs prises en charges et par les modalités

d’échanges. Les classes d’actifs couvrent les produits actions (equities) qui représentent une part d’une

entreprise qui a rendu public : son capital, les produits de dettes (fixed income) étatiques ou industriels

(corporate), les devises (foreign exchange), les matières premières (commodities), le financement court-

terme sur le marché monétaire (money market) et les dérivés (derivatives), les produits constitués sur la

base d’un sous-jacent qui appartient aux grandes classes d’actifs citées.

Les plateformes d’échanges de produits financiers se distinguent d’abord en fonction des modalités

d’échanges.

Le système dit « mené par les cotations » (quote driven) repose entièrement sur l’activité de teneurs de

marché qui réceptionnent les ordres et émettent des cotations. L’opérateur peut choisir dès lors,

d’acheter ou de vendre au prix fixé ou de négocier avec le teneur de marché.

Le système dit « mené par les ordres » (order driven) est fondé exclusivement sur un carnet d’ordres

alimenté par les opérateurs. Le rôle du teneur de marché n’est pas indispensable. Les opérateurs

peuvent placer une grande variété d’ordres. On peut citer :

Page 16: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

16

• les ordres aux marchés qui demandent ou proposent une certaine quantité au meilleur prix et

qui sont systématiquement exécutés pour peu que le volume à l’achat ou à la vente

corresponde, et

• les ordres limites qui donnent un prix à l’achat ou à la vente associé à une quantité et qui ne

sont exécutés que s’il existe une contrepartie.

Les marchés actuels sont plus proches, dans l’ensemble, du modèle order driven, compte tenu des

récentes législations américaines et européennes qui visent à unifier le plus possible l’activité des

marchés. Néanmoins, de nombreuses plateformes dont le NYSE/Euronext et le NASDAQ, conservent

un système hybride. Enfin, il existe une classe annexe de marché fondée sur la négociation entre

opérateurs. Le rôle de la plateforme est, dès lors, limité à la possibilité de transmettre un indicateur

d’intérêt d’un opérateur anonyme au marché. Il s’agit du mode de fonctionnement des ATS.

Le protocole transactionnel peut beaucoup varier d’une place à une autre et toucher les volumes

minimums, les écarts minimums, les disponibilités ou encore les coupe-circuits pour prévenir un

changement brutal dans le statut de l’offre et de la demande. Invariablement, le dénominateur

commun touche à la précédence des ordres, fondé sur la qualité du prix puis sur l’horodatage

(timestamp) de l’enregistrement de l’ordre.

Les acteurs des marchés financiers varient beaucoup en fonction de la nature des produits échangés.

Les marchés de capitaux, orientés investisseurs, sont par nature très différents des marchés de dérivés

qui concernent majoritairement les producteurs et les industriels désireux de couvrir un risque par le

biais d'intermédiaires. On peut néanmoins distinguer une typologie commune :

• Les opérateurs : il s'agit des acteurs des marchés financiers, à l'offre ou à la demande, qui

choisissent de vendre ou d'acheter un risque. Sur les marchés de capitaux, on trouve les

investisseurs institutionnels (compagnies d'assurance, fonds de pensions, agences

gouvernementales) et les fonds d'investissements.

• Les intermédiaires : ils représentent des acteurs passifs dont l'action est déterminée par

l'activité des opérateurs et dont le rôle est de favoriser la rencontre de l'offre avec la demande.

Il s'agit typiquement des courtiers (broker-dealer) ou des banques d'investissements qui

agissent pour le compte de clients

• Les infrastructures : soit les plateformes d'échanges, régulées ou alternatives, les chambres de

compensations, la myriade de fournisseurs de services informatiques, les constructeurs, les

éditeurs et les hébergeurs.

L’activité d’un marché est déterminée par la relation entre le distributeur (dealer) et le client. Le

distributeur est généralement un courtier qui possède les accréditations pour agir sur une plateforme

d’échanges. Dans cette configuration, le client peut faire appel au courtier pour exécuter une

transaction : il s’agit du modèle distributeur à distributeur (inter-dealer). Les grands marchés régulés,

NYSE/Euronext, NASDAQ, LSE, CME, CBOE, pour ne citer que ceux-là, fonctionnent de la sorte. Les

Page 17: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

17

transactions peuvent aussi s’effectuer en dehors d’un marché régulé (Over the Counter - OTC) avec ou

sans plateformes d’échanges et touchent, en général, les produits monétaires, les dérivés ou des

produits très spécifiques, typiquement les produits structurés autour des dettes des ménages. Le

modèle distributeur-client représente une alternative qui met directement en relation l’offre et la

demande sur une plateforme dédiée.

Les ECN qui autorisent à la fois les communications distributeurs/distributeurs, distributeurs/client et

client/client fonctionnent comme un marché classique sur la base d’un carnet d’ordres par actifs. Les

plus anciens, comme BATS ou Direct Edge, sont devenus des marchés régulés à part entière. Enfin,

des sources de liquidité alternatives, les ATS, fondées sur la négociation ou sur un principe d’alertes,

permettent une relation entre offre et demande fondée sur un anonymat complet. Les ATS sont un

phénomène nouveau qui représente ce qu’était au début des années 2000 les premiers ECN : un

moyen d’accès à la liquidité original et attractif. Les ECN proposaient alors des transactions plus

rapides à un coût moindre. Certains proposaient même un nouveau système de rémunération pour

les apporteurs de liquidité. Ils transformèrent durablement l’activité sur les marchés financiers et

furent, pour beaucoup, finalement absorbés par les grandes places financières.

Une transaction sur un marché est généralement divisée en trois étapes :

• Pre-trade - Il s’agit de la phase d’analyse durant laquelle un opérateur, personne ou machine,

prend la décision d’exécuter un ordre. Cette phase couvre le travail de recherches, de tests et

d’évaluations dans le cadre de l’élaboration d’une stratégie d’actions sur les marchés.

Page 18: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

18

• Trade - La demande d’exécution est transmise à un courtier ou au système en charge de la

connexion avec une plateforme d’échanges. Les modalités d’exécution de l’ordre sont à la

charge du courtier, si un intermédiaire est utilisé, qui va rendre compte à son client de la

performance de l’opération.3 L’intermédiaire va transmettre la demande à la plateforme

d’échanges, le marché, qui va intégrer celle-ci au système de gestion des ordres qui prend en

charge les carnets. Généralement, les opérations de validation de la conformité (compliance) et

d’évaluation du risque sont assurées à ce niveau.

• Post-trade – Une fois l’ordre placé sur un marché et exécuté, celui-ci est notifié au courtier qui

notifie à son tour le client. La nouvelle position est attachée à un portefeuille et prise en charge

par les systèmes comptables. Les opérations de compensations (clearing) sont établies, en

particulier les appels de marges pour les contrats à termes, et la livraison (settlement) des

produits est assurée.

Les coûts de transactions

Les coûts liés à une opération sur une plateforme d’échanges sont de nature très diverse et peuvent

avoir un impact significatif au niveau du retour sur investissement. Il peut s’agir de coûts liés au

processus d’investissement, soit les taxes éventuelles ou le coût lié au délai entre l’envoi d’un ordre et

à la notification effective sur la plateforme d’échanges, en fonction de l’évolution du prix de l’actif. Il

peut aussi s’agir de coûts liés à l’exécution de la transaction : la commission de l’intermédiaire ou la

rémunération de la plateforme d’échanges. Enfin, les coûts liés à la transaction couvrent le paiement

du spread et l’impact sur le marché. Ce dernier volet est fondamental : les premiers systèmes de

transactions automatiques et, de fait, les premiers algorithmes avaient pour objet la gestion du

passage d’ordres et la limitation de l’impact sur le marché.

L’analyse pre-trade se focalise essentiellement sur les données relatives aux prix – la volatilité - et sur

la liquidité de l’actif. Un modèle permet l’évaluation d’un coût lié à la transaction et donc le choix

d’une stratégie d’exécution appropriée. L’analyse post-trade s’attache à l’évaluation de la performance

de l’exécution et à la mesure du coût réel. Généralement, il s’agit de la comparaison d’un indicateur

du coût lié à la transaction avec un benchmark, typiquement un benchmark intraday type VWAP.

Le trading algorithmique, en tant que tel, est un moyen de mise en œuvre de stratégies de transactions

destinées à limiter le coût de transactions sur un volume d’ordres important. Les courtiers proposent

ainsi une multitude de plateformes composée de systèmes d’exécutions d’ordres performants et

d’une palette d’algorithmes adaptée à un besoin particulier. Ces systèmes, baptisés EMS pour

Execution Management System, représentent l’évolution naturelle des premiers systèmes de gestion

d’ordres, orientés back office (Order Management System - OMS) qui sont à l’origine de l’informatisation

3 L’exécution d’un volume d’ordres important est une opération complexe compte tenu de l’impact sur l’équilibre actuel de l’offre et de la demande.

Page 19: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

19

des différents acteurs concernés par les transactions de produits financiers. Actuellement, avec le

succès rencontré par les ATS, les EMS sont confrontés à un nouveau défi qui est d’intégrer des

sources de liquidité difficiles à interfacer au processus de sélection des plateformes et de routage des

ordres.

Trading quantitatif

Le trading dit quantitatif est un modèle décisionnel pour opérer sur les plateformes d’échanges de

produits financiers. En effet, une unité de trading quantitatif met en œuvre un ou plusieurs modèles,

produits d’un travail de recherche plus ou moins long4et validés par une série de tests sur un volume

de données important. Une stratégie représente l’implémentation d’un modèle.

Une unité de trading quantitatif est composée de plusieurs modules.

Module de stratégies

Le module de stratégies produit une demande d’exécution d’ordres en fonction d’une logique.

L’ordre est lui-même une transaction qui produit un bénéfice et qui accepte un risque.

L’objet du module de stratégies est de proposer une prospective investigatrice. En ce sens, il ne s’agit

que d’un élément du système de transactions automatiques.

La typologie des modèles s’appuie sur le type de données qui va déterminer le produit de la logique

du modèle. Ces données peuvent être le prix ou les informations fondamentales associées à un actif.

4 Certains modèles ou déclinaison de modèles existants sont produits sur un laps de temps très court. Les unités de trading quantitatifs industrialisent souvent la production de modèles (recherche, tests et déploiement) dans un processus intégré.

Page 20: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

20

Pour chaque approche, il existe un certain nombre de branches primordiales qui vont constituer

chacune le cœur d’un modèle.

En fonction de l’historique du prix d’un actif, il est possible de déterminer un courant ascendant ou

descendant. Une approche élémentaire consisterait à comparer deux moyennes mobiles sur une plage

temporelle différente (longue et courte) et de définir une tendance de manière à capitaliser dessus.

Dans la même optique, la théorie associée au concept de « retour à la moyenne », considère l’existence

d’un centre de gravité autour duquel évolue un prix. Si celui-ci est isolé, un opérateur peut capitaliser

à la vente ou à l’achat sur la différence actuelle entre le prix de l’actif et son prix moyen. L’arbitrage

dit statistique, une stratégie qui sera détaillée plus loin, constitue un bon exemple. Il capitalise sur un

écart anormal entre deux actifs dont le prix est étroitement corrélé. Le travail de l’opérateur a pour

objet de définir l’actif surévalué ou sous-évalué.

Les modèles constitués sur la base de données fondamentales vont définir une valeur associée à

l’actif. Contrairement à un analyste classique qui va s’attacher à une étude de l’actif et de son contexte

pour déterminer sa valeur, l’approche quantitative vise à déterminer précisément la valeur : il peut

s’agir, par exemple, d’un taux d’intérêt ou d’un dividende. Un exemple de cette approche est la

stratégie dite d’écart sur le rendement qui vise à déterminer pour deux actifs une valeur donnée et à

vendre le moins intéressant de manière à financer l’achat du second. D’autres méthodes d’évaluation

de la valeur existent sur la base de la croissance historique ou sur une évaluation quantitative de la

qualité d’un actif, le rapport dette/bénéfice d’une entreprise par exemple.

Module de gestion du risque

La gestion du risque représente l’introduction d’une limite au risque auquel s’expose une stratégie en

termes de volumes et de types. Il s’agit d’un contrôle effectué sur la sélection et la conservation de

positions sur un ou plusieurs marchés de manière à ne prendre en charge qu’un risque gérable et

profitable.

Ce module permet la supervision des opérations exécutées par les différentes stratégies et la

quantification du risque associé au produit de chaque opération, idéalement en temps réel.

Module d’exécution des transactions

Le module de transactions a pour charge d’évaluer le coût d’une transaction associée à l’exécution

d’une stratégie. Tout comme le module de stratégie, il propose une évaluation et n’est pas en charge

de l’exécution. Il détermine le coût que représentent les commissions versées à l’intermédiaire, s’il

existe, le différentiel éventuel entre le prix à la création d’un ordre et le prix à l’exécution sur la

plateforme d’échanges (slippage) ainsi que l’impact de la transaction sur le marché. Plusieurs modèles

Page 21: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

21

élémentaires existent qui représentent avec plus ou moins de précisions le coût associé à une

transaction. La précision du modèle est intimement liée à la charge de calcul.

Module de construction de portefeuilles

Le module de construction de portefeuilles a pour rôle d’arbitrer entre le produit du module de

stratégies, du module de gestion de risques et du module d’exécution de transactions.

Il existe deux grands modèles de construction de portefeuilles.

Le premier est fondé sur un ensemble de règles gouverné par une heuristique déterminée par

l’opérateur. Il est possible d’isoler quatre types en fonction de la priorité ou de l’exclusivité accordée

à un facteur.

• La valeur intrinsèque d’une stratégie en fonction du contexte, soit le choix de considérer qu’un

signal a permis de déterminer une tendance, par exemple de type trend following, et qu’il est

suffisant pour déterminer une action.

• Le poids associé au risque, soit une pondération de la valeur déterminée pour un actif avec le

risque correspondant de l’intégrer dans le portefeuille.

• Le profit potentiel, soit la possibilité de déterminer le choix d’une position en fonction du

profit supposé de l’acquisition de cette position.

• Un système décisionnel fondé sur la combinaison de modèles qui prend, de fait, la forme d’un

arbre de décisions où le produit final et la quantité d’un actif dans un portefeuille, sont

fonction de l’interaction de plusieurs modèles, typiquement trend//value.

Le second est fondé sur une fonction d’optimisation. Une fonction d’optimisation a pour objectif de

maximiser la valeur du portefeuille en fonction d’un certain nombre de paramètres tels que le profit

espéré ou la volatilité anticipée et d’un panel d’actifs.

Trading algorithmique

Le trading algorithmique est un moyen d'action fondé exclusivement sur des plateformes

informatiques constituées d'une logique d'actions, d’un algorithme et d'un objectif (passage d'ordres,

génération d'un ordre en fonction d'une situation).

Un algorithme est défini en fonction d'une stratégie et il est constitué de plusieurs éléments. Le

premier élément est un benchmark : c'est-à-dire une mesure de la performance de l'algorithme. Il peut

Page 22: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

22

s'agir d'une exécution sur une période historique donnée, comme la journée pour un algorithme de

type VWAP ou les secondes précédentes pour un algorithme de routage d'ordres. Le second élément

est une logique : c'est-à-dire un module de prise de décisions. Enfin, un support de stockage de

données, quel que soit son format, qui peut alimenter la logique en données sur la situation actuelle et

surtout permettre le test (back-testing) de nouvelles stratégies ou la modification d’algorithmes

existants.

Les caractéristiques du trading algorithmique sont :

• L’intégration d’un système décisionnel préprogrammé et utilisé par des professionnels.

• Une supervision de l'activité des marchés en temps réel.

• Un système automatisé de passage et de gestions des ordres sans intervention humaine dans

l'exécution.

• L'utilisation d'un procédé DMA ou d'un procédé de colocation pour l’accès au marché.

• Une action sur des classes d'actifs très liquides, typiquement les produits actions.

La typologie des algorithmes est fonction de l’objectif associé à son exécution. On peut isoler les

catégories suivantes :

• Les algorithmes orientés génération de profits (alpha). Opportunistes, ils sont orientés

bénéfices à court terme et fondés systématiquement sur une analyse temps réel. Ils ont pour

objet de tirer profit des conditions actuelles du marché. Dans cette catégorie, on peut citer les

modèles d’animation de marché automatique, les stratégies event-driven qui détectent une

rupture micro ou macro dans l’actualité et qui capitalisent sur son impact sur les marchés ou

les différentes modalités d’arbitrage.

• Les algorithmes orientés exécution d’ordres. Ils visent le meilleur résultat pour le passage d’un

ordre en termes de prix/unité. Ces algorithmes visent une balance entre l’exécution totale de

l’ordre et les contraintes au niveau prix, liées à l’impact sur le marché. Typiquement, ce type

d’algorithmes fonctionne sur la base de contraintes fournies par l’utilisateur, comme par

exemple : achat de N unités de l’actif Z avec le benchmark J+1 VWAP au prix limite J-1 Low. Compte

tenu de l’importance de cette catégorie, ce point sera développé plus loin.

• Les algorithmes orientés routage. Ils permettent le séquençage et le routage d’un ordre en

fonction de critères spécifiés par l’utilisateur. On peut citer le prix ou la vitesse d’exécution. De

plus, ils permettent aussi une évaluation fine de la plateforme d’échanges et notamment de la

qualité de la liquidité via un mécanisme de tests. Les plus performants concernent aussi les

ATS.

• Les algorithmes orientés sur la capture d’informations. Ils ont pour objet le filtrage et le

séquençage de données d’actualités ou historiques à partir de sources et de supports

multiples. Il peut s’agir de modules dans le cadre de stratégies alpha ou d’une aide à la

décision pour les opérateurs humains.

Page 23: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

23

Trading haute-fréquence

Le HFT est un phénomène relativement nouveau dans le monde de l'AT. Il n'existe pas de définition

établie. Les caractéristiques de cette activité sont :

• Un volume d'ordres et une fréquence de passages d'ordres très importants.

• Un volume très important d'annulations d'ordres.

• Une activité essentiellement localisée sur des petites entreprises propriétaires (pas d'apports

de capital).

• Les actifs achetés ne sont conservés que sur une très petite période et les positions sont

débouclées avant la fermeture des marchés.

• Un profit très faible sur chaque transaction.

• Un impératif de rapidité dans la transaction.

Les firmes HFT sont généralement propriétaires. Elles opèrent à partir d'un capital qui leur est

propre. Elles constituent autour de 48% des acteurs HFT, comme Getco, Optivern et Tradebot. 46%

sont des desks qui dépendent de courtiers ou de distributeurs comme Goldman Sachs ou Citigroup et

6% sont classés comme hedge-fund (capital fourni par des clients), Citadel ou Renaissance

Technologies. Les acteurs HFT opèrent sur toutes les classes d'actifs et sont particulièrement présents

sur les produits actions très liquides.

Le HFT n'est pas une stratégie mais un moyen constitué à partir d’une technologie performante sur

lequel des stratégies ont étés élaborées ou adaptées. Sur la partie animation de marchés, les systèmes

HFT permettent de minimiser le risque dans la création de cotations et d'agir sur un spread très fin. La

partie arbitrage, dépendante par nature de la rapidité dans l'opération, capitalise naturellement sur la

performance des systèmes HFT.

Les acteurs HFT sont devenus incontournables sur les marchés électroniques. Les estimations

actuelles, sur les marchés d'actions au niveau mondial, donnent un volume supérieur à 50% pour les

transactions dites haute-fréquence. Les perspectives de l'autorité des marchés financiers américaine

(SEC) et du Boston Consulting Group estiment que ce chiffre atteindra 70% aux USA comme en

Europe d'ici 2015. Le Committee of European Securities Regulators donne pour les acteurs haute-

fréquence, en pourcentage de l'activité globale d'une place, 13% pour le NASDAQ et 40% pour Chi-X

Europe - le marché d'actions alternatif européen.

Page 24: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

24

Les algorithmes orientés exécution d’ordres

On distingue trois grandes catégories d’algorithmes en fonction de l’objectif de l’exécution.

Les algorithmes qui visent à limiter l’impact d’un volume d’ordres important sur le ou les marchés

cibles de manière à conserver un prix proche du prix initial durant la transaction et à masquer autant

que possible une brusque modification dans l’offre ou la demande. La première génération comprend

les algorithmes fondés sur un prix moyen (TWAP, VWAP) et dont l’efficacité est évaluée par un

benchmark.

• Time Weighted Average Price (TWAP) : il s'agit de la division d'un volume d'ordres important

sur un même actif et sur une plage de temps séquencée en intervalles identiques. L'algorithme

séquence le volume avec l'objectif de minimiser l'impact sur le marché et la détection de

l'exécution par les autres acteurs.

• Volume Weighted Average Price (VWAP) : il s'agit d'un procédé par lequel une transaction sur

un gros volume va tenter d'imiter l'évolution normale, comme par exemple l’historique du

prix d'un actif de manière à, tout comme TWAP, minimiser l'impact sur le marché. VWAP

représente aussi un benchmark pour l'exécution d'un volume d'ordres et permet, à l'aide

d'autres indicateurs, de définir une performance par rapport au VWAP du jour ; la théorie

voulant qu'une valeur inférieure constitue une transaction performante.

La seconde génération, plus évoluée, prend en compte des paramètres dynamiques absents dans la

première génération et qui favorisent le caractère opportuniste. Contrairement à la première

génération qui fonctionne sur une base statistique et dont l’exécution est prédéterminée, la seconde

génération possède un degré d’autonomie et réagit en fonction de l’évolution du marché.

L’algorithme Percentage of Volume (POV) illustre le principe : il est fondé sur une exécution, à

intervalles réguliers, d’un pourcentage du volume des unités d’un actif échangé au cours de ces

intervalles.

Les algorithmes orientés coût visent à limiter le coût associé à une transaction avec la notion de risque

temporel défini comme le risque naturel que le prix s’éloigne du prix initial (Implentation Shortfall,

Adaptative Shortfall, Market Close).

Enfin, les algorithmes opportunistes intègrent tout un ensemble de paramètres dynamiques qui

détermine totalement leurs comportements. Ils opèrent ainsi en fonction du prix, de la liquidité

disponible et du coût de la transaction.

L’évaluation relative au choix d’une modalité de transaction, d’un algorithme donné ou d’une

combinaison d’algorithmes est déterminée par le choix d’un benchmark et d’une méthode

d’évaluation de la performance ainsi que par le degré d’aversion au risque. Le principe directeur veut

qu’une exécution rapide garantisse un coût évaluable mais élevé et qu’une exécution en dégradé

permette la réduction du coût de transaction au détriment d’un délai plus important et d’une

Page 25: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

25

incertitude relative à l’évaluation du coût global. Le choix d’une méthode est aussi fonction d’une

analyse du contexte d’exécution. Les principales variables sont le volume associé à l’ordre, la

dynamique du prix, la volatilité du prix et la liquidité de l’actif.

A ces grandes familles d’algorithmes, on peut ajouter un certain nombre de procédés tactiques qui

visent à exploiter une situation, un contexte ou une opportunité. Contrairement à un algorithme

d’exécution, ces procédés n’ont pas pour objectif de fournir un résultat opérationnel définitif : il ne

s’agit pas d’assurer l’exécution d’un volume d’ordres mais de faciliter leur exécution ou de la rendre

plus performante.

Enfin, les algorithmes élaborés qui tiennent compte des évolutions du marché en termes de prix, de

volatilité ou de risques associés à une situation, incorporent des modèles de prédictions ou de gestion

d’évènements. Les modèles de prédictions sont en général associés au volume fondé sur des

tendances historiques ou sur le prix en fonction d’un déséquilibre éventuel au niveau de l’offre ou de

la demande et de manière général sur une étude de la constitution du carnet d’ordres. De même, des

modèles prédictifs sur la liquidité du marché ou sa volatilité fondés sur des données historiques

associées à des modèles mathématiques (Generalized Autoregressive Conditional Heteroskedasticity -

GARCH, Autoregressive Moving Average Model - ARMA) ou à une étude comparative cross-assets

(action/options, action/index) permettent d’accroître la performance d’une opération. La gestion des

évènements occupe une place importante et touche autant l’activité en dehors du marché et l’actualité

que l’activité au niveau du marché.

Systèmes de routages d’ordres intelligents

Les systèmes de routages d'ordres intelligents (Smart Order Routing – SOR) ont pour tâche l'exécution

optimale d'un ordre en fonction d'un nombre donné de sources de liquidité. Ils assurent un passage

d'ordres qui limite au maximum l'impact sur le marché et sur les cotations les plus intéressantes. Ces

systèmes sont temps réel et couvrent toute la partie transactionnelle, du passage de l'ordre aux

opérations de règlement et de compensation.

Page 26: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

26

Ces systèmes utilisent typiquement des flux de niveau 2 (visibilité sur la profondeur du carnet

d’ordres) et s’appuient sur plusieurs techniques destinées à manipuler la microstructure des marchés

de manière à maximiser les chances d’obtenir un résultat performant.

Un processus de traitement type pour un ordre, sur un gros volume d’unités, se décompose en une

phase de reconnaissance (probing) sur plusieurs sources de liquidité de manière à tester la profondeur

réelle du carnet, c’est-à-dire en tenant compte des éventuels ordres cachés et de cibler (sniping) un

marché ayant assuré le traitement immédiat de l’ordre.

Typologie des sources de profit

Animation de marché et fourniture de liquidité

Le terme animation de marché (market marking) fait référence au placement simultané d'ordres limites

à la vente et à l'achat pour un actif de manière à profiter de la différence de prix entre l'offre et la

demande pour ce même actif (spread bid/ask). Cette activité peut être imposée légalement pour les

entreprises en charge d'un marché ou volontaire, c'est-à-dire sans obligation de proposer une

cotation. Les animateurs de marché utilisent généralement un système informatique pour la création,

la suppression ou la modification des cotations en fonction d'une stratégie établie. De fait, une

stratégie d'animation de marché performante implique la nécessité de pouvoir recomposer

rapidement ses positions sur les carnets d'ordres et convient ainsi parfaitement à des acteurs qui

capitalisent sur la vitesse d'exécution. Les sources de revenus d'une telle activité proviennent de

l'écart entre l'offre et la demande et, suivant la politique de rémunération du marché, la prime acquise

par le fournisseur de liquidés.

Cette stratégie est tout à fait adaptée aux opérateurs HFT. Certains sont d'ailleurs des animateurs de

marché désignés : c'est le cas de Getco pour le NYSE/Euronext depuis 2010. Un animateur de marché

intervient à l'achat ou à la vente sans rechercher un profit spéculatif. Il se porte acquéreur ou vendeur

de manière systématique en ajustant son prix de manière à tirer un bénéfice de l'écart entre le prix de

vente et d'achat. L'activité de teneur de marché permet de limiter l'écart entre l'offre et la demande

(réduction des spread), ce qui a pour objet en retour de favoriser la liquidité et d'affiner le processus de

découverte des prix. Le gain de la stratégie dépend de la finesse des cotations (création et mise à jour)

de l'animateur de marché et d'une gestion du risque efficace.

L'activité d'animateur de marché est tout à fait adaptée à l’utilisation d’un algorithme. En effet, d’une

part les gains générés ne peuvent plus justifier l'emploi ou le maintien d’une masse salariale (cas de

la décimalisation des prix au début des années 2000 qui a précipité la disparition des teneurs de

marché sur les grandes places américaines), d’autre part, la vitesse des opérations pour les teneurs de

marché devient alors capitale pour assurer le succès de cette stratégie.

Page 27: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

27

Dès lors que les cotations à l'achat ou à la vente sont suffisamment attractives d'un côté comme de

l'autre, le teneur de marché termine ses transactions avec une balance positive et un stock nul. Le

volume du bénéfice tient alors au volume de transactions effectué par l'opérateur. Le moyen d'assurer

un volume de transactions maximum tient en la capacité du teneur de marché à rester en première

position du carnet d'ordres à l'achat ou à la vente. Les priorités sur les transactions à la vente et à

l'achat, au niveau des carnets d'ordres, sont déterminées par la qualité du prix puis par la précédence

des ordres. Un ordre d'achat à 5.49/10:31:30:427 est prioritaire sur un ordre d'achat à 5.50/10:31:30:425

mais un ordre d'achat à 5.49/10:31:30:427 est prioritaire sur un ordre d'achat à 5.49/10:31:30:428. Dès

lors, la vitesse d'exécution devient capitale dans le succès de la transaction : une nouvelle information

mise à disposition du marché a un effet sur l'offre et la demande ; l'opérateur qui a les moyens de

modifier sa structure d'ordres avant les autres peut ainsi positionner ses nouveaux prix en priorité et

donc bénéficier du nouveau spread.

L'activité du teneur de marché, évaluée de la position de l'investisseur, permet un spread fin, c'est-à-

dire une évaluation des prix la plus fine possible. La contrepartie est une volatilité plus importante

sur un intervalle réduit. D'une certaine manière, l'investisseur, avec un animateur de marché

compétent, paie moins pour chaque transaction même si le volume exact de ce gain est

proportionnellement variable. L'utilisation de plateformes informatiques permet un traitement moins

onéreux et plus efficace que le maintien d’équipes d'animateurs de marché.

Arbitrage

Une opportunité d'arbitrage représente une information manquante au niveau du marché qui se

traduit par un écart anormal dans l'évolution du prix de deux actifs corrélés de manière plus ou

moins explicite. Un exemple type est une action et une option d'achat sur cette action. Ces

opportunités sont traquées par une classe d'opérateurs, les opérateurs orientés arbitrage dont la

performance est liée à la qualité des modèles et des programmes associés qui permettent d'isoler ces

corrélations ainsi qu’à la vitesse à laquelle l'opération d'arbitrage peut être exécutée. L'arbitrage fondé

sur des corrélations est baptisé « arbitrage statistique » dans la mesure où la définition des

corrélations est effectuée sur une base statistique.

Les grandes modalités d'arbitrage statistique couvrent :

• L'arbitrage dit neutre au marché (market neutral arbitrage) qui représente un couple

d'investissements avec une vente à découvert (position courte) d'un actif et l'achat d'un autre

actif (position longue), tous les deux intimement corrélés. Ainsi, quelle que soit l'évolution du

marché, l'investisseur ne sera exposé qu'au risque de performance intrinsèque à l'actif, soit

dans le cas d'un arbitrage, d'une corrélation infondée. L'opération est profitable dès lors que la

position courte touche un actif de valeur estimée moindre à celle de l'actif choisi pour la

position longue.

Page 28: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

28

• L'arbitrage entre marchés ou entre classes d'actifs représente l'activité d'arbitrage

fondamentale. Un actif dont le prix est différent sur une autre plateforme d'échanges ou par

rapport à un dérivé, le prix du sous-jacent évolue alors de manière différente et constitue

l'objet d'une opportunité d'arbitrage.

Un certain nombre de stratégies capitalise exclusivement sur la performance en matière d'acquisition

de données qui proviennent des plateformes d'échanges. Qualifiés de prédateurs dans la mesure où

ces algorithmes cherchent généralement à détecter une demande pour profiter de la montée des prix

et par cette opération ils contribuent à une augmentation non justifiée du coût des opérations. Les

systèmes qui mettent en œuvre ces stratégies sont fondés sur des infrastructures en colocation ou, si

les marchés le proposent, sur des ordres flash.

L'ordre flash (Flash Order) est un système mis en place par les marchés américains suite au passage de

la Reg NMS et de l'obligation d'exécuter un ordre à la meilleure offre nationale. A la réception d'un

ordre, si celui-ci n'est pas exécutable sur la plateforme d’échanges, cette dernière rend disponible,

durant quelques millisecondes, l’ordre à une sélection d'opérateurs, laissant ainsi le temps de placer

une cotation qui permet l'exécution de l'ordre sur la place. Ce système, fondé sur la vitesse

d'exécution, ne concerne que les acteurs qui disposent d’infrastructures suffisamment performantes

pour en profiter. Le caractère éthique des ordres flash a souvent été abordé car ils constituent

effectivement un marché à deux vitesses. Le régulateur américain n'a pas encore imposé une

règlementation sur ce point. Très controversée, cette pratique a été abandonnée par le NASDAQ et

BATS : le régulateur américain, la SEC, a annoncé en 2009 qu’il étudierait la possibilité d’interdire les

ordres flash.

Stratégie de trading haute-fréquence

Les opérateurs HFT peuvent être de natures diverses. Généralement, il s'agit de petites structures

dédiées à cette activité, de hedge-funds spécialisés dans les stratégies de trading quantitatif ou de

courtiers. Chacune de ces acteurs possède un business model qui lui propre.

Les stratégies HFT sont nombreuses et souvent opaques. Néanmoins, la notion de stratégie HFT fait

généralement référence à un moyen d'exécution plus qu'à un type spécifique de stratégie.

Effectivement, une typologie peut être élaborée sur la base de grandes familles de stratégies de trading

qui bénéficient de l'apport de systèmes informatiques rapides.

• Une stratégie orientée capture du spread (spread capturing) capitalise sur des moyens d'accès

très rapides au marché pour créer, modifier ou supprimer à la vente et à l'achat des ordres

limites, leur permettant ainsi de réaliser un profit égal au spread. Les stratégies orientées sur la

capture de la rémunération du marché (rebate driven) capitalisent sur une création agressive de

cotations de manière à pousser à la transaction, même défavorable pour l'acteur, qui sera

Page 29: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

29

compensée par la prime reversée par le marché. Les profits potentiels d'une telle activité sont

importants : les primes reversées par Chi-X en 2009 atteignent 17 milliards de dollars.

• Plusieurs stratégies, typiquement HFT, ont pour objectif de détecter sur un marché les grands

mouvements en matière de liquidité de manière à les exploiter. Les stratégies de détections

visent à isoler l'action des algorithmes de passage d'ordres et à évaluer l'état des carnets

d'ordres. Les moyens sont nombreux et tournent essentiellement autour d'un positionnement

actif ou passif sur le carnet d'ordres de manière à générer de l'information sur la situation de

l'offre et de la demande.

• Une stratégie de cotations parallèles capitalise sur la vitesse de passage d'un ordre pour

bénéficier d'une opportunité liée à un grand mouvement de liquidité. Par exemple, un ordre

limite à l'achat sur un gros volume à 20,00 euros peut être exploité en proposant

immédiatement un ordre d'achat à 20,01 euros qui sera prioritaire. Les actifs sont ensuite

revendus à l'acheteur initial après que le volume de demandes ait assuré l'augmentation du

prix. Dans le cas où le prix baisse, les actifs peuvent toujours être revendus à l'acheteur initial

pour limiter les pertes.

Quelques exemples permettent de mieux comprendre l'action d'un opérateur HFT :

Un opérateur souhaite vendre un volume d'actifs. Le meilleur prix à l'achat est de 5,50 euros.

L'opérateur HFT est informé du passage de l'ordre, un ordre limite qui propose une faible quantité à

un prix très faible est activé et choisit de pousser l'offre en postant d'autres ordres de vente, ce qui a

pour effet de vider la partie demandes du carnet. Dès que la partie demandes est effectivement vide,

l'opérateur HFT passe des ordres de vente à un prix légèrement inférieur à celui d'origine, par

exemple, 5,48 euros en tenant compte de l'évolution naturelle du prix, ce qui a pour effet de placer

l'opérateur HFT en première position de la partie demande du carnet. Cette opération demande une

rapidité extrême afin de court-circuiter l'animateur de marché en charge de la contrepartie sur chaque

actif de la plateforme d'échanges. L'opérateur qui souhaite liquider sa position doit désormais vendre

à 5,48 euros, ce qui a pour effet de générer un profit de 0,02 euros pour chaque actif pour l'opérateur

HFT. Par ailleurs, l'opérateur HFT, via un séquençage fin des ordres d'achats, peut déterminer

lorsque la liquidité s'assèche et se repositionner à la vente à un prix sensiblement supérieur. Si

l'opérateur HFT a effectivement encaissé des pertes sur les transactions initiales (achat à 5,50 euros),

elles sont contrebalancées par les gains sur les transactions ultérieures. La capacité à passer très

rapidement des ordres et à changer de posture dès que la situation change est un déterminant dans le

succès de cette approche.

Un évènement laisse suggérer que le prix d'un actif va être amené à augmenter. L'actif vaut 5,50 euros

et les ordres d'achat commencent à remplir le carnet d'ordres. L'acteur HFT devance les autres acteurs

et achète un maximum d'actifs au prix initial. Suite à cette opération et capitalisant toujours sur une

vitesse importante, l'acteur HFT exécute une série d'ordres d’exécution ou d’annulation (fill or kill)

pour évaluer le prix maximum auquel les autres acteurs pourraient être disposés à acheter, comme

par exemple sur un intervalle [6 euros,5.75 euros] où 5,75 euros est exécuté. Connaissant le prix

maximum de l'actif, l'acteur HFT peut vendre son stock pour un profit maximum.

Page 30: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

30

Conclusion

La structure et l'activité des marchés ont considérablement évolué. Les plateformes d'échanges et les

acteurs sont plus nombreux et de types plus variés. Le degré d'informatisation est en augmentation

constante, à la fois au niveau des plateformes, des moyens d'accès aux marchés et des traitements sur

tout le processus de transaction. On note une diversification des acteurs fondée sur une spécialisation

de l'activité, que ce soit au niveau de l'intermédiation, des plateformes ou encore de la nature des

opérateurs. En parallèle, les fournisseurs de services informatiques, de solutions matérielles,

logicielles ou d'infrastructures ont considérablement augmenté. Enfin, la législation vise à favoriser la

liquidité par la compétition ainsi que par la transparence. De fait, la multiplication du nombre et des

types de plateformes de transactions alternatives est fonction directe d'un choix législatif.

La technologie a joué un rôle fondamental dans ces transformations en révolutionnant la structure

des plateformes, les moyens d'accès et les stratégies commerciales. Le rôle notable de la vitesse

d'exécution d'une opération dans l'appréciation de l'activité marché est la conséquence directe de

l'intégration des nouvelles technologies informatiques à tous les niveaux de l'activité. Le facteur de

latence est le dénominateur commun de la performance d'un opérateur, d’un intermédiaire ou d’un

fournisseur de services ainsi que du côté des investisseurs. L'émergence du HFT est à ce titre

particulièrement révélateur.

L’impact de l’innovation technologique sur les marchés financiers a été très important. Il a bouleversé

la structure des marchés, les modes d’actions et la manière de concevoir l’activité sur les marchés.

L'automatisation des moyens d'accès aux marchés a contribué à leur performance. Elle a aussi

renforcé l'efficacité des intermédiaires. Le processus de passage d'ordres s'effectue en flux tendu

(concept STP) et favorise ainsi la transparence, le volume et la fiabilité des opérations. L'accès à

l'information relative à l'activité des marchés est plus facile, plus rapide et moins cher. Les décisions

sont prises sur une base plus solide et les opérations de valorisation d'actifs sont plus fiables.

L'élimination des inefficiences via les opérations d'arbitrages est devenue plus fine et plus

performante. La rapidité d’accès au marché et d’exécution d'un ordre s’est considérablement accrue.

Ce facteur a donné naissance à de nouvelles stratégies, à de nouveaux acteurs (entreprises HFT,

éditeurs de solutions logicielles, constructeurs, ATS) et à de nouvelles infrastructures (colocation).

L'interopérabilité des systèmes favorise l'accroissement du volume de participation et la liquidité des

marchés. Les nouveaux moyens d'accès aux marchés ont déterminés l'émergence de nouveaux

acteurs et de nouvelles stratégies. L'innovation technologique a ouvert des champs d'activités

nouveaux et à transformer les conceptions et les pratiques de stratégies existantes.

Page 31: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

31

Les transactions automatiques sur les marchés : réseaux, systèmes

et applications

La problématique de la latence

Le traitement des activités de marché par les technologies nouvelles est évalué à partir de benchmarks

en millisecondes et dans le cas de technologies de pointes ou au niveau de domaines particulièrement

sensibles, en microsecondes. De l’avis général, si la norme d’évaluation devait passer à la

microseconde, l’effort en matière de recherche et de développement porterait sur un gain de l’ordre

de la nanoseconde.

La vitesse de la lumière est très rapide (autour de 300 000 kilomètres par seconde) dans l’univers

actuel mais aussi futur des transactions haute-fréquence, elle devient un facteur handicapant. En effet,

elle impose un délai incompressible dans une communication entre deux points géographiquement

distants, comme par exemple, 18 millisecondes entre les deux grandes places financières que sont

Londres et New-York. En parallèle, la puissance de calcul est en augmentation constante, que ce soit

en termes de puissance par unité ou d’unités disponibles à un instant T. 18 millisecondes ou 36

millisecondes avec le retour représentent 110 millions d’instructions sur un CPU 3GHz, volume

exponentiel verticalement via des processeurs plus performants et horizontalement, avec la

parallélisation du traitement sur d’autres CPU. De fait, dans le cadre d’un système temps réel à

haute-fréquence qui récompense le caractère opportuniste, définition adaptée aux activités marché,

l’opérateur qui maximalise le rapport temps/calcul est généralement gagnant.

Signe des temps, le procédé de colocation où un opérateur localise ses serveurs dans le datacenter de la

plateforme d’échanges est en passe de devenir une norme. Un système rigoureux d’évaluation des

distances à l’intérieur même du datacenter est garanti de manière contractuelle. La course aux

meilleures performances en matière de vitesse ne s’arrête pas pour autant : la performance des

programmes, de l’environnement d’exécution ou du support continue à jouer un rôle déterminant

dans le succès des opérateurs de marché.

La latence représente le temps entre deux évènements. Il peut s’agir du temps prit par un bit de

donnée pour passer d’une interface réseau à une autre, du passage d’un ordre à son exécution ou de

la durée prise par le trajet d’un paquet entre New York et Londres. La latence est définie ici comme la

durée entre l’occurrence d’un évènement et la réponse apportée. Une caractéristique fondamentale de

la notion de latence est le caractère prévisible : la certitude qu’une application répondra sur un

intervalle de temps donné. A la notion de latence, il faut donc aussi associer la notion de variations, la

gigue, (jitter) qui pondère la moyenne d’une latence sur deux évènements liés à une action sur un

réseau, telle que la transmission d’un paquet avec émission et réception. Elle représente les

phénomènes anormaux qui perturbent le signal.

Page 32: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

32

Les problématiques liées à l’architecture des systèmes informatiques d’une salle de marché, quel que

soit l’acteur concerné, sont fonction de la nature de l’activité d’un marché et d’un processus de

transactions en temps réel et à haute-fréquence. La spécificité de l’action d’un opérateur de marché

tient en la nécessité de traiter un volume d’informations considérable, mis à jour en continu et

provenant de sources multiples. Il doit être capable de réagir immédiatement à l’évolution de son

environnement et d’entreprendre une action potentiellement complexe, fonction elle-même d’un

processus d’analyse élaboré. L’impératif d’une action rapide et donc d’un traitement performant,

couvre toute la gamme d’acteurs des marchés financiers, qu’ils soient courtiers, animateurs de

marché ou simples opérateurs. C’est un élément déterminant de la qualité du système informatique

concerné. La sensibilité à la latence ne touche pas seulement les opérations front office mais aussi les

parties de gestion du risque qui doivent être capables de superviser en temps réel la situation des

portefeuilles de la structure ainsi que la partie conformité /compensation en charge respectivement

du respect de la réglementation et des opérations post-trade relatives à la livraison.

La présentation des données fondamentales associées au processus de transactions entre une

plateforme d’échanges et le système d’un opérateur offre une meilleure visibilité sur les métriques

utilisées.

Page 33: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

33

Algorithmic trading: Can you meet the need for speed? Detica White Paper, 2008

Le processus transactionnel se décompose en cinq étapes :

• La mise à jour des cotations relatives à un actif sur une plateforme d’échanges se situe entre 2

et 5 millisecondes. Le NASDAQ prétend atteindre une milliseconde pour cette étape, BATS

donne entre 400 et 500 microsecondes, le London Stock Exchange donne deux millisecondes

tout comme Deutsche Börse et NYSE/Euronext entre 3 et 5 millisecondes.

• La dissémination des prix, soit leur publication sur un canal dédié. La durée entre la mise à

disposition de l’information sur le canal et la réception par le système cible, au niveau

interface, se situe entre 4 et 5 millisecondes suivant la localisation du système cible au niveau

du territoire américain et sans prendre en compte les colocations.

• La durée associée à la génération d’un ordre est très variable. Un temps médian de 100

millisecondes est avancé par Peter Rubin de Cisco (2008) En fait, l’essentiel du délai est côté

opérateur.

• Le temps mis par le système de la plateforme d’échanges pour assurer l’enregistrement d’un

ordre est aussi très variable : entre 5 et 20 millisecondes pour les grandes plateformes. BATS

donne 5 millisecondes, NYSE/Euronext entre 10 et 25 millisecondes, NASDAQ donne 15

millisecondes.

Page 34: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

34

• La confirmation d’un ordre qui valide la réception par la plateforme d’échanges prend moins

de deux millisecondes, 500 microsecondes pour BATS, une milliseconde pour le NASDAQ,

deux pour NYSE/Euronext.

Compte tenu de la sensibilité en matière de délai d’une transaction sur les marchés, les sources de

latence se trouvent à tous les niveaux du processus de traitement informatique :

• Au niveau interface et réseau, dans le cadre du processus de communication, de sérialisation,

de transport et en fonction des protocoles de sécurité.

• Au niveau transactionnel, c’est-à-dire au niveau des flux traités qui intègrent une gestion

d’erreurs, une éventuelle notion de session et au niveau de la distribution des flux ou du

produit avec les traitements associés sur le système cible via un middleware.

• Au niveau système et application, c’est-à-dire le temps pris par un traitement analytique ou

un mécanisme d’exécution applicatif.

En réponse à l'attention toute particulière que porte l'industrie financière à la latence, un groupe de

travail, FIX Inter-Party Latency (IPL), a été récemment constitué pour définir les critères, les

indicateurs et les benchmarks relatifs à l'évaluation de la latence dans les transactions orientées

marché. L'objectif est de mettre sur pied une structure complète d'évaluation pour toute la gamme

d'acteurs des marchés sur la base de standards pour les mesures ainsi qu’au niveau des objets traités.

Un autre indicateur de l'importance acquise par la latence : la typologie des opérateurs. Une

distinction peut désormais être effectuée entre les opérateurs haute-fréquences et ultra haute-

fréquences. Les premiers capitalisent sur les moyens courants de réduire le délai dans la

communication avec les marchés alors que les seconds se tournent vers l'innovation technologique

pour assurer une performance maximum.

Page 35: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

35

Vue d’ensemble de l’architecture d’une plateforme d’échanges

Le processus de traitement de flux de cotations

Le processus de supervision de l’activité d’une plateforme d’échanges de produits financiers, qu’il

soit un marché ou un moyen alternatif d’accès à l’offre ou à la demande (ECN, ATS) est simple dans

son principe.

Les plateformes d’échanges produisent de l’information relative à l’état de l’offre et de la demande.

Ces flux de cotations dont le format varie en fonction de l’émetteur, primaire (la plateforme) ou

secondaire (partie tierce qui propose une consolidation des flux) ou encore du type de données

(niveaux 1 à 3 correspondant à la profondeur du carnet d’ordres) sont mis à disposition à qui en fait

la demande et contre rémunération. Sauf déploiement des serveurs du récepteur en colocation, en

connexion directe avec le réseau des plateformes d’échanges, les données sont transmises via Internet

à l’acteur concerné.5

Les flux réceptionnés sont traités de manière à être consommés par les couches supérieures de la

plateforme d’échanges (ou avant la transmissions à un autre acteur). L’opération implique une

5 Il existe des exceptions : Bloomberg possède son propre réseau physique, ce qui représente une plus-value considérable

Page 36: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

36

gestion des erreurs au niveau réseau et au niveau du contenu, une mise en cache pour les opérations

de consolidations ultérieures, un stockage sur support, un formatage et un transfert vers un parti

tiers. Le système cible peut être un client, dans le cas d’un courtier ou d’un opérateur dont l’activité

est orientée sur la gestion des flux, ou un système interne, généralement le bus de communication

dans une architecture orientée service. L’architecture de la plateforme de traitement de flux est

variable. Il peut s’agir d’un produit commercial ou d’une combinaison de modules réalisés en interne

et de produits commerciaux. Le gestionnaire de flux (feed handler), le gestionnaire de cache et de

stockage (cache server) ainsi que le module de routage (data hub) constituent les briques élémentaires

de la plateforme. Le détail de l’architecture et un descriptif des standards du marché sont présentés

plus loin.

Les consommateurs des flux traités sont nombreux et variables. Les outils décisionnels, qu’ils soient à

destination d’opérateurs ou entièrement automatisés, n’entrent pas dans le cadre de ce mémoire et ne

sont qu’évoqués. Les modules concernés par la prise de décision et l’évaluation du risque associée à

cette décision sont décrits plus loin. Le résultat du processus de décision suite à la consommation

d’un flux peut être un ordre d’achat ou de vente d’une certaine quantité d’un produit donné.

L’exécution de cet ordre est à la charge d’un composant (OMS ou OES) dont la tâche est de

sélectionner la meilleure plateforme d’échanges et de minimiser le coût de la transaction (impact sur

le marché et délai dans l’exécution de l’ordre). Les algorithmes d’exécutions d’ordres sont les plus

vieux composants des outils de trading automatiques. Utilisés par les courtiers ou par les acteurs qui

disposent d’une connexion DMA, ils ont pour tâche de séquencer le volume désiré dans le temps en

arbitrant entre la rapidité de l’exécution et le coût associé à la transformation de la relation entre

l’offre et la demande, suite à l’exécution de l’ordre. Le protocole de communication applicatif pour

les passages d’ordres peut varier. FIX reste néanmoins largement utilisé.

Les systèmes qui gèrent les transactions avec les plateformes d’échanges peuvent gérer la connectique

à ces plateformes par plusieurs moyens. Les accès DMA, déjà décrits, permettent d’assurer une

connexion directe avec une plateforme via les systèmes d’un intermédiaire, opérateur agréé d’un

marché. Le degré d’interaction avec les systèmes du courtier définit la nature du service qui peut

aussi couvrir les opérations pre-trade et post-trade

La colocation, soit le déploiement des serveurs de l’opérateur dans le datacenter de la plateforme ou à

une proximité immédiate, représente une autre alternative. Toutes les plateformes d’échanges

proposent ce service contre une rémunération importante et selon une gamme de fonctionnalités très

riche qui vont de la location d’un espace physique jusqu’à la gestion complète des transactions avec

le système hôte. Les hébergeurs, comme Saavvis, proposent aussi des solutions de colocations.

À titre d’exemple, BATS propose trois types de connectiques :

• Un système de colocation sur deux datacenters (New Jersey et Chicago).

• Un extranet fourni par un parti tiers, comme BT Radianz et Fixnetix.

Page 37: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

37

• Une ligne Ethernet privée, 1Go ou 10Go, à partir de deux datacenters.

Toutes les plateformes d’échanges ont une offre similaire, souvent via les mêmes intermédiaires. Le

NASDAQ propose aussi une connectivité directe via quatre opérateurs (Con Edison, Level 3, Verizon

Business, Yipes) ou un extranet via BT Radianz ou Saavis en plus des services de colocation.

Le délai dans une communication réseau est lié aux facteurs suivants :

• À la propagation, soit au temps mis pour une information à parcourir une distance donnée à

la vitesse de la lumière. Le facteur de vélocité définit la différence entre la vitesse sur un

média donné (cuivre, fibre optique) et la vitesse à l’air libre. La vitesse de propagation dépend

du support de transmission (70% de la vitesse de la lumière sur un câblage fibre optique, 65%

sur un câblage coaxial, 40% à 70% sur un câblage cuivre). Au délai associé à l’envoi, s’ajoute

l’action des appareils de transmission et de retransmission dans le cadre de la fibre optique,

des routeurs avec la mise en files des paquets, des procédures de sécurité et des systèmes de

gestion de charges (load balancer et éventuellement deep packet inspection).

• Au processus de sérialisation, c’est-à-dire au temps passé pour effectuer la conversion d’une

donnée stockée en mémoire en un flux qui peut être transmis sur un réseau. A cette charge,

s’ajoute les contraintes propres à la communication entre composants matériel d’une unité

informatique, gestion des interruptions (Interrupt Service Routine), accès à la mémoire centrale

et propagation sur les bus de l’unité.

• Au protocole utilisé pour le transport, c’est-à-dire à la méthode utilisée pour la transmission

des paquets et la gestion de la communication.

Couches matériels et réseaux

De manière à réduire la latence au maximum et compte tenu du fait que les délais dans une

communication tiennent pour l’essentiel aux opérations I/O entre les matériels, une architecture

haute-fréquence héberge l’intégralité des modules qui assurent le traitement sur une même machine.

La gestion des flux et leur consommation par les unités décisionnelles se font donc sur une même

machine, virtuelle ou physique. Ironiquement, la réduction de la latence passe par la simplification de

l’architecture : moins de serveurs, moins de processus, moins de délais. Le transfert de données

représente le cœur de l’activité d’une plateforme d’échanges. Une entreprise de trading haute-

fréquence, en 2010, traite plus de 400 Go de données de marché par jour et autour de 20 Go de flux

FIX, soit autour de 1.5 To si l’on tient compte des transmissions annexes.

La première source de latence est le processus de sérialisation. Il s’agit du délai entre la création d’un

paquet par l’interface réseau et sa transmission à la ligne. Ce délai peut être réduit par l’utilisation

d’une ligne Ethernet 10 Go qui offre à l’heure actuelle les meilleures performances.

Page 38: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

38

La seconde source de latence est la propagation, soit le délai lié à la transmission du paquet.

Le délai nécessaire à la transmission des paquets sur le réseau constitue une source naturelle de

latence entre l’envoi d’un paquet et sa réception par une machine distante.

Plusieurs solutions existent pour traiter ce problème :

• Une ligne Ethernet haut débit, typiquement Ethernet 10 Go.

• Infiniband, un bus haut débit conçu pour la gestion de charges importantes qui implémente

notamment la technologie Remote Direct Access Memory (RDMA). Infiniband et la technologie

RDMA sont décrits plus loin.

Page 39: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

39

• Un câblage fibre optique. L’avantage associé aux lignes en fibres optiques tient,

potentiellement, à l’absence des opérations de sérialisation IP/Ethernet dans les réseaux

classiques. En effet, le routage via fibre optique propose une alternative aux opérations de

sérialisation classiques (Optical cross-connect), transitions optique/électronique, via les

Reconfigurable Optical Add-Drop Multiplexers (ROADMS) qui maintiennent le signal optique de

l’envoi jusqu’à la réception.

• Un système de compression performant. La compression des paquets apporte en effet

beaucoup à la performance du transfert. Le gain est notable malgré les cycles de CPU

nécessaires aux opérations de compression/décompression.

La troisième source de latence est la vitesse de propagation nominale sur un switch, soit le délai de

transmission d’un paquet via un switch. Plusieurs méthodes permettent de réduire ce délai.

• Cut-through switching, une méthode de traitement des trames fondée sur la propagation d’une

trame Ethernet avant réception de la totalité de celle-ci.

• La compression, un trade-off entre le temps réduit pour le transport et le temps CPU passé

pour assurer la décompression du paquet.

La quatrième source de latence concerne la performance de l’algorithme en charge de la mise en files

des paquets. Cisco propose un ensemble de solutions logicielles et matérielles pour traiter ce

problème. Baptisée Low Latency Queuing, cette technologie est fondée sur une notion de priorité

associée à un paquet de manière à privilégier le traitement d’un flux de paquets par un matériel

réseau. Par ailleurs, la gestion des paquets par piles TCP est paramétrable : il est possible de modifier

ou de désactiver des protocoles de contrôle algorithmique en charge du traitement des paquets de

manière à optimiser le temps de traitement. Enfin, un outil de monitoring de l’activité du système

permet de cibler les sources de latence dans la transmission ou le traitement de l’information, tels que

le Bandwidth Quality Manager (BQM) et le IP SLA de Cisco. Plusieurs produits spécifiques au monde

de la banque existent, comme CorvilNet, AON Financial Services Latency Monitoring Solution pour les

gestionnaires FIX.

La cinquième source de latence est le délai de retransmission lors de la perte d’un paquet. Le choix

d’une méthode de retransmission (mise en files ou abandon) détermine dès lors la performance du

traitement.

Couche Transport & Session

Le processus de copie des buffers réseau au niveau des interfaces vers les buffers du système

d’exploitation constituent, avec la commutation de contexte, la principale source de latence.

Page 40: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

40

Plusieurs approches existent pour traiter ce problème ou pour le contourner. La technologie TCP

Offload Engine propose de déléguer à l’interface réseau la gestion de la pile TCP. TCP Segmentation

Offload permet au noyau de passer un buffer à l’interface réseau plus important que le maximum

autorisé par l’unité de transmission de l’interface. De même, l’optimisation de la pile TCP/IP permet

de réduire à la fois la taille du paquet et le processus de traitement. Enfin, un système d’exploitation

adapté aux traitements temps réel, de type Montvista ou RT Linux, permet de gérer au mieux les

interactions des différents matériels, notamment la synchronisation entre l’accès à la RAM et les

cycles de CPU.

La technologie Remote Direct Memory Access (RDMA) propose une solution similaire : elle permet à

une machine de transférer une donnée directement sur la mémoire de la machine cible, évitant ainsi

la duplication des buffers lorsque la donnée est transmise au système d’exploitation. Cette technologie

qui est au cœur du système Infiniband est décrite plus loin.

Processus de traitement RDMA - InfiniBand Trade Association, 2011

Enfin, les protocoles TCP et UDP présentent chacun des problèmes qui leurs sont propres pour un

système qui recherche une performance maximum. TCP nécessite un socket par connexion et UDP

une copie du flux pour chaque destinataire. Le multicast permet d’assurer le transport d’un flux

donné pour X destinataires en une seule transmission. De nombreux middlewares commerciaux, tel

Page 41: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

41

que Tibco Rendez Vous (RV), proposent un service de communication extranet multicast fondé sur

un système d’abonnements à un sujet.

Anatomie d’une plateforme de transactions automatiques

Une plateforme de transactions automatiques est un ensemble de matériels et de programmes qui

permet à un opérateur de recevoir, de traiter, de gérer, de surveiller et de distribuer des données

relatives à l’activité d’un marché financier.

Les composants élémentaires d’une plateforme de transactions automatiques sont :

• Un gestionnaire de flux de cotations qui traite les flux de cotations en provenance des marchés

ou d’intermédiaires. Ce composant est généralement intégré dans un système qui comprend

un cache et un module de routage pour les clients du gestionnaire. Dans le cadre d’une

plateforme de transactions automatiques, les clients du gestionnaire sont principalement les

automates de trading, les modules de valorisation et les modules de gestion de risques temps

réel.

Page 42: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

42

• Un composant de gestion du risque. Celui-ci couvre à la fois la supervision des portefeuilles

en temps réel et la production des indicateurs journaliers de type VAR ou risque de

contrepartie.

• Un composant de gestion/exécution d’ordres qui prend en charge la création et le routage

d’ordres en fonction des demandes des automates de trading. Ce composant intègre

généralement un gestionnaire de flux FIX.

• Un système de stockage qui gère les dépôts de données de marché, les données relatives aux

transactions et les données back-office.

Le gestionnaire de flux de cotations

Le principal composant d’un système de flux continu est le gestionnaire de flux de cotations (feed

handler). Il a pour tâche la réception et la normalisation de flux provenant de sources multiples :

marchés ou plateforme d’échanges alternatives, agrégateurs de flux tiers, comme Morningstar,

Fidessa, Interactive Data Corporation. Les flux normalisés sont ensuite traités par les autres

composants (décodage et nettoyage, mise en cache, analyse) puis mis à disposition des autres

systèmes de la structure ou de la plateforme d’échanges avec des systèmes tiers.

Les flux de cotations n’obéissent pas à un format standard. Chaque plateforme d’échanges possède

les siens et il existe une multitude d’agrégateurs de flux tiers (RDF-D, Bloomberg B-Pipe RWT, BPSD,

Wombat). Les flux de cotations, pour des raisons évidentes de performance, sont envoyés via UDP

multicast.

Un gestionnaire de flux typique est constitué de trois modules :

Page 43: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

43

• Le processeur de flux qui a pour charge la réception du flux selon la méthode de transaction :

TCP, UDP ou le media (Infiniband) et son formatage.

• Le cache qui stocke les données traitées. Le rôle du cache est de permettre la consolidation des

flux grâce à la sauvegarde des traitements précédents. Un flux incomplet ou erroné peut être

ainsi traité et mis à disposition des différents clients.

• Le gestionnaire d’accès qui prend en charge les connexions clients suivant un ou plusieurs

protocoles d’accès : point to point (P2P), multicast, Internet.

A ces trois modules s’ajoute le dépôt de données pour l’historique des flux qui permet un volume de

stockage plus important sur disque et qui est utilisé dans le cadre de traitements moins sensibles à la

latence. L’industrie possède plusieurs standards, tels que : Reuters Market Data System (RMDS),

Wombat, Bloomberg, Quant House, Infodyne (IBM), Real Time Innovation (NYSE Technologies),

Exegy. RMDS est un système complet avec son propre support matériel. Il assure une normalisation

du flux sur un format donné et la gestion d’un cache élaboré avec notamment une fonction de load

balancing. Reuters propose aussi un terminal pour l’utilisateur final, 3000Xtra dont les fonctionnalités

et le principe sont similaires au terminal Bloomberg. Wombat présente une plateforme de

transmissions de flux qui ne propose aucun traitement intermédiaire et qui est fournie sous la forme

d'un logiciel sans infrastructure matériel associée. Bloomberg propose une suite matérielle et

logicielle complète fondée sur un réseau propriétaire sous la forme d’un serveur et d’un terminal.

Page 44: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

44

Système d’opérations, services de stockage et middlewares

Les systèmes d’opérations utilisés dans l’industrie financière sont très variés. Sur la partie serveur,

Solaris (x86 comme X64) est très présent, mais aussi HP-UX ou AIX et les distributions Linux. De

nombreux produits propriétaires orientés activités de marché sont, par ailleurs, construits sur un

noyau Linux, Red Hat, qui reste la distribution la plus répandue. Windows Server est aussi largement

déployé, principalement sur les systèmes back-office. La récente faillite d’un système front-office fondé

sur Windows Server chez le London Stock Exchange ne laisse pas augurer un développement positif

de Windows Server sur ce périmètre. Windows est, par contre, très largement déployé sur les postes

de travail.

RMDS est une plateforme d’acquisition et de routage de données de marché très répandue et l’un des

grands standards en matière d’acquisition de flux de données consolidés ou bruts. Le gestionnaire

d’accès de RMDS 6 permet le Point to Point, le multicasting, une transmission via Internet ou un réseau

sans fil. RMDS est une application uni-thread, ce qui suppose une opération de montée en charge

horizontale par ajout de nouvelles machines. De fait, la montée en charge est consommatrice d’une

puissance de calcul et de stockage qui pourrait être utilisée de manière plus efficace.

Le système d’exploitation Solaris 10, largement utilisé dans la banque, apporte un ensemble de

solutions adapté aux problèmes liés au déploiement de RMDS. De manière à utiliser au maximum les

ressources matérielles de la machine sur laquelle l’application est déployée, un système de

virtualisation doit être mis en place. Solaris 10 propose une fonctionnalité intégrée de virtualisation

sur la base de conteneur. Un conteneur global, le système déployé sur la machine, peut prendre en

charge un volume de conteneurs fils qui se comportent comme autant de clones du système et sur

lesquels peuvent être déployées des applications différentes. Un conteneur est en fait un système

virtuel dont les ressources, en terme de puissance matériel, peuvent être paramétrées (CPU, RAM,

bande passante) et dont chaque thread peut bénéficier d’un système très fin de priorités (scheduling

classes). Déployé dans le cadre d’un système client /serveur P2P, Solaris permet de gérer sur une

même machine un gestionnaire de flux et N applications clientes, assurant ainsi une communication

via la mémoire centrale et non plus par le réseau.

Parmi les grands standards de l’industrie en matière de middlewares ou d’architectures orientées

services, on peut citer Websphere MQ (IBM) qui est une plateforme dédiée aux échanges haute-

fréquence sur les marchés financiers : WebSphere MQ Low Latency. Informatica (ex 29West) propose

également une solution middleware axée sur la réduction de la latence dans la communication entre

deux systèmes (Ultra Messaging). L’industrie financière utilise aussi massivement les systèmes de

Tibco (Rendez Vous) qui, avec WebSphere, représente le leader en matière de systèmes middlewares

dans ce secteur. Il est important de noter que Reuters propose aussi une solution complète de

traitement et de distribution de données, Reuters Enterprise Platform (REP). Cette solution est fondée

sur trois grands modules : Reuters Market Data System (RMDS), le gestionnaire de flux de cotations

Page 45: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

45

de Reuters, déjà présenté, Reuters Reference Data System (RRDS), une plateforme de stockage et de

consolidation de flux de cotations, Reuters Enterprise Intégration Engine (REIE), un système de

distribution de données fondé sur RMDS et RRDS.

Reuters Market Data System (RMDS) est une suite logicielle qui permet la distribution des données

Reuters Real-Time Data ainsi que d'autres flux de données de marché qui proviennent de partis tiers.

RMDS utilise plusieurs protocoles réseaux (TCP, UDP et Multicast) pour assurer le transfert de flux

temps réel via un protocole de communication applicatif, Reuters Sink Source Library (RSSL) ou

Reuters Reliable Control Protocol (RRCP). Le principal logiciel de la suite RMDS est le Reuters Data

Feed (RDF). Déployé comme client chez le consommateur de flux, il est alimenté à partir des

datacenters de Reuters. RDF est responsable de la distribution du flux de cotations consolidé

(IDN_RDF) au Market Data Hub (MDH) du client. Le MDH se connecte au RDF via RSSL pour

obtenir les flux et les route ensuite aux applications clientes. La connectique des applications clientes

du MDH est assurée par Point to Point Server (P2PS) via un broadcast UDP ou Real-Time In-memory

Cache (RTIC) au moyen, dans le dernier cas, d'un middleware, généralement Tibco RV, et via

multicast. Reuters Wire Format (RWF) est le moyen de transporter des messages au format Open

Message Model (OMM). Ce dernier permet la représentation de structures complexes et intègre un

modèle de requêtes élaboré. OMM est composé de RSSL et des interfaces RFA qui permettent la

publication, l'abonnement et la manipulation de données. Un autre format, Reuters Domain Model

(RDM) permet la définition de types de données très spécifiques, par exemple un carnet d'ordres. Il

spécifie comment les requêtes, les réponses et les messages doivent être structurés.

Page 46: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

46

Dans l'univers des bases de données attachées à un système temps réel, le stockage sur DRAM est

souvent présenté comme la nouvelle modalité de stockage (« RAM is the new disk »). En fait, éviter les

accès I/O à un disque ou à une unité Flash réduit considérablement les temps de traitement et la

consommation en temps de CPU. Dans le cadre d'opérations très sensibles à la latence, même le

système de mise en cache proposé par les SGBD ou le stockage sur support SSD ne permet pas des

temps de réponses objectivement satisfaisants.

Une base de données en mémoire (in memory database - IMDB) propose toutes les fonctionnalités

d'une base de données classique : un langage de définition de données, type SQL, une API, type

ODBC et un système transactionnel qui respecte les propriétés ACID. Le contexte technologique

actuel est particulièrement favorable au déploiement des IMDB. En effet, le prix de la RAM,

aujourd'hui très faible, la maturation des systèmes d'exploitation 64 bits et des bus hauts débits

(LRDIMM) permettent d'envisager des plateformes qui assurent une performance hors norme sur des

opérations SQL simples ou complexes (UNION). Par ailleurs, des éditeurs proposent actuellement

des solutions de clustering pour les IMDS, comme McObject, qui permettent une montée en charge

verticale simple et peu coûteuse.

Les architectures des systèmes IMDB sont variables. Il peut s'agir de systèmes client/serveur avec une

communication via IPC (Inter-Process Communication) ou d'une intégration directe de la base de

données dans le processus de l'application. La seconde modalité permet les traitements les plus

performants au détriment de la flexibilité en matière de distribution de services ou de montées en

charge. La sécurité en matière de sauvegardes peut être gérée de plusieurs manières : un système de

transactions et de réplications sur un support durable (disque, NV-RAM).

Plusieurs éditeurs de logiciels ont construit leur solution sur le principe que l'accès à un disque est

l'opération la plus consommatrice en temps dans un traitement fondé sur la manipulation de données

stockées. Si l'intégralité des opérations d'acquisition de données, de traitement de données et de

transmission de données s'effectue sur une même machine virtuelle, en mémoire, la performance des

traitements est considérablement améliorée. Les opérations I/O sont, de fait, réduites au minimum

puisque les processus exécutés sont persistants. GigaSpaces, parmi d'autres éditeurs (Scaleout

Software, Grid Gain, Teracotta, GemStone, Coherence), propose un produit construit sur ce principe,

XAP (eXtreme Application Platform). XAP fonctionne sur la base d'unités de traitement (processing

unit) qui regroupent les objets et la logique métier, la plateforme de communication (messaging bus) et

les données persistantes. La gestion de la montée en charge est alors rendue plus facile, de manière

verticale via la virtualisation de la plateforme et de manière horizontale, via la duplication des PU et

la répartition de charge (shared nothing architecture).

Page 47: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

47

Traitement d’évènements complexes

Le traitement d’évènements complexes (Complex Event Processing – CEP) est une technologie qui

porte sur l’analyse de flux de données temps afin de fournir les moyens de proposer une réponse

instantanée. Les exemples types dans l’industrie financière sont les outils de valorisation, les

agrégateurs de flux de données de marché, le routage des ordres et la supervision des transactions

avec notamment la gestion du risque associé aux positions. Un évènement est compris ici comme un

fait qui survient : il peut s’agir de prédictions, de statistiques, de faits d’actualité, d’opinions, de

mouvements de prix et de volumes sur toutes les classes d’actifs. Un évènement complexe est une

agrégation d’évènements tel que décrit précédemment.

Les plateformes de transactions automatisées traitent un volume d’informations très important, de

nature souvent très différente et qui provient de sources variées. Il peut s’agir de données de marchés

mais aussi de données dites fondamentales, sur la situation d’une entité économique ou tout

simplement relative à l’actualité. Le défi d’une plateforme de traitement automatisé est donc la

consolidation et l’analyse de ces flux en temps réel. Dès lors, il ne s’agit plus seulement d’une

problématique réseau ou système, c’est-à-dire de la capacité à gérer un volume important de flux

mais une problématique logiciel : quels outils pour permettre l’analyse en temps réel d’une situation

complexe (nombreuses entités, nombreux états, nombreuses relations) ?

Le traitement d’évènements complexes (Complex Event Processing - CEP) est une sub-division du

traitement de flux parallèles (Data Streaming Processing - DSP). Un système CEP est conçu pour :

• Combiner des données qui proviennent de sources multiples.

• Assurer un traitement sur ces données de manière à produire un résultat : moyenne mobile

sur des données numériques, analyse fine d’un évènement.

• Isoler les motifs ou conditions pertinentes pour l’exécution d’une réponse appropriée.

Les exemples types dans l’industrie financière sont les automates de trading, les applications

d’animation de marché ou les applications de gestion du risque. Les domaines d’application types

sont :

• L’agrégation des flux qui touche à un même actif ou à une même classe d’actifs mais qui

proviennent de plateformes diverses.

• Le traitement de flux externes dans le cadre d’opérations de normalisation, de gestion

d’erreurs ou d’enrichissements.

• La génération automatique de cotations dans le cadre des activités de tenue de marché.

• La validation des ordres, dans le cadre des opérations de contrôle et de gestion du risque.

• Le trading algorithmique et spécifiquement les opérations d’arbitrages.

• L’exécution des ordres et notamment le routage.

Page 48: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

48

• La supervision des portefeuilles avec la mise à jour en temps réel des indicateurs de risques

(VAR, P&L).

Les outils CEP proposent un langage haut-niveau (Event Processing Langage, EPL) qu’un opérateur

peut utiliser pour établir des règles de gestion capables d’isoler un évènement et de produire une

réponse appropriée en un temps minimum. La flexibilité ainsi que la rapidité avec laquelle un

gestionnaire d’évènements peut être créé et déployé sont déterminantes dans la performance du

système. L’objectif d’un système CEP est d’analyser les évènements au fur et à mesure de leurs

occurrences et de produire une réponse ou un signal approprié.

Un système CEP permet l’interprétation d’un ou plusieurs flux en fonction d’un nombre défini de

règles spécifiées sur un ensemble de requêtes en exécution continue. Dans ce système, les flux

représentent des évènements extérieurs qui doivent être recombinés de manière à déduire l’exécution

d’un évènement macro. Chaque flux a généralement un degré de crédibilité/confiance associé. Un

système CEP est fondé sur une plateforme de traitements de données réactives constituée de deux

modèles :

• Un modèle d’analyse qui définit ce qui est considéré comme un évènement, une condition

pour la notification et une action à entreprendre suite à la notification

• Un modèle d’exécution qui définit les modalités d’exécution des règles.

Le modèle de stockage est divisé en quatre sorties, produit du traitement d’un ensemble de requêtes

exécuté en continu produisant une réponse à l’activité extérieure, elle-même continuellement mise à

jour :

• Le flux principal qui représente le produit des requêtes, soit une réponse.

• L’entrepôt qui stocke les éléments d’une réponse qui peut être amenée à évoluer dans le

temps. Le flux principal et l’entrepôt constituent tous les deux la réponse du système à

l’activité extérieure.

Page 49: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

49

• La mémoire qui stocke les éléments qui ne font pas partie de la réponse mais qui peuvent

servir à la production de celle-ci.

• Le jetable qui stocke les éléments non utilisés.

Généralement, cette architecture constitue un nœud dans un système distribué. La nature du format

de données est variable : il s’agit généralement de tuples.

Un système CEP est constitué de plusieurs modules types. Le module de réception (receiver) chargé

de la réception des flux, de la mise en files et de la transmission au module de décision (decider) qui

traite les flux entrants et les évalue via une série de règles qui prennent en compte l’historique des

flux reçus (knowledge base).

Une règle est une unité logique qui met en œuvre une stratégie de sélection dont l’objet est de

déterminer les modalités de sélection des données entrantes et une stratégie de consommation qui est

chargée de déterminer les modalités d’interprétation de ces mêmes données. Le produit du traitement

est éventuellement transmis au module de production (producer) sous la forme d’une séquence

d’informations. Ce module a pour tâche la production d’une notification d’évènements qui est ensuite

transmise au module de routage (forwarder) qui notifie les clients du système CEP.

L’industrie financière possède plusieurs standards en matière de système CEP, notamment : Aleri de

Sybase/Coral8, Oracle CEP, IBMWebSphere Business Events, Progress/Apama, Tibco Business

Events,Streambase.

Page 50: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

50

Plateforme de transmissions d’ordres

Order Management System & Execution Management System

La plateforme de transmission d’ordres permet l’envoi d’un ordre à un marché et la réception de la

confirmation ou d’un état de mise à jour. Il existe deux modèles de plateformes : le gestionnaire

d’ordres et le gestionnaire d’exécutions. La grande différence tient au caractère plus complet du

premier qui prend en charge des périmètres qui ne sont pas exclusivement associés à l’exécution et au

reporting post-trade, comme la gestion du risque associée aux modifications apportées au portefeuille.

Ces systèmes permettent :

• Le paramétrage des exécutions d’ordres en fonction d’une stratégie. FIX propose une

spécification XML (FIXatdl) qui permet de définir une stratégie et ses paramètres ainsi que les

types de contrôles utilisateurs.

• L’encodage des ordres suivant un format donné, FIX étant le plus répandu.

Les OMS sont les premiers systèmes informatiques à être déployés côté buy-side. A l’origine, dédiés

aux traitements back-office et au reporting portefeuilles, ils ont évolué en de véritables plateformes de

transactions automatiques, toutes fondées sur le nouveau standard de fait, le protocole FIX, et capable

d’agir sur tous les types d’actifs. On peut citer parmi les leaders : Capstone de Fidessa, Longview de

Linedata, Portfolio Order Management System de Bloomberg ou Investment Management System de

Charles River. Les OMS fournissent les fonctionnalités suivantes :

• Génération d’ordres : le système permet la génération rapide et facile d’un ordre par un

humain en fonction d’une stratégie déterminée, composée généralement de paramètres

complexes (cross-assets et cross-markets). Le système accepte aussi un degré d’autonomie et

permet une supervision élémentaire des coûts de transactions.

• Conformité, soit la gestion du nombre important de restrictions légales ou celle des

restrictions d’un client imposées à l’opérateur. Le système permet une supervision continue

du portefeuille à cet égard.

• Exécution d’un ordre : la plateforme d’exécution d’ordres doit être capable de cibler tous les

types de marchés, régulés, ECN et ATS. Dans la mesure où il s’agit de la fonction première

d’OMS, la qualité de la connectivité est déterminante pour assurer la qualité du produit. De

même, la possibilité d’avoir accès à toute la gamme de flux proposée par les plateformes (Level

1-2-3) et de sélectionner un benchmark approprié pour l’évaluation des performances, sont

des critères de qualité essentiels.

• Règlement : le système doit pouvoir interfacer les plateformes comptables et les entrepôts de

données du SI, et de fait, prendre en charge les principaux protocoles existants, OASYS, CTM,

ISITC, SWIFT.

Page 51: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

51

• Connectique à des sources de données multiples. Le système doit pouvoir aussi s’adapter à

des besoins particuliers : flux relatifs à la notation des produits de dettes, à la valorisation de

produits exotiques et utilisés dans le cadre des opérations d’évaluation de la conformité.

Les EMS se distinguent des OMS par une attention particulière portée sur le volet exécution d’un

ordre, au détriment des autres dimensions. On peut citer, pour les produits commerciaux, Portware

Professionnal, les différents produits de Flex Trade, déclinés par classes d’actifs, et Workstation de

Fidessa. A ces systèmes, il faut aussi ajouter les EMS propriétaires mis à disposition par les courtiers,

REDIPlus de Goldman Sachs, Lava Trading de Citigroup pour ne citer que ceux-là.

Les grandes caractéristiques d’un EMS sont :

• Un ensemble de stratégies transactionnelles intégrées, paramétrables et modifiables.

Typiquement une triangulation lors d’une transaction sur le marché des devises.

• Capacité à recevoir et à traiter toutes les gammes de flux, niveaux 1 à 3.

• Analyse pre-trade (simulation) et post-trade (benchmark).

• Gestion évènementiel en temps réel, calcul P&L en temps réel.

• Pensé et construit pour gérer une charge importante.

• Capable d’intervenir sur toutes les classes d’actifs avec les mêmes fonctionnalités, notamment

valorisation des positions.

La principale différence tient en fait dans la spécificité des EMS au niveau du volet exécution, sur la

partie performance, que ce soit en termes de vitesse ou de benchmarks et sur leurs caractères

modulables et paramétrables.

Gestionnaire de flux FIX

Le protocole FIX est un standard de messages et un modèle de communication au niveau des

échanges entre acteurs des marchés financiers. FIX a été développé avec la collaboration de banques,

de courtiers, de bourses, d’investisseurs institutionnels, d’industriels et d’associations qui viennent

du monde entier. Il s'agit d'un standard de fait, ouvert et gratuit, maintenu par une association - FIX

Protocol Limited - dont font partie les grands acteurs des marchés de titres.

Le protocole est défini sur deux niveaux : session et applicatif. Le niveau session a pour mission

d’assurer la bonne réception des données. Il gère la procédure d’identification, l’état de la

communication et la prise en charge des erreurs. Le niveau applicatif définit le contenu relatif aux

échanges. FIX est conçu pour prendre en charge une communication temps réel sur toutes les classes

de produits. FIX propose aussi une spécification XML, FIXML ainsi qu’un modèle pour les marchés

qui ne sont pas fondés sur un carnet d’ordres.

FIX fonctionne sur la base de sessions avec un initiateur et un accepteur, sur le modèle suivant :

Page 52: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

52

Un message FIX comprend un en-tête de message avec la version du protocole, un corps de message

représenté par une collection de clefs/valeurs typées où la clef est un identifiant décimal spécifié dans

la documentation, une fin de message avec un checksum.

De nombreux éditeurs proposent un gestionnaire de flux FIX. Parmi les standards, on trouve : NYFIX

(Appea), ULLINK, Reuters – Traid et Aethna, Sybase – TradeForce.

FIX Protocol Limited a publié en 2006 une spécification pour une version de FIX plus performante,

FIX Adapted for Streaming (FAST). FAST en est actuellement à la version 1.2, publiée en 2009, et

propose une compression des messages FIX fondée sur les points suivants : une optimisation de la

structure du message et de la structure de la communication ainsi que du processus de sérialisation et

de compression logiciel. FAST est, à l'origine, le produit d'une suggestion de NYSE/Arca qui mettait à

l'index le caractère verbeux du protocole, fonction du système clef/valeur. FAST est conçu pour le

transfert via UDP multicast : un message FAST n’est jamais supérieur à la taille maximum d’un

paquet UDP.

De nombreux marchés et plateformes d’échanges supportent actuellement FAST. Parmi les

principaux, on peut citer : BATS, NASDAQ OMX, ARCA, CME. L’OPRA (Options Price Reporting

Authority) est l'un des premiers organismes côté plateformes d'échanges à implémenter FAST.

Plusieurs marchés possèdent leur propre protocole de communication :

Page 53: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

53

En dehors de FIX, il existe un certain nombre de protocoles bien établis, comme : SWIFT (Society for

Worldwide Interbank Financial Telecommunication) pour les opérations de paiements, FpML (Financial

Products Mark-up language), une spécification XML pour la représentation de produits complexes,

notamment les dérivés et XBRL (eXtensible Business Reporting language), une spécification pour les

reportings relatifs aux données comptables et financières qui a déjà été présentée plus haut.

Page 54: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

54

Perspectives

“If anybody knows how to get a signal transmitted faster than the speed of light, I'd like talk with them.”

Fondateur de BATS Global Markets et CEO 2005-2007

Le processus d'innovation technologique est généralement amorcé par des petites structures qui n'ont

pas d'infrastructures logicielles ou matérielles importantes et qui sont donc capables d'innover

rapidement. En fonction de la performance de ces premiers acteurs, les structures plus importantes

sont amenées à envisager une transformation de leur système pour intégrer l'innovation. Finalement,

l'innovation devient mainstream : des conférences sont tenues et elles sont présentées au grand public.

Une prospective en matière technologique sur dix ans, relatives aux plateformes de transactions

automatiques, est présentée plus loin. Elle est fondée sur des avis d’experts, sur l’étude de veilles

technologiques et sur le descriptif de produits de constructeurs et de développeurs.

Software Defined Silicon

Le souhait d’un traitement à haute-fréquence des données financières a conduit certains leaders du

marché à utiliser des puces de silicium personnalisées à usage spécifique. Certaines de ces puces

comportent des centaines ou des milliers de petits ordinateurs indépendants qui opèrent tous en

parallèle, accroissant ainsi de façon importante la rapidité de traitement. Une puce graphique type

GPU, faite sur mesure pour PC, peut par exemple tracer des lignes ou des images 10 à 100 fois plus

rapidement qu'un processeur central à usage générique. Actuellement, la plus populaire de ces

technologies est un type de puces connu sous le nom de puce FPGA (Field Programmable Gate Array).

L'avantage de ce genre de circuit est sa grande souplesse qui permet de les réutiliser à volonté dans

des algorithmes différents en un temps très court. Le progrès de ces technologies permet de faire des

composants toujours plus rapides et à plus haute intégration, ce qui permet de programmer des

applications importantes.

Programmer un FPGA est aujourd’hui une tâche très longue et très compliquée : le programmeur doit

traduire un algorithme en circuit logique, puis le décrire dans un langage spécifique au matériel.

Malgré ces complexités, l’adoption des puces de silicium personnalisées continuera

vraisemblablement dans la décennie à venir en raison des gains en vitesse qu’elles offrent. Sur cette

période, il est probable que l’utilisation des FPGA sera supplantée par une approche nouvelle pour

personnaliser la production de silicium qui comprendra davantage de puces multi-cœur facilement

programmables sur le terrain. Ces puces seront programmables dans un langage haut niveau, assez

proche des langages de programmation actuellement en cours dans l’industrie. Ainsi, des

programmeurs formés aux langages conventionnels peuvent écrire des algorithmes qui sont ensuite

Page 55: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

55

compilés sur la puce, sans avoir besoin d’apprendre des langages de description spécifiques au

matériel FPGA. De cette façon, on pourra réduire les temps de développement des puces

personnalisées, actuellement mesurés en jours ou en semaines, pour atteindre quelques minutes,

entre la description d’un algorithme de transactions en langage de programmation de haut niveau et

la diffusion de cet algorithme sur un vaste dispositif parallèle à haute vitesse composé de nombreuses

puces de silicium indépendantes et personnalisées.

FixNetix, un pourvoyeur de services dans le secteur des échanges de produits financiers, établi en

2006, a annoncé en Novembre 2010 le lancement de leur plateforme de gestion de risques pre-trade

(iX-ecute) fondée sur des puces FGPA. FixNetix présentait un délai pour le traitement sur un chiffre,

en microsecondes. En Mars 2011, Deutsche Bank présentait sa nouvelle passerelle d'accès aux

marchés (μltra FPGA), fondée elle aussi sur des puces FPGA, qui assurait un délai hors norme entre

l'envoi d'un ordre et l'accusé de réception par le marché. Le directeur du développement des produits

actions présentait l'approche utilisée comme étant révolutionnaire et en passe de devenir le nouveau

standard. Deutsche Bank étendra dans le courant 2011 les fonctionnalités de sa plateforme pour

couvrir les opérations d’évaluation de la conformité et de la gestion de risques pre-trade pour ses

applications en colocation sur NYSE, NYSE/Arca, NASDAQ, Direct Edge et BATS. ActiveFeed, un

produit de la société Active Financial proposait un gestionnaire de flux fondé sur FPGA, au niveau de

la réception des flux et du processus de stockage alors que Novaspark, en juin 2012, annoncait la

distribution d’un carnet d’ordres sur système FPGA.

Un système fondé sur FPGA peut être conçu sur deux architectures. La première, fondée sur un CPU

sur lequel sont branchées des puces FPGA, utilise ce matériel pour un premier traitement qui sera

ensuite consommé par le CPU. C’est spécifiquement un système adapté aux gestionnaires de flux. Le

problème de cette architecture est qu'une grande partie du traitement reste délégué au CPU, c’est-à-

dire, dans le cas d'un gestionnaire de flux, les traitements de consolidations au niveau des flux qui

sont obtenus à partir de sources multiples. Par ailleurs, un serveur ne peut accueillir qu'une seule

puce FPGA, ce qui impose une architecture distribuée pour la gestion de flux multiples et donc une

latence supplémentaire. La seconde architecture, fondée exclusivement sur un système FPGA, est

conçue pour être exponentielle. Il s'agit des solutions proposées par les distributeurs spécialisés.

La technologie FGPA est déjà bien établie, les premières puces sont commercialisées dès la fin des

années 1980 et leurs capacités comme leur puissance sont vouées à croître dans les années qui suivent.

Actuellement, le principal frein à l'utilisation massive de ces puces tient à la faible quantité de main

d'œuvre qualifiée et à la complexité que représente le développement de programmes sur support

FPGA. La programmation FPGA peut être une tâche fastidieuse. Le programme d'une puce FPGA est

généralement une spécification du circuit imprimé, exprimée dans un langage de description

matériel. Un programmeur FPGA est en définitive un concepteur de puces et le temps passé à

programmer une puce FPGA est considérablement supérieur à celui pris par un programmeur sur

une plateforme conventionnelle. La grande difficulté tient à la lourdeur des opérations de

programmation ou de paramétrage : si une puce FPGA peut être adaptée à un nouvel ensemble de

Page 56: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

56

conditions, comme peut l'être un programme, la tâche est longue et difficile, et le nombre d'ingénieurs

qualifiés est faible. Par ailleurs, une puce FPGA offre une vitesse dans le traitement inférieure à celle

d'un pur circuit imprimé (ASIC). Les dernières recherches en la matière ont montré qu'il était possible

de compiler sur architecture FGPA des programmes réalisés pour GPGU, via OpenCL. Cela

représente une approche prometteuse pour traiter les problèmes inhérents à la technologie FPGA.

Les acteurs particulièrement sensibles à la problématique de la latence, les plateformes d'échanges, les

acteurs HFT sont naturellement amenés à s'intéresser à une technologie qui augmente

considérablement la vitesse d'un processus défini, exécuté sur CPU, qui élimine les turbulences.

Une société britannique, XMOS, a pris acte du manque de flexibilité des FPGA et a mis au point une

passerelle qui permet la compilation d'un programme réalisé dans un langage haut niveau, dans un

produit interprétable par une puce multi-cœur. Cette puce peut être branchée directement sur trois

autres puces identiques pour former un cluster. Outre cette connectivité, l'avantage du processus de

programmation tient au temps considérablement réduit par rapport à un système FPGA,

jours/semaines contre minutes/heures. Le produit réalisé par XMOS, baptisé XCore, peut héberger un

programme créé avec un langage similaire à C/C++ et permet une programmation fine du traitement,

notamment au niveau de la communication inter-cœur et intra-cœur. Le programme est ensuite

compilé dans un langage compréhensible par la puce.

Marchandisation : « A ticker plant in a box »

Il y a 10 ans, toutes les entreprises de l’industrie financière dont l’activité était directement orientée

marché devaient bâtir l’essentiel de leurs systèmes en interne. Actuellement, un acteur des marchés

financiers peut obtenir tous les produits pour construire son système de transactions ou les services

pour assurer son exécution.

Toute une nouvelle catégorie d'acteurs de l'industrie financière a vu le jour dans ce domaine au cours

de ces cinq dernières années. Parmi les produits mis à disposition par cette nouvelle catégorie

d'acteurs, on trouve les processeurs d'ordres qui intègrent généralement un module FIX, déclinés en

fonction des besoins spécifiques d'un client. Ceux-ci peuvent couvrir le format des flux ou s'exprimer

en matière de performance. Rapid Addition propose ainsi une gamme de processeurs FIX/FAST

fondée sur la vitesse de traitement du processeur dans le cadre d'un processus décisionnel simple.

D'autres vendeurs proposent des plateformes intégrées de transactions qui prennent en charge la

connectique, le matériel, l'exécution et la supervision. Ullink offre ainsi une plateforme définie comme

un système « High Frequency Trading in a Box » qui fonde notamment sa connectique réseau/système

sur une architecture RDMA, dans un contexte DMA, avec gestion des contrôles pre-trade et qui une

fois déployée, propose au client toutes les API pour déployer ses programmes. Dans le même ordre

d'idées, QuantHouse propose une solution qui comprend trois modules indépendants associés

chacun à une étape de la transaction, gestion des flux entrants et sortants, plateforme de recherche, de

développements et de simulations intégrée ainsi qu’un outil de déploiement d'infrastructures

(routage, DMA, collocation). La société Fixnetix offre, quant à elle, la possibilité d'externaliser les

Page 57: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

57

activités front-office (« outsourcing the front office ») de ses clients en proposant une connectivité

complète sur l'essentiel des plateformes d'échanges au niveau mondiale : les produits Fixnetix

capitalisent sur la fragmentation des marchés et sur la technologie FPGA. iX-Ecute, un produit

Fixnetix, propose ainsi un système complet de contrôle de risques pre-trade pour les opérations DMA,

paramétrable en fonction de la multitude de règles associées à une transaction (client, courtier,

plateforme d'échanges). Le marché FGPA est actuellement en pleine expansion avec des constructeurs

qui proposent des plateformes entièrement fondées sur FPGA, de type Fixnetix, qui intègrent des

composants FPGA et des puces programmées à la demande comme AdvancedIO.

La conséquence de la marchandisation des services, des systèmes et des plateformes orientées

transactions de marchés réside en la capacité de tous les acteurs à obtenir un niveau de performance

technique équivalent, la différence ne se faisant sentir qu'au niveau des paramétrages, c’est-à-dire des

algorithmes ou des processus logiciels exécutés sur les systèmes.

Cloud computing

L’industrie mondiale des technologies de l’information connaît actuellement un glissement majeur

vers le cloud computing où l’utilisateur accède à distance, par Internet, à des centres de données de très

grandes dimensions comme un service, en payant des frais de location facturés à la minute ou à

l’heure. Ce fonctionnement diminue grandement le coût du calcul haute performance et réduit donc

les barrières d’entrée pour les individus ou les sociétés désireuses d’utiliser le calcul haute

performance à très grande échelle pour la conception et l’optimisation automatisée des systèmes de

transactions. Cela signifie qu’il n’est plus nécessaire de disposer des ressources financières des

banques d’investissements pour s’engager dans le développement de stratégies hautement tributaires

de la technologie.

Dans la prochaine décennie, l’impact principal du cloud computing sur les activités des marchés

financiers ne résidera pas dans la fourniture de moyens informatiques qui automatisent l’exécution

mais plutôt dans la capacité à fournir un calcul de haute performance, peu coûteux, à l’élasticité

évolutive. Ce calcul de haute performance peu coûteux et distant permettra le déploiement de

procédures extrêmement intensives en informatique pour la conception et l’optimisation de stratégies

de transactions et l’exécution d’algorithmes, ce processus informatique n’étant pas sensible à la

latence. De nombreuses banques d’investissements et hedge funds possèdent déjà leurs centres de

données privés d’où ils opèrent, mais s’en servent pour les opérations commercialement critiques.

Seule une fraction de la capacité de ces centres peut être affectée à des usages de calcul de haute

performance. La possibilité, soit d’étendre le calcul informatique réalisé en interne en ajoutant des

ressources localisées dans le cloud, soit d’externaliser simplement l’ensemble des prestations vers un

fournisseur du cloud, ouvre de nouvelles possibilités à peine explorées à l’heure actuelle.

La puissance de calcul à la demande permet de réduire considérablement certains coûts associés aux

transactions sur les marchés. Spécifiquement, les opérations préalables à l'industrialisation d'une

stratégie : tests rétroactifs (back-testing, très consommateurs en temps et en puissance de calcul), data-

Page 58: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

58

mining et analyses gagnent à être exécutés totalement ou en partie dans un système approprié. Les

services de calcul à la demande participent ainsi à la baisse du coût d'entrée pour les petites

structures. De plus, le cloud computing, via une modalité de logiciel à la demande, laisse apercevoir un

marché nouveau pour l'applicatif orienté transactions sur le marché. Un outil de valorisation, de

simulation ou de calculs associé à des opérations d'arbitrages aurait tout son sens en tant que service

proposé sur un cloud : ce système existe déjà pour la réception et le traitement des flux de cotations,

comme pour ces deux acteurs bien implantés que sont Xignite et Lumesis. De manière générale, le

cloud computing, dans l'industrie financière comme ailleurs, permet à de petits acteurs de rivaliser

avec les opérateurs majeurs des marchés. Néanmoins, le cloud computing et les services associés seront

toujours confrontés à un problème lorsqu'il s'agit de considérer l'exécution d'un processus temps réel.

Le délai supplémentaire dans le traitement induit par la distance entre la plateforme cliente et le

datacenter du prestataire peut s'avérer très contraignante.

RDMA et Infiniband

Une source considérable de délai dans la communication est l’intervention du système d’exploitation

lors de la réception et du traitement des paquets. Plusieurs technologies existent pour réduire ou

éliminer les appels au système d’exploitation dans le cadre d’une communication réseau. Les

technologies RDMA constituent les solutions efficaces et Infiniband représente l’implémentation la

plus efficace.

Les plateformes d'échanges consacrent actuellement de gros efforts de développements en matière de

connectique directe via 40GbE et Infiniband. Ils anticipent dans les années à venir les connectiques

100GbE, à la fois Infiniband et Ethernet. Mellanox Technologies et Qlogic proposent chacun des

solutions conçues autour de cette technologie. Il s’agit des deux principaux distributeurs de la

technologie.

Infiniband est un bus à très haut débit utilisé dans le cadre de réseaux systèmes (System Area

Network) pour des traitements très haute-fréquence et fondé sur RDMA. Il s'agit d'un standard de

l'industrie maintenu par l'Infiniband Trade Association. Infiniband est une architecture, réseau,

matériel et logiciel bâtie sur deux concepts :

• Une communication directe entre applications et une interface réseau.

• La capacité pour deux applications ou plus à échanger des données sur un réseau via un

buffer applicatif dédié.

Infiniband est une architecture très distincte d’IP/Ethernet : l'objectif est de réduire au minimum les

opérations I/O entre la transmission des données d'une application à une autre, dans le cadre d'une

communication réseau. Infiniband est construit autour d'un canal virtuel qui connecte deux

applications exécutées sur deux espaces d'adressage distinct. Elle propose un service de

communication utilisé pour les opérations de communication interprocessus, c’est-à-dire les

Page 59: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

59

opérations liées au stockage. L'idée est que chaque application, système de fichiers, applicatif ou

autre, possède un accès au service de messagerie Infiniband, sans avoir à passer par le système

d'exploitation. Cela constitue une différence notable avec la pile TCP/IP intimement liée au système

d'exploitation. À chaque application sont associées deux piles qui gèrent les entrée et les sorties,

intégrées directement à l'espace d'adressage de l'application. Infiniband permet donc la création de

canaux de communication privés entre deux espaces d'adressage virtuel.

Le processus de communication est fondé sur une sémantique SEND/RECEIVE pour la partie réseau

et READ/WRITE pour la partie application. Le service de messagerie réseau fonctionne sur des

queues qui contiennent des structures de données allouées à l'initialisation et qui stockent les

messages SEND ou RECEIVE pour la durée de l'opération. La partie système fonctionne de manière

sensiblement différente. L'application qui reçoit un message crée un buffer sur son espace d'adressage

et donne le contrôle de ce buffer à l'application émettrice. Celle-ci peut, dès lors, lire ou écrire sur cet

espace.

Compte tenu de l’utilisation d’un protocole spécifique, les solutions Infiniband sont adaptées à une

communication sur un réseau interne ou dans le cadre d’une colocation. Le principal problème

associé à l’implémentation d’Infiniband est le coût, en matière de complexité et sur le plan financier.

De ce fait, l’organisation réseau et le parc applicatif du périmètre cible doivent être adaptés à la

nouvelle architecture.

Page 60: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

60

Market Data Network Architecture (MDNA): Overview, Collectif, Cisco, 2008

Le déploiement d’une solution Infiniband peut s’effectuer dans le cadre de la communication entre

un ticker plant et les modules alimentés par les flux de cotations. Sun en propose un dans ses white

papers : le test de la solution d’acquisition et de traitement de données marchés, Thomson/Reuter

RMDS 6, en déploiement P2P dans le cadre d’une architecture Infiniband sur systèmes Solaris et via

un système de messages fondé, soit sur un protocole Reuters (RRCP) intégré à RMDS, soit sur Tibco

RV. Le Singapore Exchange Limited a intégré une solution Infiniband (Voltaire/Mellanox) dans sa

nouvelle plateforme d’échanges SGX Reach, annoncée en Juin 2010 et destinée aux acteurs haute-

fréquences.

Page 61: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

61

Performance and scalability of the RMDS Market data Platform, Collectif, Red Hat Inc., 2008

GPU et calcul distribué

Les processeurs graphiques (GPU) sont des puces qui contiennent un nombre N de processeurs et

une mémoire dédiée conçue pour des traitements parallèles et rapides sur des opérations lourdes de

type calculs matriciels liés à la 2D et à la 3D. Le marché GPU est dominé par Nvidia et AMD.

Chaque GPU contient un nombre important de processeurs, plusieurs centaines, capables d'exécuter

un ou plusieurs programmes avec un très haut degré de parallélisation. La performance de systèmes

basés sur des puces GPU est nettement supérieure aux traitements que sont capables d'assurer les

systèmes classiques fondés sur CPU. Les constructeurs ont pris acte de la demande dans ce domaine

et proposent désormais des produits capables d'exécuter des traitements génériques (GPGPU) et des

environnements de programmation adaptés (CUDA pour NVidia et OpenCL).

Le volume de puissance de calcul que nécessite les opérations de valorisations et d'évaluations du

risque sur les portefeuilles d'un acteur excède dans des proportions importantes les capacités

matériels disponibles, particulièrement lorsque ces opérations doivent être effectuées en temps réel.

Les puces GPU sont conçues pour le traitement en parallèle de tâches n'ayant aucune relation entre

elles : le traitement de vertices sur une série de shaders. Elles peuvent d'ailleurs être considérées

comme des grilles de calculs. Les constructeurs ont capitalisé sur cette caractéristique pour élargir le

périmètre d'utilisation des GPU en donnant les moyens aux utilisateurs de définir le traitement assuré

Page 62: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

62

par les puces. De fait, Nvidia, l'un des principaux constructeurs, présente le dernier produit de sa

gamme de GPU comme une puce de calcul (compute card). Une GPU Nvidia possède jusqu'à 30

processeurs constitués de huit processeurs de flux avec un registre associé et une mémoire de type

RAM intégrée, subdivisée pour assurer le cache de chaque processeur de flux. Un processeur de flux

est une unité logique qui traite avec ses pairs les mêmes instructions avec un jeu de données différent.

La procédure de traitement typique comprend l'allocation de mémoire pour un traitement, la copie de

données à partir de la mémoire de l'unité principale (RAM), l'exécution du traitement sur chaque

processeur et la consolidation du résultat sur la mémoire de l'hôte (RAM).

Nvidia propose, en 2006, sa première GPU, la G80, conçue pour effectuer des traitements autres que

graphiques. Le traitement des vertices via les shaders est remplacé par un processeur de flux

générique capable de traiter n'importe quel type d'entrée. Par ailleurs, la précision du calcul,

initialement limitée à une décimale, a été traitée pour assurer le traitement des flottants 32 bits. Les

limites des GPU en matière de précisions constituent le frein principal à l'expansion de la technologie

en dehors du périmètre du traitement graphique.

Autre point, le nombre de processeurs sur une puce atteint naturellement une masse critique. La

nécessité de conserver une température qui n'affecte pas le traitement des puces et celle de gérer le

nombre maximum de transistors sur une puce vont déterminer les limites de l'évolution de la

puissance de calcul disponible sur une unité de calcul. Les GPU, par rapport aux grilles de calculs

parallèles (MPP) qui constituent aujourd'hui 80% des supers ordinateurs, ont l'avantage d'un coût

réduit. Le processus de programmation, de même que la construction d'un système fondé sur GPU

est par contre plus complexe.

CUDA est la fois une plateforme de développement et une architecture matérielle dédiées au calcul

générique et distribuées sur GPU NviDia. Plusieurs produits proposent une API qui permet de

générer facilement du code CUDA : c’est le cas de SciFinance qui propose un langage de scripts qui

produit du code C et CUDA. RapidMind est un set de librairies C++ et un compilateur qui permettent

l'exécution de traitements parallèles sur GPU via OpenCL. La firme qui commercialise ces librairies à

été rachetée par Intel en 2009. ATI Stream est une API proposée par AMD pour l'exécution de

traitements sur puces GPU. OpenCL est une initiative qui vise à définir une API standard pour

l'exécution de tâches parallèles sur CPU multi-cœurs ou GPU. Soutenu par, notamment, Apple,

NviDia et AMD, le projet vise à émuler MPI dans le domaine du calcul distribué, quel que soit le type

de processeur, CPU ou GPU.

Les systèmes GPU proposent généralement une flexibilité en terme de montée en charge sur le calcul

distribué, ce qui permet de gérer facilement les opérations hautement parallélisables, typiquement la

valorisation d'options ou le value/yield d'un produit action. Le principal problème associé aux clusters

GPU est une intégration au reste de l'infrastructure : les opérations s'effectuent encore en grande

partie via le CPU et son bus associé, ce jusqu'au GPU.

Page 63: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

63

Le département des dérivés actions de JP Morgan a fait aboutir, à la mi-2011, un plan d’innovation

sur trois ans qui vise à réduire de 75% les coûts associés aux calculs pour la gestion du risque. Le

choix de la banque américaine s’est porté sur les GPU Nvidia, dans le cadre d’une architecture mixte

CPU/GPU : les performances sont présentées comme étant accrues de manière notable (40x) et les

coûts réduits de 80%. Hanweck Associates, un des leaders en matière d’édition de logiciels orientée

finance et fondée sur système GPU, a été retenu par NYSE/Euronext en mai 2012 pour le calcul des

mesures de risques associées aux options du flux OPRA. Le système d’analyse est fondé sur une

architecture GPU.

Data mining et intelligence artificielle

La prospective en matière de développements algorithmiques est résolument axée sur la performance

en matière de latence.

• La rapidité : les solutions capables de fournir une approximation suffisamment fiable pour

agir sont prioritaires sur les modèles plus élaborés et plus complexes. Fondée sur des

algorithmes génétiques, des réseaux de neurones ou des machines à vecteurs de supports,

l'approche stochastique est privilégiée sur l'approche statistique. Autre vecteur

d'investissements, le traitement de volumes de données importants et non structurés.

• L'amplitude : les stratégies d'arbitrage fonctionnent sur la recherche de corrélations entre

actifs ou classes d'actifs. Identifier une corrélation est un travail long et difficile qui nécessite

un volume de données historiques considérable. Dès lors, les moyens de traitement comme les

modes de stockage occupent une place capitale. La réflexion et les solutions proposées autour

du concept de Big Data ont contribué à ouvrir de nouvelles perspectives. Hadoop, fondé sur

l'algorithme MapReduce, représente un standard pour l'analyse statistique sur des ensembles

de données très volumineux, sur système distribué.

• Le volume : Le nombre d'évènements auxquels un système de transactions automatiques doit

répondre est en croissance exponentielle et est fonction de l'augmentation du débit en matière

de traitement de flux ainsi que de la pluralité des sources de données. L'évolution des

plateformes CEP, les leaders actuels sont Progress Apama et Streambase, représentent un

marché très important.

• L'inventivité : La création de nouveaux outils logiciels qui permet celle de statistiques à partir

de supports divers et volumineux constitue un vecteur d'évolution. L'analyse des données non

structurées, comme les flux d'actualités, l'analyse linguistique ou sémantique, et de manière

générale, l'analyse de données non numériques, permet d'évaluer l'appréciation d'une

situation par une collectivité et de déterminer ainsi une probabilité pour l'évolution de cette

situation.

Page 64: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

64

Les processeurs de flux d'actualités, quelles que soient leurs sources, représentent un vecteur

d'innovation important. En effet, ils permettent de capter une information sur un ensemble important

de domaines avec facilité et pertinence, et selon une sélection fine d'indicateurs d'établir des

corrélations entre l'activité marché et l'actualité. Les sources primaires d’actualités sont les

indicateurs macroéconomiques fournis par les autorités politiques et les actualités de l’industrie dont

les sources peuvent être multiples mais qui sont produites à intervalles réguliers. La difficulté tient à

l'évaluation de cette information. De même, l'activité sur les réseaux sociaux représente une source de

valeur importante si le volume de données est traité de manière adéquate. De nombreuses entreprises

ont déjà exploré le domaine, telle que Hedgehogs, spécialisée dans une application orientée marché

ou Woollabs.

Les actualités relatives à l’activité économique d’un pays ou de l’industrie sont d’ores et déjà

disponibles auprès de fournisseurs spécialisés sur un format facilement interprétable par une

machine (XML). Le standard eXtensible Business Reporting Language (XBRL) propose un framework

complet pour la description de données financières. Largement soutenu par les Etats-Unis via la SEC,

il commence à être adopté par les pays européens et la Chine. Research Information eXchange Mark-up

Language (RIXML) est l’équivalent d’XBRL pour la formalisation des données relatives à la recherche

et aux investissements.

Dans la mesure où le volume d’informations est important et de qualité ou d’importance variable,

une opération de filtrage est nécessaire. Des agrégateurs propriétaires existent, comme Relegence

First Track et Infosonic Burst. Une actualité possède une dimension systémique. Elle touche un

ensemble de domaines et d’acteurs périphériques à son sujet. De fait, il est possible d’élaborer un

modèle de dépendance de manière à évaluer l’impact d’un évènement sur un système.

Les algorithmes fondés sur l’actualité peuvent être adaptatifs, c’est-à-dire qu’ils utilisent des

indicateurs mis à jour à partir d’une évaluation de l’actualité de manière à produire une estimation à

court-terme ou capitaliser complètement sur l’actualité via un système de règles qui définit une action

précise à mener dans le cas d’un évènement donné.

L’extraction de données représente aussi un vecteur de performance dans l’algorithmique appliqué

aux transactions de marché. La classification (clustering), l’analyse de séries chronologiques pour les

prévisions court-termes, la définition de règles d’associativités dans le cadre de l’élaboration de

stratégies d’arbitrages, cross-assets ou cross-market, représentent des applications concrètes.

Enfin, le domaine de l'intelligence artificielle (IA) propose des solutions pertinentes aux

problématiques associées à l'analyse prospective. Les réseaux de neurones et les machines à vecteurs

de supports (support vector machine) ont été appliqués à la prospective en matière de prix, de volume

ou de volatilité, sur les classes d’actifs les plus liquides, depuis déjà longtemps. Les moteurs IA sont

très utilisés au niveau des stratégies d’exécution d’ordres de manière à apporter une flexibilité aux

grandes méthodes déjà évoquées (POV, VWAP, IS). La capacité à évaluer avec un degré de précision

correct les tendances en matière de prix, de volatilité ou de volume permet non seulement la

Page 65: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

65

performance accrue d’un algorithme mais aussi la capacité à changer de stratégie en cours

d’exécution.

Un environnement de trading algorithmique intègre généralement une pluralité de modèles fondés

sur un moteur IA ou statistique, auxquels est associé un degré de crédibilité ou de confiance, variable

dans le temps.

Les algorithmes génétiques (AG), en fonction de leur processus constant de re-calibration, se prêtent

parfaitement à une activité de marché par nature non linéaire. Ils peuvent être représentés sous la

forme d’arbres : l’opération de mutation agissant sur un nœud.

La fitness est généralement associée à une mesure de risque plus que sur un indicateur de rentabilité,

beaucoup plus difficile à évaluer et à calibrer. Des opérateurs sont spécialisés dans la création, le

déploiement ou l'exécution d'algorithmes intelligents (machine-learning), tel que Hyde Park Global. La

mise en œuvre de systèmes de transactions fondés sur une approche heuristique reste néanmoins

problématique du à la difficulté à superviser le processus décisionnel. Les modèles mathématiques,

produits de la théorie du contrôle combinés aux coupe-circuits classiques, représentent une solution.

Page 66: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

66

Les simulations restent néanmoins l'outil principal d'évaluation et de validation. Actuellement, le

domaine des algorithmes à estimation de distribution (AED), inspirés des AG, représente l’état de

l’art en ce qui concerne l’optimisation.

L'évolution en matière algorithmique tient au caractère adaptable des programmes. Une plateforme

d'échanges automatiques utilise généralement plusieurs logiques différentes qui correspondent à une

stratégie ou à un algorithme. La capacité à passer d'une logique à une autre en fonction d'un contexte

permettrait à une plateforme d'ajuster son activité automatiquement. Le processus de développement

logiciel s’orienterait ainsi plus sur la création de systèmes de génération de stratégies, capables de

paramétrer une stratégie existante ou de sélectionner une stratégie en fonction d’un contexte.

Quel système de transactions automatiques pour demain ?

La technologie a joué un rôle capital dans la définition de la structure des marchés, au niveau des

infrastructures et des interactions (straight to processing, interopérabilité). Elle a aussi favorisé

l'innovation et l'élaboration de nouveaux business models via de nouvelles méthodes et stratégies

transactionnelles (transactions algorithmiques, transactions haute-fréquence).

Une question légitime sur les évolutions à cours termes tient à la pérennité du au caractère

déterminant de la technologie sur les activités marchés. Si son influence ne saurait effectivement

décroitre, l'intensité de son impact pourrait être moindre qu'auparavant. La question d'un point

culminant dans l'influence de la technologie sur les activités de marché est réelle. À moins d'une

influence extérieure, en particulier juridique et de grande envergure, le passage à une transaction

électronique fondée exclusivement sur une connectique ultra performante va néanmoins continuer.

La dynamique de fragmentation des plateformes d'échanges et de dé-verticalisation de l'organisation

des acteurs des marchés va de même continuer, dynamisée par une structure juridique solide. Les

coûts d'entrée dans l'industrie financière vont baisser, ce qui va favoriser l'émergence d'un nombre

important d'intermédiaires et de petits acteurs. Ce phénomène est d'ores et déjà observable et

s'accompagne d'une réduction sensible du personnel dans les grandes structures financières. De fait,

les grands pôles financiers actuels, Londres, New York et Singapour pourront être concurrencés très

sévèrement par une génération de nouveaux acteurs ou de pays n'ayant, jusqu’à maintenant, pas ou

peu été présents sur la scène des marchés internationaux. Le trading haute-fréquence, phénomène

contemporain et défini ici comme un ensemble de stratégies qui capitalise exclusivement sur la

vitesse d’exécution, va s’intensifier via l’expansion sur de nouvelles plateformes d’échanges et de

marchés ainsi que sur de nouvelles classes d’actifs.

La plateforme de trading automatique d'ici une dizaine d'années sera hébergée sur des serveurs en

colocation avec les systèmes des marchés cibles. La puissance de calcul de ces serveurs sera fournie

par des grilles de puces GPU et les modalités de traitement seront sur support ASIC, type FGPA ou

sur des puces de nouvelles générations type XCore. Les programmes exécutés sur ces puces seront

déployés à distance par les acteurs des marchés. La marchandisation des composants d’une ticker

Page 67: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

67

plant, de la connectique jusqu’aux algorithmes utilisés sur les plateformes de transactions, permettra à

des acteurs très divers de sélectionner les composants de leurs systèmes ou d’acquérir un système

propriétaire. La réduction des coûts, fonction d’une concurrence importante, favorisera l’entrée de

nouveaux acteurs et ainsi l’innovation. La réduction des coûts pour les solutions hébergées et la

performance de ces systèmes vont favoriser l’accroissement du nombre d’applications déployées

chez des hébergeurs spécialisés. Toute une gamme de services, en particulier au niveau des activités

pre-trade, sera accessible via des solutions cloud. La puissance de calcul nécessaire pour le back testing

de stratégies, pour les travaux de modélisation ou de simulation associés aux stratégies

algorithmiques ou à l’ingénierie financière, et de manière générale avec une sensibilité faible à la

latence, sera obtenue via un service tiers. La virtualisation appliquée aux systèmes de transactions

financières sera aussi amenée à prendre de l'ampleur. La performance de systèmes virtualisés par

rapport aux systèmes natifs est désormais comparable, notamment via le binding de ports réseaux à la

machine virtuelle. Ces évolutions récentes et pour beaucoup qui sont encore en phase de gestation

pour une maturation à l’horizon de dix ans, se construiront sur une base de technologies déjà bien

implantée et adaptée aux traitements temps réel : les technologies de transferts mémoire-à-mémoire

(RDMA), le protocole de communication construit pour les transactions haute-fréquence (FAST), le

système de stockage en mémoire (IMDB).

Le caractère systématique des transactions électroniques et l'importance croissante du trading

algorithmique impliquent aussi un risque. Les crashs ou les bulles financières surviennent à une

vitesse particulièrement soutenue, ce qui rend difficile un contrôle et une supervision efficace. Le

« Flash Crash » de mai 2010, provoqué par une vente massive de contrats futurs sur index et amorcé

par l'interprétation de la situation du marché par des algorithmes, est à ce titre emblématique. Il offre

une image claire de ce que représente un risque systémique, fonction directe de la transaction

algorithmique. Le défi que représente la régulation d'un système fondé sur la seule transaction

électronique est important. L'analyse de très gros volumes de données, la supervision de l'activité des

acteurs HFT ou des ATS, l'évaluation du risque sur des relations dérivé/sous-jacent complexes, au

niveau de plateformes d'échanges nombreuses, sont autant de sujets d'actualité, autant pour la

régulation que pour la gestion du risque en interne. Par ailleurs, l'activité des acteurs haute-fréquence

soulève aussi des interrogations fonctionnelles : les stratégies HFT orientées animation de marchés et

fourniture de liquidités représentent-elles un bénéfice pour les marchés grâce à la réduction des

spreads ou au contraire favorisent-elles la volatilité ? Cette interrogation, autant académique que

professionnelle, n'a fourni à ce jour aucune réponse claire. À celle-ci s'ajoute un autre une autre

problématique sur la nature potentiellement prédatrice des activités HFT, d’après un certain nombre

de cas avérés. De manière générale, une réflexion approfondie sur la manière d'encadrer au mieux les

marchés contemporains et leurs acteurs apparait comme nécessaire. C'est à partir de ce constat que la Commission Européenne a engagé une révision de la MiFID, fin 2011.

Page 68: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

68

Sources

Sites constructeurs & éditeurs

Active Financial - http://www.activfinancial.com/

AdvancedIO - http://www.advancedio.com/

AMD - http://www.amd.com/fr/Pages/AMDHomePage.aspx

Bloomberg - http://www.bloomberg.com/

BT Radianz - http://www.globalservices.bt.com/us/en/products/radianz

Charles River - http://www.crd.com/

Cisco - http://www.cisco.com/en/US/hmpgs/index.html

Corvil - http://www.corvil.com/

Exegy - http://www.exegy.com/

Fidessa - http://www.fidessa.com

Fixnetix - http://www.fixnetix.com/

Gigaspace - http://www.gigaspaces.com/

Hyde Park Global - http://www.hydeparkglobal.com/

IBM - http://www.ibm.com/fr/fr/

Informatica (29West) - http://www.informatica.com/fr/

Intel - http://www.intel.fr/content/www/fr/fr/homepage.html

Interactive Data - http://www.interactivedata.com/

Linedata - http://www.linedata.com/

Lumesis - http://www.lumesis.com/

McObject - http://www.mcobject.com/

Mellanox - http://www.mellanox.com/

Page 69: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

69

NviDia - http://www.nvidia.fr/page/home.html

Nyse Technologies - https://nysetechnologies.nyx.com/

Novasparks - http://www.novasparks.com/

Oracle - http://www.oracle.com/index.html

Progress - http://www.progress.com/fr-fr/index.html

Qlogic - http://fr.qlogic.com/Pages/default.aspx

QuantHouse - http://www.quanthouse.com/

Saavis - http://www.savvis.com/

Solace - http://solacesystems.com/

Streambase - http://www.streambase.com/

Sybase - http://www.sybase.fr/

Telx - http://www.telx.com/

Thomson Reuters - http://thomsonreuters.com/

Tibco - http://www.tibco.fr/Pages/Accueil.aspx

Ullink - http://www.ullink.com/

Universal E-Business Solutions - http://www.uebiz.com/

Verizon Financial Network - http://www.verizonbusiness.com/

Wombat - http://www.londonstockexchange.com/products-and-services/connectivity/software-

houses/wombat-financial-software.htm

XMOS - http://www.xmos.com/

Sites marchés & plateformes d’échanges

BATS - http://www.batstrading.com/

Chicago Board Options Exchange - http://www.cboe.com/

Chicago Mercantile Exchange - http://www.cmegroup.com/globex/

Page 70: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

70

Chi-X - http://www.batstrading.co.uk/chi-xeurope/

Deutsche Börse - http://deutsche-boerse.com/

Direct Edge - http://www.directedge.com

EUREX - http://www.eurexchange.com/

Honk Kong Exchange - http://www.hkex.com.hk/eng/market/sec_tradinfra/CMTradInfra.htm

Instinet - http://www.instinet.com/includes/index.jsp?thePage=/jsp/home_index.jsp

Liquidnet - http://www.liquidnet.com/

London Stock Exchange - http://www.londonstockexchange.com

NASDAQ - http://www.nasdaq.com/

NASDAQ/OMX - http://www.nasdaqomx.com/

NYSE/Euronext - http://usequities.nyx.com/ - https://europeanequities.nyx.com/fr/welcome

Turquoise - http://www.tradeturquoise.com/

Sites institutionnels, ONG, divers

Autorité des marchés financiers (régulateur français) - http://www.amf-france.org/

Securities exchange commission (régulateur américain) - http://www.sec.gov/

Financial Services Regulator (régulateur anglais) - http://www.fsa.gov.uk/

Finance Watch - http://www.finance-watch.org/

Bank for International Settlements - http://www.bis.org/

High Frequency Trading Review - http://www.hftreview.com/

Wall Street & Technology - http://www.wallstreetandtech.com/

Advanced Trading - http://www.advancedtrading.com/

Low Latency - http://www.low-latency.com/

Securities Operations Forum - http://www.soforum.com/

Wilmott.com forum - http://www.wilmott.com/index.cfm?NoCookies=Yes&forumid=1

Page 71: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

71

Documentation constructeurs & éditeurs (sélection)

Advantages of Sybase Capital Markets Platform For Electronic Trading, Collectif, Sybase, 2012

Algo Speed High-Frequency Trading Solution, Collectif, Cisco, 2011

Algorithmic Trading and Market Access Arrangements, Collectif, ASX, 2010

Architectures for Extreme Low Latency - Winning in Tomorrow's Electronic Trading Markets,

Collectif, Tibco, 2011

Australian equity market structure, Collectif, ASIC, 2010

Big Data and Smart Trading, Collectif, Sybase, 2012

Building A Low Latency Infrastructure For Electronic Trading, Collectif, Sun, 2011

Capital Market Guide 2012, Collectif, SAP, 2012

CEP - Complex Event Processing ou Traitement des événements complexes, Collectif, Tibco, 2006

Cut-Through and Store-and-Forward Ethernet Switching for Low-Latency Environments, Collectif,

Cisco, 2008

Data Center High Availability Clusters Design Guide, Collectif, Cisco, 2006

Design Best Practices for Latency Optimization, Collectif, Cisco, 2007

European Dark Trading: Analysing European Dark Pools, Collectif, Fidessa, 2012

Excel that Scales, Nati Shalom, Dekel Tankel, Alon Lahav, Gigaspace/Microsoft, 2007

Extreme Performance Using Oracle TimesTen In-Memory Database, Collectif, Oracle, 2011

Financial Services Design for High Availability, Collectif, Cisco, 2003

High-Performance Automated Trading Network Architectures, Collectif, Cisco, 2010

Implementing Real Time Solutions with Linux and IBM, Benjamin Vera-Tudela, IBM, 2008

Introduction to Ethernet Latency, Collectif, QLogic, 2010

Lightweight Internet Protocol Stack, Collectif, General Electric Intelligent Platform, 2012

Market Data Network Architecture (MDNA): Overview, Collectif, Cisco, 2008

Measurement and Characterization of Latency in Trading Networks, Collectif, Corvil, 2012

Measuring Latency in Equity Transactions, Collectif, IXIA, 2012

Page 72: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

72

MICEX Market Data Multicast FIX/FAST Platform, Collectif, Moscow Interbank Currency Exchange,

2011

Optimizing Infrastructure for Trading Performance, Collectif, CFN Services, 2011

Oracle TimesTen In-Memory Database for the Financial Industry, Collectif, Oracle, 2011

Present and Future Services for Network Virtualization, Andy Kessler, Cisco, 2009

The Future of Computer Trading in Financial Markets, Collectif, The Government Office for Science,

2012

The Risk Management Framework: Building a Secure and Regulatory Compliant Trading

Architecture, Anuj Kumar, Cisco, 2009

The trader is dead, long live the trader!, Collectif, IBM, 2006

Trading Floor Architecture, Mihaela Risca, Dave Malik, Andy Kessler, Cisco, 2007

Understanding iWARP: Delivering Low Latency to Ethernet, Collectif, NetEffect, 2012

US Equity/Options Connectivity Manual, Collectif, BATS, 2012

WebSphere Front Office for FinancialMarkets: Fast access to market data, Collectif, IBM, 2011

WebSphere MQ Primer: An Introduction to Messaging and WebSphere MQ, Mark E. Taylor, IBM,

2012

Bibliographie

Paul Wilmott Introduces Quantitative Finance, Paul Wilmott, Wiley 2007

Algorithmic Trading and DMA: An introduction to direct access trading strategies, Barry

Johnson,Myeloma Press 2010

Inside the Black Box: The Simple Truth About Quantitative Trading, Rishi K. Narang, 2007

The Speed Traders: An Insider’s Look at the New High-Frequency Trading phenomenon that is

Transforming the Investing World, Edgar Perez, 2011

High-Frequency Trading: A Practical Guide to Algorithmic Strategies and Trading Systems, Irene

Aldridge, 2010

Dark Pools: High-Speed Traders, A.I. Bandits, and the Threat to the Global Financial System,Scott

Patterson, 2012

Page 73: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

73

The High Frequency Game Changer: How Automated Trading Strategies Have Revolutionized the

Markets, Paul Zubulake, Sang Lee, 2010

The flash crash: The impact of high-frequency trading on an electronic market, Andrei Kirilenko

Mehrdad Samadi Albert S. Kyle Tugkan Tuzun, 2010

The Handbook of Electronic Trading, Joe Rosen (editeur), Capital Markets Media Inc, 2009

The problem of HFT. Collected writings on high frequency trading & stock market structure reform,

Haim Bodek, Decimus Capital Markets,2013

Straight Through Processing for Financial Services, Ayesha Khanna, Academic Press, 2007

Next Generation Data Centers in Financial Services: Driving Extreme Efficiency and Effective Cost

Savings,Tony Bishop,Elsevier Science,2009

Articles (sélection)

A service-oriented architecture for financial business processes, Fethi A. Rabhi, Hairong Yu, Feras T.

Dabous, Sunny Y. Wu, Information Systems and e-Business Management , Volume 5, Issue 2, 2007

Algorithmic trading: a primer, Max Palmer, Journal of Trading Summer 2009 Volume 4 Number 3,

2009

Analysis of the Advanced Message Queuing Protocol (AMQP) and comparison with the Real-Time

Publish Subscribe Protocol, Gerardo Pardo-Castellote, Real Time Innovations, 2007

Applications of GPUs in Computational Finance, Tim Wood, Universiteit van Amsterdam, 2010

Architecture of FPGAs and CPLDs: A Tutorial, Stephen Brown et Jonathan Rose, Journal IEEE Design

& Test Volume 13 Issue 2, 1996

Benefits of I/O Acceleration Technology (I/OAT) in Clusters, Karthikeyan Vaidyanathan,Dhabaleswar

K. Panda, IEEE International Symposium on Performance Analysis of Systems & Software, 2007.

ISPASS 2007., 2007

Colocation and Latency Optimization, Ayub Hanif, University College London, 2012

Equity Risk control, FPL Risk Management Committee, FIX Protocol, Ltd, 2011

Equity Trading in the 21st Century, James J. Angel, Marshall School of Business Working Paper No.

FBE 09-10 , 2010

FAST Protocol - FIX Adapted for Streaming, Kevin Houstoun, FIX Ltd, 2011

Page 74: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

74

Faster FAST: Multicore Acceleration of Streaming Financial Data, Virat Agarwal,David A. Bader,Lin

Dan,Lurng-Kuo Liu, Davide Pasetto,Michael Perrone, Fabrizio Petrini, Georgia Tech College of

Computing, 2011

High Frequency Trading and the New-Market Makers, Albert J. Menkveld, University Amsterdam,

2012

High-Frequency Trading, Peter Gomber, Björn Arndt, Marco Lutat, Tim Uhle, Goethe Universität,

2011

Implementing FIXatdl, Scott Atwell, FIX Ltd, 2010

Introduction to InfiniBand for End Users, Paul Grun, InfiniBand Trade Association, 2011

Optical Networking for Capital Markets: The Bright Side of Dark Fiber, Andrew Cartine / Kevin

McPartland, Tabb Group, 2010

Performance Modeling and Benchmarking of Event-Based Systems, Kai Sachs, Technische Universität

Darmstadt, 2010

Processing Flows of Information: From Data Stream to Complex Event Processing, Gianpaolo Cugola,

Alessandro Margara, Politecnico di Milano, 2011

Relativistic statistical arbitrage, A. D. Wissner-Gross, C. E. Freer, MIT, 2010

Risk Analysis on the Fly: Fast Markets, Complex Portfolios, E. Paul Rowady Jr., Adam Sussman, Tabb

Group, 2009

Seven Things to Look for in a Colocation Provider, Bryan Doerr, Savvis, 2012

Software Defined Silicon, David May, Bristol University/XMOS, 2007

Speed, Distance, and Electronic Trading: New Evidence on Why Location Matters, Ryan Garvey, Fei

Wu, Journal of Financial Markets, Volume 13 Issue 4, 2010

Stratégies de Trading Haute-fréquence (HFT) : Quels impacts pour le marché ?, Laurent Grillet-

Aubert, AMF, 2011

The 8 Requirements of Real-Time Stream Processing, Michael Stonebraker, Uğur Çetintemel,Stan

Zdonik, MIT, 2005

The GPU Computing Revolution, Simon McIntosh-Smith, Industrial Mathematics KTN, 2011

Topics in High-Performance Messaging, Robert A. Van Valzah, Todd L. Montgomery, Eric Bowden,

Informatica, 2011

Where is the Value in High Frequency Trading?, Álvaro Carteay, José Penalvaz, Banco de España,

2010

Page 75: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

75

Glossaire

AT : Algorithmic trading. Processus transactionnel sur les marchés entièrement automatisés, de la

génération d’un ordre jusqu’à la réception de l’accusé d’exécution.

ATS : Alternative Trading Platform. Plateforme d’échanges non régulée qui fonctionne en général

avec un système de notifications d’intérêt. Terminologie américaine. Un ATS n’émet donc pas de

cotations et ne tient pas de carnets d’ordres.

CEP :Complex Event Processing. Concept et logiciels qui permettent par un système de règles de

gestion d’analyser en temps réel un ou plusieurs flux continus.

Colocation: Procédé offert par les marchés aux opérateurs désireux de positionner leurs systèmes

dans leur datacenter.

Feed Handler: Gestionnaire de flux de cotations. Prend en charge la réception d’un ou plusieurs flux,

sa normalisation, la gestion d’un cache et le routage des flux normalisés.

Direct Market Access : DMA. Procédé par lequel un courtier autorise l’accès direct aux marchés à un

client en conservant, ou non, un certain degré de contrôle ou de supervision sur son activité

DP : Dark pool. Voir ATS.

ECN : Electronic Communication Network. Plateforme d’échanges non régulée. Terminologie

américaine. Les transactions effectuées sur un ECN doivent par contre être notifiées au niveau du

marché en charge de l’actif échangé.

EMS: Execution Management System. Système d’exécution d’ordres qui intègre des procédés

d’optimisation au niveau du séquençage et du routage des ordres.

FAST: FIX Adapted for Streaming. Version de FIX optimisée au niveau de la représentation des données

pour le traitement en flux tendus. Les spécifications de la version 1.2 ont été publiées en 2009.

FIX: Financial Information eXchange. Protocole de messages pour les transactions sur les marchés

financiers. Très utilisé pour le passage d’ordres. Considéré comme un standard de fait.

FPGA: Field-Programmable Gate Array. Puce reprogrammable qui peut être déployée en parallèle à un

système CPU, typiquement un serveur. Permet une vitesse de traitement très supérieure à un

système CPU.

GPU: Graphic Processing Unit. Puce qui comprend N processeurs et une mémoire dédiée. Utilisée

dans le cadre d’opérations simples mais volumineuses, généralement comme grille informatique,

typiquement des simulations ou des opérations d’évaluation du risque.

Page 76: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

76

HFT : High Frequency Trading. Pratique du trading algorithmique qui capitalise de manière exclusive

sur la rapidité d’accès aux marchés. Par extension, il couvre les stratégies d’échanges dont le succès

est dépendant d’un accès particulièrement performant aux marchés, typiquement les stratégies

orientées microstructures du marché.

InfiniBand : Infiniband est un bus à très haut débit utilisé dans le cadre de réseaux systèmes (System

Area Network) pour des traitements très haute-fréquence et fondé sur RDMA. Il s'agit d'un standard

de l'industrie maintenu par l'Infiniband Trade Association. Infiniband est une architecture réseau,

matérielle et logicielle.

Jitter: Turbulence dans un signal. Ces turbulences représentent la part variable dans le délai d’une

communication. Par extension, il s’agit aussi du délai variable dans un traitement au niveau d’un

système, entre les interfaces réseaux et l’OS (interruptions) ou dans la gestion des threads et des

processus.

Latency: Délai entre un évènement qui se produit et la réaction d’un système à cet évènement. Il peut

s’agir de la transmission d’un paquet, de l’exécution d’un algorithme en réponse à une action

utilisateur ou du temps nominal pour un CPU à exécuter un processus.

MiFID : Markets in Financial Instruments Directive . Directive qui concerne les marchés d’instruments

financiers publiée au Journal officiel de l’Union européenne le 30 avril 2004. L’objectif de la directive

MIF est de participer à la construction d’un marché de capitaux plus intégré, plus profond et plus

efficace pour abaisser le coût du capital tout en renforçant la protection des investisseurs.

MTF : Multilateral Trade Facility. Terminologie européenne. Voir ECN.

OMS: Order Management System. Système intégré de gestion d’ordres, sur la partie trade et post-trade.

Un OMS prend en charge le suivi complet d’un ordre, de l’exécution jusqu’à la compensation et au

règlement.

RDMA: Remote Direct Memory Access. Technologie qui permet une communication directe (OS bypass)

entre une interface réseau et la mémoire centrale d’une unité CPU.

Reg NMS : Regulation National Market System. Législation entrée en vigueur en 2007, décrite par la SEC

comme "une série d'initiatives destinées à moderniser et à renforcer le marché national des capitaux ".

Elle vise notamment à encourager la compétition entre les marchés de manière à renforcer l'efficacité

des marchés et à améliorer le processus de formation des prix.

SI: Systematic Internalizer. Terminologie européenne. Voir ATS.

SOR : Smart Order Routing. Algorithme qui permet de router un ordre vers la source de liquidité qui

représente, en fonction d’un certain nombre de paramètre, le meilleur choix pour l’opérateur.

Page 77: Les systemes de transactions_automatiques_dans_les_activités_de_marchés

77

Stream Level 1-2-3 : Division des flux de cotations en fonction du volume d’informations qu’ils

contiennent. La division est fonction de la profondeur du carnet d’ordres renseigné dans le flux. Le

niveau 1 représente uniquement le meilleur bid/ask.

STP : Straight through processing. Conception du processus de transactions relatif aux produits

financiers sur les opérations trade et post-trade qui vise à automatiser l’intégralité des actions. Les

processus de transaction, de contrôle, de compensation, de règlement et de comptabilisation sont

visés avec l’objectif de limiter le risque et de réduire les coûts.

Ticker plant : Plateforme de gestion de flux qui intègre les composants de réception, de traitements, de

stockage et de routage.