L'Atelier vous livre un compte rendu de l'Atelier qu'il a organisé le 25 février dernier en partenariat avec IBM.

Le grid computing (la grille informatique) est un principe révolutionnaire qui optimise la puissance de calcul des systèmes informatiques. Ainsi, les ressources inactives d’un ensemble de PC ou de serveurs connectés au réseau de l’entreprise ou via Internet, peuvent être sollicitées pour effectuer en un temps record un ensemble de calculs complexes (simulations Monte-Carlo, scoring…). De nombreux départements américains de Risk Management l’ont déjà adopté comme une technologie discriminante. Fort de ce constat, l’Atelier a organisé le 25 février dernier en partenariat avec IBM un Atelier consacré aux atouts concurrentiels du Grid Computing pour les systèmes informatiques des marchés financiers.
L’idée centrale de cet événement a été de mettre en avant la maturité du Grid Computing, avec ses succès au sein des entreprises, et tout particulièrement pour les services des marchés financiers.

Avant d’entrer dans le vif du sujet, Jean de Chambure (responsable éditorial et analyste à l’Atelier) a démonté trois fausses idées sur le Grid. Premier mythe, la « grille informatique » ne touche pas qu’une petite communauté de développeurs ; appliquée à certains projets grand public comme la recherche du protéome lancée par le Téléthon 2001 (en partenariat avec les sociétés IBM, Platform et Genomining), le Grid a su lever l’adhésion de 75.000 internautes ! Les résultats recherchés ont été obtenus en deux mois, au lieu de plus de 1100 ans, si les calculs avaient été effectués depuis un seul PC !… Deuxième point, la technologie : le grid utilise à échelle mondiale l’ensemble de la capacité de calcul des PC (via le réseau Internet) ; ce n’est donc pas seulement du clustering (le regroupement de la puissance d’un ensemble d’ordinateurs physiquement rapprochés). Troisième aspect, le potentiel du Grid. En plus de son succès « scientifico-médiatique », le Grid Computing a été identifié comme une technologie discriminante par quatre secteurs d’activités majeures : l’énergie & l’environnement, l’industrie automobile et aéronautique, la banque, la biotechnologie. Quels sont pour le Grid les critères communs de succès chez les internautes pour les entreprises ? Deux points fondamentaux se dégagent : l’optimisation et la performance. Optimiser à la puissance de calcul de son parc informatique est aussi important pour un service de marché financier, que le simple fait de faire fonctionner à plein toutes les capacités de calcul son ordinateur pour un particulier. D’autre part, accroître la performance de sa vitesse et sa puissance de calcul est aussi capitale pour un département de Risk Management, que de participer à une communauté de calculs à but humanitaire pour un internaute.

Après cette présentation succincte des atouts du grid computing pour les entreprises, Francis Lacan (Financial Markets & Risk Manager Strategist chez IBM) est allé plus avant dans le sujet en montrant l’intérêt spécifique du Grid Computing pour les marchés financiers. Dans un contexte où les opérations sur les marchés financiers sont de plus en plus importantes, les simulations sur les portes-feuilles, les taux de change ou les taux d’intérêt, sont devenues de plus en plus complexes et demandent à être gérées en moins en moins de temps. « Il apparaît donc aujourd’hui de plus en plus évident aux marchés financiers que leurs marges seront issues d’anticipations qui gèrent rapidement la complexité des opérations » ajoute Francis Lacan. Le Risk management ne peut donc plus faire l’économie de la sophistication. Face à cet enjeu essentiel, le Grid Computing offre une vraie valeur ajoutée par rapport à la chaîne de valeur linéaire des calculs parallèles, car il permet de répartir de façon plus optimale les charges de calcul sur les différents terminaux (PC) sollicités. Et ceci dans les contraintes d’un environnement informatique hétérogène. De fait, les web services, sortes de traducteurs des différents langages informatiques existant dans une entreprise, sont une brique préalable indispensable à la mise en place d’un Grid Computing au sein d’une entité spécifique d’une société. En conclusion, Francis Lacan a rappelé ce qu’IBM préconise aux établissements financiers pour optimiser leur système informatique. L’idéal est de commencer par les ressources physiques de leur système (stockage des données, canaux de communication…), puis de poursuivre par les unités opérationnelles (reporting, confirmations…), les unités fonctionnelles (applications de recherche, de vente, de courtage…), et enfin les unités business (gestion de capitaux, assurance de titres…).

C’est en effet « le sens de l’histoire informatique » renchérit Philippe Bricard (responsable européen de l’offre Grid Computing d’IBM). Le Grid s’inscrit dans la démarche d’IBM qui propose aux entreprises une vision globale de leur système informatique, basée sur une utilisation à la demande où toutes les consommations informatiques (réseau, applications…) sont optimisées, car toujours utilisées en fonction d’une demande réelle. Pour que le Grid puisse donner toute la mesure de son efficacité, l’infrastructure du département concerné doit être optimisée (gestion des charges, réduction des temps de transfert…), posséder un accès performant aux données de l’entreprises (distribution globale, fédération de données), et enfin, être très disponible et résistante (rétablissement en cas d’erreur, systèmes anti-échec). Côté standard, IBM met en avant la vertu des langages ouverts à tous les niveaux de la chaîne informatique : du réseau (TCP/IP), en passant par l’information (HTML, HTTP, J2EE, XML) et les systèmes d’exploitation (Linux), jusqu’aux applications (Web Services) et à l’informatique distribuée : le Grid, avec Globus et OGSA (Open Grid Services Architecture). De fait, l’OGSA offre le meilleur des valeurs ajoutées du Grid et des Web services : celle l’optimisation des ressources (pour le Grid), et celle des applications à la demande (pour les web services).

Après cette présentation des qualités nécessaires de l’infrastructure et des standards informatiques pour la mise en place du Grid computing, Philippe Bricard a poursuivit son exposé en citant quatre grands domaines d’intervention pour l’offre Grid d’IBM : les sciences de la vie, le secteur automobile et aéronautique, le secteur public, et celui des marchés financiers, grâce à l’amélioration de la performance des calculs que le Grid peut proposer dans certains cas. Quelles sont les étapes pour mettre en place un Grid Computing ? La première consiste à comprendre clairement quels sont le potentiel et les bénéfices du Grid. La deuxième demande d’identifier et de hiérarchiser les opportunités du grid en fonction de sa propre organisation et de son environnement IT. La troisième étape implique de développer un plan pour un projet pilote. La dernière consiste à mettre en place des projets spécifiques en fonction de ses propres critères de décisions (go/no-go) et de ses premiers retours d’expériences. Un autre exemple dans l’assurance où la technologie Grid IBM s’avère probante : au sein d’un département où les applications d’évaluation de polices d’assurances mettaient 18 heures à effectuer leur calcul, le grid a permis de réaliser ce type de tâche en 34 minutes, grâce à la puissance de calcul commune de huit processeurs. Grâce à une programmation automatisée, cela a libéré les actuaires de ces tâches pour leur permettre de se focaliser sur leur travail d’analyse, et d’élaborer ainsi davantage de scénarios pour réduire leur risque.
A l’appui de ces propos, Dominique Cheuret (Architecte Marchés Financiers – IBM) a fait une rapide démonstration mettant progressivement en œuvre de 1 à 12 processeurs sous technologie Grid, abaissant ainsi le temps final de calcul dans un rapport de 8 à 1.

Côté marchés financiers, Maroun Edde (directeur stratégie chez Murex) a mis en avant les liens utiles entre une plate-forme logicielle dédiée aux produits dérivés (Murex) et le Grid computing. La plate-forme Murex touche l’ensemble des produits dérivés (dérivés de change, change & monétaire, dérivés de taux, obligataire, dérivés d’action, dérivés de crédit, dérivés énergie). Elle prend en compte les différents cycles de vie des transactions, ainsi que les différentes étapes liées à ces cycles : documentation, comptabilité, paiements, conformité juridique, courtage. Suite à une enquête réalisée auprès de trois établissements financiers, Murex a mis au jour plusieurs limites dans la performance de calculs effectués par ces derniers. Ainsi, pour un porte-feuille, une moyenne de seulement 65 simulations est effectuée par les établissements concernés. De plus, pour les micro-analyses sur les produits dérivés, le temps de calcul devrait idéalement approcher une seconde, pour permettre aux agents d’être encore plus réactifs. Face à cette situation, Murex a mis en place un système de calcul multi-process, appelé service MPC (Multi-Process Computing), qui va gérer les différentes ressources informatiques du département (NT/XP, Linux, Unix,…) en fonction des requêtes de calcul contextuelles ou on-contextuelles qui lui sont soumises. C’est un système Intra-Grid (propre au réseau du département), hétérogène et dynamique. Par rapport à un simple ajout de processeurs (Intel 2 GHz) sous NT, son prototype de calcul distribué sollicitant jusqu’à 80 processeurs s’avère nettement plus efficace : temps de calcul de 0.6 seconde par point et de 9 minutes pour l’ensemble (avec 40 processeurs sollicités), contre 2,5 secondes par point et près de 40 minutes pour l’ensemble pour l’autre solution proposée. Le succès de ce prototype implique cependant plusieurs nouvelles étapes : calibrer et optimiser les requêtes de calculs faites au MPC de Murex, validation finale du prototype sous l’architecture Linux, modèle à valider en cas de forte charge des utilisateurs, et enfin adoption de standards et test en extra-grid.

En conclusion de cet atelier, Jérôme Lebuchoux (head of Derivatives Research au Crédit Agricole Indosuez) est venu exposer sa vision de la gestion du risque au sein des départements financiers dédiés aux produits dérivés. Entre le prix théorique d’un produit dérivé et la marge qu’un établissement financier peut en retirer, il y a une série de risques additionnels qui sont basés sur le modèle, la liquidité, les opérations et les risques de contre-parties. Pour bien être pris en compte, ces derniers exigent un nombre considérable de calculs. « dans un porte-feuille classique de swaps (Un swap de change est une transaction par laquelle deux contre-parties s'échangent des flux financiers - des dettes - de même nature, libellés dans deux devises différentes), le nombre moyen de calcul requis est de 20.000 (nombre de flux), fois 10.000 (nombres de scénarios), fois 300 (nombres d’étapes) ! » ajoute Jérôme Lebuchoux. Dans ce type d’environnement ultra-compétitif, les gestionnaires de systèmes de calculs doivent ainsi répondre à trois grandes règles : la capacité de concevoir eux-même des solutions sur mesure pour leur département, qui intègrent l’ensemble des risques et la réduction globale des coûts informatiques. La variété et la complexité des calculs exigés par les produits dérivés rendent aujourd’hui inadéquat les systèmes de calculs intensifs qui ne répondent plus à la complexité de l’environnement technologique des entreprises, et aux nécessités de flexibilité et de variation de dimensionnement. Face à ces nouveaux enjeux, trois types de solutions existent : le clustering, la montée en puissance des processeurs, et le Grid, solution la plus appropriée à ces nouveaux besoins si elle s’intègre bien aux réalités spécifiques (informatiques et métiers) des différents départements financiers.

(Atelier BNP Paribas - 04/03/2003)