top of page
Photo du rédacteurSWISSMEFIN

Big Data dans la banque et la finance… pierre philosophale… ou pas !



Vu comme la pierre philosophale de la finance par les fameux « data scientist », le big data fait le buzz en finance depuis près de 5 ans. Sans partager cet optimisme, force est de constater que ces méthodes apportent des évolutions méthodologiques majeures, dont la réponse à la question de la valeur ajoutée demande toutefois à être différenciée pour le client, la banque ou l’investisseur.

L’industrialisation des gestions individualisées et contextualisées

Le traitement de masse des données a individualisé et contextualisé les gestions sur les dimensions traditionnelles de risque et de performance, mais également sur les dimensions fiscales, écologiques et sociales. 

L’amélioration des fichiers valeurs combinée avec l’enregistrement des attentes graduelles des clients sur plusieurs dimensions et les valorisations des positions en portefeuilles permettent une service multi-dimension tout au long de la chaîne de valeur de la banque privée. 

Pour certaines banques, les traitements des données en gros permettent également de simuler en temps direct les impacts des décisions d’investissement ou de générer des propositions d’arbitrage individualisées quotidiennes sur des masses considérables de client en intégrant des univers d’investissement bien supérieurs aux fichiers valeurs traditionnels. 

Globalement, avec l’abaissement du coût du traitement de masse des données, le niveau de sophistication des gestions privées s’est fortement accru, le coût de ces gestions plus complexes, plus individualisées et plus proactives est désormais abordable également sur des mass affluents.




Le Big data, une source d’optimisation dans la gestion bancaire 

Dépositaire historique des informations financières et non-financières du client, les banques ont été temporairement détrônées par les géants du net. 

En se concentrant sur l’analyse de l’activité sociale et les intérêts des usagers, ces derniers ont réussi à constater des tendances[1] pour optimiser leur modèle économique.

Entre temps, certaines banques ont rattrapé le retard. Elles ont croisé leur capital historique d’informations financières et non financières avec les analyses de navigations de leurs usagers et de leur traces (données livrées) livrées inconsiement par les usagers.

Elles sont désormais en mesure d’exploiter ces tendances comportementales sur la base des analyses de flux transactionnels de leurs clients dans la banque, mais également extra-bancaire textuel et sur les réseaux sociaux. L’imact au niveau de la conduite des risques (crédit et ALM), de la conformité, de la gestion financière et de la gestion marketing de la banque. 

La valeur ajoutée pour les banques est primordiale, sachant que si les modèles opérationnels (et pas logistiques) ont été fortement optimisés du point de vue transactionnels, le potentiel actuel réside dans la concentration sur les offres (marketing) et dans l’individualisation de l’offre de services…

La recherches de la pierre philosophale dans l’investissement

Les changements du big data sont particulièrement présents également dans la gestion des investissements par la recherche d’indicateurs des plus-values de marchés. 

  • Approches à la mode, les analyses de textes ou d’occurrences permettent d’identifier des opportunités d’investissements, par l’intérêt qu’ils génèrent sur les supports choisis.

Si de telles approches permettent d’identifier l’intérêt du public ou des investisseurs, la question se pose si une bonne partie de la plus-value n’a pas déjà été extraite par les autres investisseurs aupraravant au moment où ils deviennent détectables. La logique étant qu’au moment ou on se rend compte qu’une mode est arrivée, c’est déjà assez engagé…

  • L’exploitation des nouvelles de marchés, correctement contextualisées et valorisées, représente également une niche exploitée depuis quelques années. Dans ce cadre, la capacité effective d’analyse ainsi que la capacité de transmission des ordres sont cruciales pour pouvoir profiter de ces plus-values.

De telles apporches font du sens, maintenant la question est la valeur ajoutée d’un getionnaire sur ce segment par rapport aux prestataires d’information importants (Reuters) qui offrent déjà une valorisation des nouvelles.. cela voudrait donc dire que l’on a une capactié à mieux anaylser la nouvelle que Reuters… et à exploiter ces nouvelles directement sur le marché… avant les autres… (merci le ticket d’entrée et les coûts pour rester en pointe…)

  • La troisième méthode consiste à la recherche des influenceurs/corrélateurs du marchés. Désormais, les systèmes cherchent à identifier, dans la masse des statistiques publiées, celles qui pourraient avoir une influence sur les marchés, au risque de se retrouver face à des résultats aberrants sans signification économique. Ce que l’on appelle un « surapprentissage » risque de marcher jusqu’au moment où…. badaboum… pour les initiés, la fameuse production des pommes de terre au Bangladesh vous dira quelque chose ( le meilleurs corrélateur identifié pour expliquer la croissance du SP 500 dans toutes les statistiques annuelles de l’ONU… était la production de pommes de terres au …Bangladesh.)

Deux questions de fond par rapport à ces méthodes pour un investisseur sont de savoir par rapport aux coûts et à l’investissement qu’ils nécessitent pour rester à la pointe, de savoir s’ils génèrent effectivement des alpha… et si les alphas qu’ils permettent d’identifier n’étaient pas déjà exploités à 90% par des méthodes plus simples.

L’autre question est de confronter les trouvailles effectives à la robustesse de la réalité des coûts, à savoir que les plus-values générées se font manger par les coûts de transactions.

Dès lors, la circonspection des investisseurs doit être de mise, sachant que ces méthodes sont réellement des niches avec du potentiel dès lors elles doivent s’inscrivent dans une logique économique, mais de vraies bombes à retardement si elles s’en éloignent.

Un marché qui mature, un ticket d’entrée qui augmente 

En conclusion, on se rend compte pour chacun des trois volets présenté que le big data est inévitable, comme outil primaire ou pour valider les conclusions qui arrivent par des méthodes traditionnelles.

Toutefois, la question avec un marché qui mature, c’est de mettre en perspective l’investissement nécessaire pour innover (temps, compétences et financier) alors que les résultats deviennent de plus en plus disponibles sous forme de services.

Christophe Lamon

0 vue0 commentaire

Comments


bottom of page