La donnée : nouvel Eldorado de la banque

L’enjeu des données concerne aujourd’hui toutes les industries sans exception. Depuis le lancement précoce de satellites de communication par la firme Walmart à la fin des années ’80, le monde n’a fait qu’évoluer dans le sens d’une utilisation massive des données pour un usage stratégique. Sans surprise, le secteur bancaire n’échappe pas à cette tendance.

Couplée à la donnée, l’analyse de plus en plus poussée (en anglais “data analytics”) est devenu un secteur d’investissement pour de nombreuses banques. Alors que le reporting et l’analyse descriptive sont largement acquis, l’analyse predictive devient le champs de bataille compétitif de l’industrie bancaire.

L’objectif de cette course à la connaissance se trouve dans la cumulation de 3 dimensions “nouvelles” (leur cumul et leur intensité est nouvelle tout du moins) pour la banque :

  • la création d’un avantage stratégique au sein d’une industrie fortement compétitive
  • le maintien d’un niveau de marge suffisant dans un environment de profits décroissants
  • le coût toujours croissant généré par la mise en conformité des activités bancaires

Diminuer ses coûts, tout en augmentant ses revenus et en maîtrisant mieux son exposition aux risques

C’est la proposition de valeur affichée par une gestion rigoureuse des données et des informations qu’il est possible d’en tirer. Si l’idée paraît aguicheuse, une large majorité des acteurs ne parviennent pas à capturer ce potentiel, faute de moyens (et de connaissances) pour y parvenir.

Pourtant, dans un entretient avec la firme de conseil en stratégie McKinsey & Company, Toos Daruvala affirmait déjà en 2013 le point de vue suivant :

Chaque décision majeur concernant l’augmentation de revenus, le contrôle des coûts et la gestion des risques devrait être guidée par une analyse de données rigoureuse.

L’automatisation accrue des activités courantes

Dans un article publié en 2015, Michael Chui, James Manyika, et Mehdi Miremadi mettent en avant 3 leviers pouvant être activés pour automatiser un certain nombre d’activités et ainsi diminuer sa structure de coûts.

Dans ce contexte, l’utilisation de données et d’intelligence artificielle permet d’imagine une portion croissante d’activités pouvant être déléguée à des machines (non pas les robots de films de science fiction, mais des ordinateurs capables d’interpreter et d’effectuer des taches de complexité moyenne).

Chui, Manyika et Miremadi proposent d’aborder les éléments suivants.

Une analyse minutieuse du caractère “automatisable” des activités

Dans l’étude de l’impact potentiel de l’automatisation, la première étape consiste à évaluer le caractère automatisable des activités entreprises.

Se basant sur l’analyse de 2’000 activités sur sol US, l’étude conclut que 45% de ses activités pourraient être automatisée. Cette estimation se basaient sur les avancée technologiques disponible en 2015. A l’époque, les auteurs estimaient que 13% supplémentaires pourraient être atteints si la technologie permettant la connaissance (et l’interprétation) de language progressait d’un pas.

Redéfinir certaines activités et processus

Au-delà de l’analyse des activités existantes, un second levier consiste à réévaluer la manière d’atteindre un objectif en redéfinissant les activités et les processus pour y parvenir. Dans ce cadre, l’étude montre que certaines activités “non-automatiables” peuvent en réalité être découpées en sous ensemble dont une partie pourrait être automatisée.

A ce titre, 60% des activités “non-automatisables” pourraient voir 30% de leurs sous-activités et processus automatisés.

Inclure les charges salariales importantes dans l’approche

Enfin, l’étude suggère d’inclure les haut salaires dans le périmètre d’évaluation des activités automatisantes. Si cette tranche d’activité passe souvent en dessous du radar, prétextant l’impossibilité de l’automatisé, les auteurs déterminent que le niveau de salaire n’est pas un indicateur prédicable quant à l’automatisabilité d’une activité.

Le niveau de salaire n'est pas un indicateur fiable du degré d'automatisation possible pour une activité.

Mieux comprendre ses clients et leurs besoins

Une meilleure compréhension de ses clients et de leurs attentes permet non seulement de mieux les satisfaire (et donc les fidéliser), mais également d’adapter au plus juste le niveau de prestation qui leur est offert afin de mieux gérer leur rentabilité.

Traditionnellement, l’étude des besoins client se fait sur la base d’une “customer journey” (chemin que parcour l’utilisateur tout au long de son expérience avec la marque ou le produit).

L’analyse de donnée intervient tant dans l’identification des étapes de la customer journey que dans l’apport de valeur au client. Une valeur ajoutée importante du numérique consiste en la possibilité d’adapter quasiment à l’infini l’expérience d’un utilisateur sur la base de son profil (appelé “persona” en termes marketing).

L’effet de réseau : gains amplifiés pour les acteurs rapides et “agiles”

Au-delà des gains en efficience visant à établir une excellence opérationnelle et de l’établissement d’une meilleure compréhension de ses clients, l’utilisation systématique de la donnée permet une amplification rapide d’échelle.

L’effet de réseau conféré par l’établissement de plateformes numériques permet souvent aux acteurs rapides (first-mover) de capturer une portion importante du marché. L’effet de réseau est un modèle d’affaire qui mise sur l’hypothèse que l’appartenance à un réseau de taille importante procure un avantage à l’utilisateur. De cette manière, un utilisateur sera moins enclin à quitter un réseau établi pour un autre réseau de moins grande taille. Microsoft et la suite Office est un exemple classique d’effet de réseau.

Dans le cadre de l0établissement de réseaux, il est difficile à l’heure actuelle de départager deux facteurs clés de succès (souvent incompatibles) :

  • L’agilité et la rapidité d’adaptation des petites structures (fintech entres autres)
  • La masse astronomique de données détenues par les structures de taille importante, permettant une puissance d’analyse accrue

Ce paradoxe pousse les acteurs confrontés aux défis de la gestion de la données (et souvent du digital) à investir de manière importante dans des programmes d’accompagnement au changement.

Risque, compliance et audit : opérer en toute sécurité

La gestion des risques dans une banque est naturellement touchée par la donnée. Un signe évident de cette tendance est exposée par la presse lors des différents scandales de fuite d’information ou d’évasion fiscale (panama leaks en est un exemple).

Deux activités dans le domaine du risque et de la compliance sont particulièrement touchées :

Big data, intelligence artificielle (AI), machine learning, comment s’y retrouver ?

Le “big data” fait souvent fantasmer. Il s’agit cependant souvent d’une mauvais compréhension de ce terme. En réalité, le big data se réfère “simplement” à :

un ensemble très volumineux de données qu’aucun outil classique de gestion de base de données ou de gestion de l’information ne peut vraiment travailler. (Lebigdata.fr)

Sur la base de cette masse importante d’information, des outils d’analyse viennent se greffer afin de tirer des enseignements utiles. C’est à ce stade que l’on parle d’intelligence artificielle, de machine learning ou encore de deep learning.

Big data

La notion de big data est née avec l’explosion du volume de donnes générées par nos systèmes. Si les banques y sont directement confrontées aujourd’hui, le mouvement prend forme avec l’arrivée des objets connectés et de nouvelles disciplines scientifiques générant une quantité astronomique d’information (par exemple le sequencage d’ADN ou l’analyse des collisions de particules au CERN).

Dans une publication de 2001, le groupe Gartner introduit trois enjeux majeurs définissant une problématique sujette à la notion de big data :

  1. Un volume de donnée important, au point de ne pas pouvoir être pris en charge par des systèmes traditionnels
  2. Une variété dans la nature de l’information stockée (diversité tant dans les données stockées que dans la complexité de ces données)
  3. Une nécessité de vitesse de recherche et d’accès de ces données

Différence entre “intelligence artificielle”, “deep learning” et “machine learning”

Un article paru mi-2016 sur le site Nvidia présente les schémas suivant.


Dans ce schémas, on constate une imbrication des termes :

  • L’intelligence artificielle est l’objectif final : rendre une machine intelligente, si possible à l’égal de l’homme ou même supérieur.
  • Le “machine learning” est une manière de mourir l’intelligence artificielle. Une implémentation permettant de produire cette intelligence.
  • Le “deep learning” à son tour est une manière d’implementer le machine learning, faisant appel à des technologies imitant la complexité déployée par notre cerveau dans la prise de décision (les réseaux de neurones artificiels en sont un exemple)

Quelques exemples d’utilisation de la données dans le monde bancaire

L’utilisation du Big Data dans la pratique d’investissement de Goldman Sachs

Une partie important du succès d’une activité d’investissement réside dans l’identification d’asymétrie d’information. En termes simplifiés, il s’agit de situations dans lesquels l’expert en investissement détient une compréhension d’un phénomène qui n’a pas encore été reflétée dans les prix d’un instrument financier.

Dans un article sur l’utilisation du Big Data, la firme Goldman Sachs met en avant un certain nombre de méthodologies permettant une prise de décision objective (basée sur des indicateurs quantitatifs) dans ses investissements. Parmi les avancées importantes en la matière, Goldman Sachs décrit le passage d’une analyse basée sur des données structurées (ex. bilans financière, cours boursiers, …) à des données non-structurées (ex. images satellites, éléments de language, discours, …).

Deux des défis importants relevés par la banque sont : la capacité de stockage et la puissance de calcul nécessaire à l’interprétation des données. Afin de fournir à ses banquiers des outils pertinents et rapides, Goldman a su investir massivement dans la technologie. En 2016 par exemple, la firme investissait 809 millions de dollars dans son secteur technologie et communication.

La mise en place d’IMB Watson au Crédit Mutuel

IBM Watson est un programme développé par IBM pour permettre l’utilisation de l’intelligence artificielle dans le cadre de l’interpretation (et de la réponse) de questions formulées en language “humain”.

Entres autres applications, le Crédit Mutuel CIC utilise Watson pour aider ses conseillers à traiter la masse importante d’emails reçus chaque jour. Le système propose des pistes de réponse aux conseillers, en leur indiquant le type de question concerné et des éléments de réponse. A l’heure actuelle, le conseiller reste maître de la réponse finale au client.

Là où les systèmes comme Watson sont particuliers, c’est qu’ils sont capables d’apprendre. Dans le cas du Crédit Mutuel, chaque fois qu’un conseiller sélectionne une des réponses proposée, Watson devient plus intelligent. Cela implique que le système produit une aide croissante à ses utilisateurs, générant des économies potentielles également croissantes.

Share1
+1
Tweet
Share
1 Shares

En continuant à utiliser le site, vous acceptez l’utilisation des cookies. Plus d’informations

Les paramètres des cookies sur ce site sont définis sur « accepter les cookies » pour vous offrir la meilleure expérience de navigation possible. Si vous continuez à utiliser ce site sans changer vos paramètres de cookies ou si vous cliquez sur "Accepter" ci-dessous, vous consentez à cela.

Fermer