La qualité des données à l’ère du Big Data : un enjeu primordial pour les banques

Article paru le 11 décembre 2017 | Partager sur les réseaux sociaux

Classé dans : Banque, Finance

Les établissements bancaires investissent de plus en plus dans des programmes de qualité de données. En effet, la fiabilisation de l’information (complétude, intégrité) de sa collecte à son utilisation représente aujourd’hui un enjeu majeur tant sur le plan business que réglementaire.

D’un point de vue business, l’incomplétude des données sur les clients (absence d’éléments sur les garanties par exemple) peut amener à une surévaluation des indicateurs prudentiels globaux (RWA ou risk-weighted assets, ratio de liquidité, etc.), ce qui grève les capacités de prêter de l’établissement et donc sa rentabilité.
Les lacunes dans la connaissance du client peuvent mener quant à elles - outre les risques de conformité en termes de lutte anti-blanchiment - à une notation de risque de contrepartie erronée, c’est à dire soit à une mauvaise appréciation du risque de défaut soit à un refus d’octroi de crédit et donc un produit net bancaire diminué.

D’un point de vue réglementaire, les Autorités de contrôle nationales et européennes exigent des reportings plus nombreux depuis la dernière crise financière et à un niveau de granularité toujours plus important, les amendes en cas de défaut pouvant être significatives. Les établissements bancaires doivent donc être capables de produire l’ensemble de ces reportings (COREP, FINREP, etc.) dans des délais courts tout en s’assurant de leur évolutivité en cas de nouvelles exigences.

La norme bâloise "BCBS 239", entrée en vigueur le 1er janvier 2016, énonce les principes en termes de qualité de données à destination des banques d’importance systémique au niveau mondial et, à terme, national. Néanmoins à ce jour, nombre d’établissements continuent de conduire des chantiers SI et métier afin de se conformer pleinement aux meilleures pratiques.

Une difficulté accrue à l’international

La problématique de qualité de données prend une ampleur plus grande dans le contexte actuel de mondialisation des grands établissements bancaires. En effet, les filiales à l’international exploitent souvent des SI distincts, dans plusieurs langues. Les référentiels et les nomenclatures sont différents de même que les devises et les normes comptables.
Par ailleurs, la tendance au nearshoring et à l’offshoring dans les SI bancaires génère une distance entre les utilisateurs de la donnée et les acteurs en charge de sa maintenance, ce qui représente une difficulté additionnelle et une source potentielle de complications.

Dans ce contexte d’augmentation des volumes de données et de leur hétérogénéité, les établissements bancaires doivent adopter une approche de "Master Data Management", s’appuyer sur des outils de contrôle automatisés et renforcer leurs filières de gouvernance de la donnée.

Master Data Management

Une gestion centralisée des données des référentiels internes (produits, entités, etc.) et externes (tiers notamment) autour d’une architecture SI et d’un processus organisationnel uniques est le moyen le plus efficace pour disposer d’une information complète et à jour en tout point de l’établissement et pour tout besoin. L’historisation en central permet quant à elle de justifier aisément tout élément d’information financière en cas d’audit ou de revue du régulateur.

Automatisation des contrôles

Une automatisation des contrôles de qualité sur les données permet de les exécuter plus fréquemment et de pouvoir anticiper pour agir (correction, complétion) avant les périodes sensibles d’arrêté mensuel ou trimestriel.
Parmi les outils pouvant être implémentés au sein de SI existants, on peut citer :

  • Les outils de recette de non régression automatisée : faisant économiser délai et budget, ils permettent de s’assurer que les multiples livraisons de correctifs et d’évolutifs sur les SI ne provoquent pas d’effet de bord sur les données.
  • Les outils de vérification au niveau des Infocentres : ils appliquent certaines règles de contrôle métier à l’ensemble de l’entrepôt de données pour repérer, par exemple, les clients dont les coordonnées sont absentes ou les opérations dont une donnée clé n’est pas renseignée. Des analyses plus approfondies peuvent être programmées, telle que la comparaison du taux d’intérêt appliqué à un contrat par rapport à la moyenne des autres contrats de même nature.

Renforcement de la gouvernance de la donnée

Les programmes de qualité de données et de connaissance du client (KYC ou Know-Your-Customer) amènent les établissements bancaires à récolter un grand volume de données sur leurs clients. Cependant, des mesures de protection des données personnelles encadrent strictement l’usage qui en est fait, le nouveau règlement européen RGPD par exemple doit entrer en vigueur en Mai 2018. Afin de prendre en compte l’ensemble des exigences auxquelles ils sont soumis, les établissements bancaires doivent se doter d’une véritable politique de gouvernance de la donnée, cohérente et unifiée, ainsi que d’un rôle dédié de Chief Data Officer afin de la piloter.

mc²i Groupe accompagne les filières Data de banques systémiques internationales et d’institutions financières dans leurs programmes d’amélioration de la qualité afin de leur permettre de capitaliser sur la valeur de leurs données tout en remplissant leurs obligations de conformité.

Partagez cet article sur les réseaux sociaux