+
-

Société générale, banque data centric

Le 25/03/2019

Au cours du salon Big Data organisé les 11 et 12 mars à Paris, Emmanuelle Payan, Chief Data Officer du groupe Société Générale, a évoqué le chemin parcouru depuis 3 ans :

« Ma mission est d’amener les métiers à utiliser de plus en plus correctement la donnée dans la transformation digitale du groupe. Comme chez d’autres acteurs bancaires, le volume de données traité s’accroît avec la digitalisation (40 Petabytes de données [1]). Nos services IT, à la fois importants (le budget IT groupe est de 4 milliards d’euros, pour un effectif de 23 500 personnes) et très organisés, sont habitués à la modélisation statistique (gestion de risque, ALM…). Ils utilisent désormais davantage de technologies de machine learning dans une perspective d’évolution progressive vers des technologies d’intelligence artificielle. Notre stratégie est basée sur la donnée et l’usage des algorithmes, afin d’améliorer les services rendus à nos clients : le grand enjeu étant d’être capable de leur répondre 7/24.

Au cours de 2017-2018, plutôt que de déverser toutes nos données dans un data lake (puits de données) et voir ensuite ce que nous pourrions en faire, nous sommes partis de la valeur que nous pensions pouvoir apporter au business en utilisant la donnée puis nous avons décidé quelles données utiliser, comment les stocker, etc. Des Data Usage Analysts, localisés dans chacun des métiers, s’assurent de la conformité à la réglementation (avec une attention particulière portée au RGPD) et fluidifient le processus d’accès et le développement de l’usage de la donnée. Nos cas d’usage se répartissent en trois catégories : ceux d’analyse prédictive, telle que la lutte contre la fraude (niveau le plus mature), ceux d’utilisation d’algorithmes pour améliorer les interactions avec le client, pour lesquels de nombreux développements sont prévus (bot, etc.), et ceux concernant l’amélioration de notre efficacité opérationnelle. »

 

 

[1] 1 petabyte est égal à 10 puissance 15 octets (bytes).