Newsletter du Lundi
15/02/21

Paru dans la newsletter du

Comment Luko a bâti sa maison de data avec Snowflake

Qui ?
Julien Gigoi, chief actuary  de Luko (néo assurance).

Quoi ? 
Une conférence de Tech Rocks sur la manière dont Luko a construit son infrastructure de données et ses outils de data science avec Snowflake.

Comment ? 

En décembre 2020, la néo assurance Luko a levé 50 M€ supplémentaires (après un premier tour de 20 M€) auprès d'EQT Ventures. Un deal où la technologie a servi de support à la valorisation. Et c'est tout l'intérêt de l'intervention de Julien Gogoi à la conférence Tech Rocks, de décembre dernier : détailler le travail en commun avec Snowflake, la société qui est actuellement sur toutes les lèvres des CDO pour  leurs projets data.
En effet, Luko a choisi cet éditeur pour construire la base de son infrastructure de données et ses outils de data science.«Ce n’est pas une nouveauté, l’assurance est un métier de data.», déclare Julien Gigoi, Chief Actuary de Luko. « En tant que NeoAssurance (uniquement en ligne) les data sont la matière première de notre mission et de notre métier. Elles nous servent à mieux comprendre nos clients pour mieux les protéger, en leur proposant un tarif juste et équitable et en les conseillant sur leur risques de manière personnalisée. Elles nous permettent de développer une IA pour automatiser la gestion de sinistre (remboursements deux fois plus rapides que chez les assureurs traditionnels) ou même les prévenir. »L'ensemble du cycle de vente de Luko se déroule en ligne.  La gestion des sinistres peut se faire via des appels vidéo, et la start up développe des objets connectés pour protéger la maison et gérer la consommation d'énergie.

Luko devait donc s'appuyer sur  un socle solide qui unifie, centralise et transforme les données issues de différentes sources pour  les mettre à la disposition des  équipes. Ayant créé la plupart de ses outils elle-même, Luko avait besoin d’une solution sur mesure. «  Nous devions structurer le processus et construire une base solide pour stocker toutes nos données  », témoigne Julien Gigoi.

Pourquoi Snowflake ? "Auparavant, nous collections la donnée en silos. Notre objectif était de créer de l'utilisation de data partagée. Nous avons choisi cette plateforme pour intégrer toutes nos données".

Luko décide de tester la solution Snowflake en s’appuyant sur Stitch et Segment pour la partie ETL, et Looker pour la restitution des données. «  En trois mois, nous avons monté notre infrastructure, sans avoir recours à un prestataire externe. Avec des systèmes historiques et traditionnels, un tel projet aurait pris plusieurs années  ». Une quinzaine de sources de données ( systèmes de réclamations,   sites web,  systèmes de gestion des sinistres, objets connectés,   bases contrats ou   formulaires Google/typeform ) sont connectées à cette infrastructure.

Snowflake est maintenant le point unique dans lequel Luko stocke et transforme toutes ses données pour les rendre utilisables. L’équipe tech a ainsi construit un datamart qui alimente 3 schémas de données, des dizaines de tables et  de vues sur Looker, chiffre qui va être amené à considérablement augmenter avec les futurs cas d'usage. «  Nous connaissons mieux nos clients et pouvons leur proposer de meilleurs prix. Aucune décision dans l’entreprise ne sera prise sans s’appuyer sur les données » . Tous les matins, les équipes de Luko reçoivent une vue Looker dédiée avec toutes les informations dont elles ont besoin sur ce qui s’est passé la veille sur leur périmètre. Elles s'adaptent en temps réel.

Progressivement, Luko va intégrer davantage de data science, pour enrichir des modèles de prédictions, par exemple pour l’analyse des sinistres et la détection de fraude.

Côté organisation, chaque tribu est dotée d'un analyste data et d'une guilde data qui se réunit une fois par semaine. Tous les membres de la guilde ont accès à Snowflake. Au sein de Snowflake, on crée des utilisateurs et on donne des rôles à chaque utilisateur (droit de voir ou d'écrire).
"Notre travail est d'analyser la donnée, pas de la nettoyer"

Luko se voit comme un "full cloud collaboratif". Les analystes data analysent la donnée mais sont aussi en charge d'apporter cette data à tout le monde. "L'enjeu est de démocratiser la data. En cinq minutes, la data intégrée est partageable partout".
Pour le chantier d'intégration, après quelques difficultés, Luko passe la main à Fivetran une start up devenue licorne à l'ère Covid, qui automatise le passage de la data d'une société dans le cloud :"Récupérer les API tout seul, c'est pas mal de boulot. il s'agit quand même de centaines de giga de données...".  Le chantier s'est déroulé sur un an, avec une équipe de trois personnes, pour mener le pipeline Fivetran Snowflake Looker. "Ca nous aurait pris trois ou quatre ans avec d'autres outils. L'équipe n'était pas composée de data ingénieurs. On n'avait jamais fait ça. Les gens du métier ont créé eux mêmes leur data Mart. On a choisi des outils faciles à prendre en main. ce qui a pris du temps, c'est de créer les data Mart". Luko s'est lancé avec Snowflake en mars 2020 "et en juin, nous avions les tableaux   qui sortaient de Looker."
Faut-il être un technicien pour mener ce type de chantier ? "Je suis un actuaire, pas un développeur. Mais en un an, j'ai été capable de mener ce chantier et de vous en parler car j'ai choisi des outils simples à utiliser. Mon travail est d'analyser de la donnée, pas de la nettoyer. Et quand vous passez 80 % de votre temps à nettoyer la donnée et 20 % à l'utiliser, c'est frustrant. " Comment transformer la donnée en information utile ? "Nous avons pris Looker pour traduire cette donnée en data visualisation. Un tiers des collaborateurs a un compte Looker pour analyser". Un tiers, et pas tout le monde car chaque compte Looker est payant...
L'analyse de données prend 3 secondes au lieu de deux heures
Quels sont les cas d'usage ? "Les premières choses que l'on regarde, c'est la tarification et la conversion. le suivi de profitabilité, le cout des sinistres / primes. les poches de clients mal tarifés. Pour analyser différents comportements de conversion, ça prend trois secondes, au lieu de deux heures auparavant.  Le travail se fait en amont : mapper la data en amont dans le data Mart prend deux semaines, et il faut encore deux semaines pour obtenir des rapports intelligents sur Looker.
L'outil crée de nouvelles opportunités :
-Des outils autour de la Life time value.
-Le partage de données avec les partenaires. "Cela évite aussi d'envoyer des fichiers par FTP".
-La possibilité d'un nouveau type de collaboration, comme le partage de risque avec les réassureurs.

 

Publicite

XX résultats

Oups! votre recherche
n’a donné aucun résultat !