Publication : L'actuariel 11 Janvier 2014

Gestion des données : la révolution technologique est lancée

Florence Puybareau

Détecter des signaux faibles

Si cette problématique technique concerne essentiellement les modèles actuariels, elle interpelle cependant sur un concept plus large et qui fait actuellement fureur, le Big data. À savoir l’avalanche de données numériques résultant de l’utilisation massive d’Internet, associée à la multiplication des appareils connectés. Pourtant, s’ils en parlent (beaucoup), multiplient les colloques et s’interrogent à l’instar du chercheur Serge Abiteboul sur « le Big data comme nouvelle science du risque ? », les professionnels s’emparent à peine du sujet. Contrairement à d’autres secteurs d’activité (médecine, télécoms, distribution…), voire à leurs propres directions marketing et commerciales, qui ont déjà mis en place des projets d’exploitation. Une frilosité que certains experts justifient par le fait « qu’avant d’explorer l’inconnu, il convient de mieux exploiter les données qui dont disponibles. D’autant que des algorithmes existent pour cela ». Or, avec le Big data entrent en considération non seulement les informations provenant des clients et de leurs contrats mais également des données déstructurées et exogènes à l’entreprise (comme par exemple le parcours d’un internaute sur un comparateur d’assurances). Des données qui peuvent recéler énormément de valeur et qui nécessitent pour les traiter un degré de sophistication supérieure à celui des modèles actuariels classiques : « Au-delà des grandes masses, la compréhension de comportements granulaires devient possible par le croisement de données d’origines multiples et variées : des signaux faibles à forte valeur peuvent être ainsi détectés », note Gontran Peubez, actuaire chez Deloitte. Et de s’enthousiasmer sur le fait que « les éléments dans les queues de distribution, si suffisamment plates, peuvent être expliqués. Nous allons passer de l’ère hypothético-déductive, où la logique est de faire entrer des gens dans une loi, à l’inductif ». Ces perspectives ouvrent aussi des opportunités commerciales : « Ce sont de nouveaux gisements pour les assureurs. Par exemple, les données récupérées sur les forums et autres réseaux sociaux vont permettre de mesurer le taux de satisfaction d’une marque », confirme Christophe Geissler, président d’Advestis. Autre changement, de taille : la possibilité d’exploiter les informations d’analyse comportementale issues des concepts du « pay as you drive ». « Jusqu’alors les actuaires disposaient de relativement peu de données, ces dernières étant plutôt limitées à une photographie à un instant T de données majoritairement socio-économiques. Avec le “pay as you drive”, il est possible de disposer de données continues dans le temps, fournissant des informations précises sur le comportement de chaque assuré, et donc sur son risque », souligne Stéphanie Dausque, directrice technique d’Actuaris.

Un défi technique et éthique

Mais les promesses du Big data entraînent aussi un certain nombre d’interrogations qui doivent interpeller les actuaires. D’abord sur leur place en tant que techniciens face à ces nouveaux paradigmes : « L’analyse de flux de données aussi importants demande du temps et des compétences spécifiques. Automatiser au mieux la mise en forme des données, avoir des outils d’analyse puissants et rapides sont les deux conditions pour tirer parti des nouvelles possibilités offertes par le Big data », note Stéphanie Dausque, pour qui les actuaires « vont avoir un rôle encore plus central à jouer, car ils vont devoir garantir l’authenticité et la validité des données ». Quelques voix s’élèvent cependant pour dire que les actuaires ne sont pas totalement prêts à ce changement. « C’est un métier qui jusqu’alors s’est assez peu remis en question. Or, il s’agit d’intégrer une évolution d’envergure dans leur modèle », remarque Gontran Peubez. Pour les professionnels, plus que jamais, il va falloir « maîtriser ces nouveaux modèles et les choisir en fonction de l’application recherchée », précise Christophe Geissler. Ces modèles doivent permettre à l’assureur d’être plus pertinent dans ses offres, telle est l’une des autres promesses du Big data. Mais attention, prévient Gontran Peubez : « Avoir des éléments trop fins ou un trop grand nombre de variables, c’est le risque de se retrouver sur des populations trop faibles en nombre, où la mutualisation n’a plus de sens. Ce n’est plus représentatif sur le plan statistique. L’important est de préserver la mutualisation et il ne faut pas confondre mutualisation et mesure de la probabilité. Avant, nous arrivions à faire de la segmentation sur deux grands profils. Demain, nous le ferons sur dix profils. Mais il y aura partage de la valeur si la mutualisation est préservée. »

À rebours de la mutualisation…

Reste à savoir comment les clients vont réagir face aux potentialités que recèle le Big data. En effet, dès lors qu’ils accepteront de fournir à leur assureur des données très personnelles (le séquençage de leur génome, par exemple, pour prouver qu’ils n’ont pas de maladie invalidante, lequel coûte aujourd’hui 1 000 dollars contre 3 milliards de dollars en 2003 et 100 dollars en 2018) ou de faire analyser leur comportement de consommateur, ne seront-ils pas en droit d’exiger une offre personnalisée, décorrélée de celle de leurs voisins ? Cette question est centrale car elle interroge sur le principe même de l’assurance basé sur la mutualisation et la solidarité. En individualisant les profils à outrance, voire en faisant du sur-mesure, le risque est grand de perturber le modèle assurantiel au détriment tant des compagnies qui vont voir se multiplier les niches que d’une partie des assurés.

 1. La loi Consommation dite loi Hamon prévoit notamment de rendre possible la résiliation des contrats d’assurance à tout moment.