Publication : L'actuariel 11 Janvier 2014

Gestion des données : la révolution technologique est lancée

Florence Puybareau

Gestion des données : la révolution technologique est lancée

Afin de développer et paramétrer leurs modèles, les actuaires ont très tôt été amenés à développer des algorithmes complexes capables de traiter d’énormes quantités de données. Mais c’est à la fin des années 1970 que la recherche actuarielle, à l’instar des autres disciplines scientifiques, a fait un véritable bond en avant (notamment) en raison de l’informatisation. Dans un article, publié en décembre 2011 dans le Bulletin français d’actuariat, Martial Phélippé-Guinvarc’h, Philippe Lenca et Antoine Paglia rappellent que « Les trente dernières années ont été marquées par la sophistication des modèles de régression utilisés pour quantifier les risques des compagnies d’assurances ». Ainsi, la régression linéaire simple a été remplacée à partir des années 1980 par les modèles linéaires généralisés (GLM), qui sont encore aujourd’hui largement utilisés, notamment dans l’assurance non-vie. Mais peu à peu, les GLM se sont complexifiés, nécessitant de la part des utilisateurs une technicité de plus en plus grande. Face à ces modèles bien établis et qui ont fait leurs preuves, d’autres méthodes statistiques se sont développées, aidées en cela par le perfectionnement des machines, qui permet d’avoir davantage de puissance de calcul mais aussi par l’explosion des données disponibles, qui offre des opportunités dans les champs de traitement de l’information.

Le Machine Learning encore en marge dans l’assurance

Parmi ces méthodes, l’une des plus connues est le Machine Learning ou apprentissage statistique. Pas totalement nouveau mais encore peu utilisé dans le secteur des assurances, comme le soulignent les auteurs de l’article du BFA : « Les modèles les plus connus de la théorie du Machine Learning sont les réseaux de neurones, les arbres de décision ou encore les support vector machines. Ces méthodes ont été appliquées avec succès dans les domaines de la génétique, de la détection de maladies rares ou de l’écologie pour résoudre des problèmes complexes. Néanmoins, leur utilisation en assurance est moins répandue et/ou confidentielle. » Pour Martial Phélippé-Guinvarc’h, la réticence des actuaires à recourir à ce type de modèle est avant tout culturelle : « Tous les professionnels se sont adaptés aux régressions et les formations ont été basées sur ces modèles. C’est pourquoi, il faudra beaucoup de temps avant une adoption plus large du Machine Learning. » Aux dires de cet expert, un modèle ne remplacera pas l’autre et les deux seront amenés à cohabiter pendant de longues années.

Cependant, d’autres actuaires poussent à donner dès à présent une plus grande place au Machine Learning. C’est le cas de Jean-Philippe Boisseau et Fabrice Taillieu, qui travaillent pour le cabinet Milliman : « Les techniques d’apprentissage statistique vont pallier certaines limites des méthodes GLM. Le Machine Learning permet d’identifier dans les données les relations complexes et non linéaires entre variables sans avoir besoin de supposer a priori des lois de distribution et d’interactions entre variables, ce qui est assez souvent réalisé de façon subjective et/ou implicite dans la plupart des approches classiques. » Ces techniques donnent par ailleurs la possibilité d’exploiter davantage de données et ainsi d’identifier des effets non capturés jusqu’ici. La mise en œuvre de l’approche consiste à n’utiliser qu’une partie de la base de données pour construire les modèles de prédiction, puis de tester ces derniers sur le reste des données afin d’assurer une mesure objective de la performance de l’algorithme. L’autre avantage du Machine Learning est d’offrir au management des compagnies d’assurances des réponses dans des délais nettement plus courts que dans le passé, ce qui peut représenter un avantage compétitif : « La loi Hamon 1 va pousser les compagnies à étudier leur portefeuille de façon très régulière, à prendre les actions nécessaires tout au long de l’année et à suivre en temps réel la bonne adéquation des décisions prises. Le Machine Learning va permettre de répondre à ces nouveaux enjeux », ajoutent Jean-Philippe Boisseau et Fabrice Taillieu.