Menu

Fabrice BOUCHAREL

CHÉCY

En résumé

Exploitation des données à des fins décisionnelles : revenue assurance, contrôle des processus de gestion, reporting, détection de la fraude, anti attrition, segmentation, prévisions, qualité de la donnée ( valeurs aberrantes, recoupements,... ), panier de la ménagère,...

Nouveauté : grosse appétence pour le ML (Machine Learning) et plus généralement pour l'univers du Big Data .
> R : OK
> Python : en cours d'acquisition
> Lectures du moment :
- Practical Statistics for Data Scientists (Peter & Andrex BRUCE - O'Reilly)
- Doing Data Science (Rachel Schutt & Cathy O'Neil - O'Reilly)
- Mining the social web (Mathew A.Russel - O'Reilly)

Champs d'application :

> Lutte anti fraude (ML : KNN, K-Means, GLM, analyse textuelle sur journaux gestionnaires sinistre... packages R : CARET, DMwR (voir algorithme SMOTE pour données déséquilibrées, ...)
> Qualité des données DTW (levée d'alerte si contenu non conforme i.e. tel qu'appris par la machine, aide au diagnostic d'anomalie : variables les plus contributives sur un Random Forest)...

Mes compétences :
SAS Base
SAS Enterprise Guide
SQL ORACLE
Data profiling
Statistiques
Business Intelligence
Reporting
Base de données
Data mining
Recette d'une application décisionnelle

Entreprises

  • THELEM ASSURANCES

    CHÉCY maintenant
  • Thélem Assurances - Chargé de Pilotage et de Contrôle de Gestion

    CHÉCY 2011 - maintenant En vrac :

    Extrait de le fiche de poste :

    * Bases de données
    * Elaboration et suivi des indicateurs
    * Reporting & alerte
    * Contrôle & qualité
    * Veille

    Projet en cours : Fraude externe ( Big Data, Machine Learning, Apprentissage surpervisé , GLM, R, Python, données structurées/non structurées, analyse sémantique - n-gram/phonèmes... -, web scraping / crawling )

    Les données DW Thélem sont reparties en grands groupe :

    * contrats
    * garanties
    * primes
    * sinistres
    * transverses

    Les données de chacun de ces domaines sont soumises mensuellement à des batteries de tests permettant de juger de leur qualité.
    Des infos complémentaires sont rattachées aux entités ( contrats, garanties, primes,... ) positives à un test afin de décider si on a affaire à une anomalie et le cas échéant afin de qualifier cette anomalie.

    Le volet Validation DW du projet Qualité de la donnée a pour but de fixer de façon statistique les seuils de positivité des tests afin de maximiser le nb de cas positifs s'avérant être des anomalies ( si vous comprenez cela, envoyez-moi l'explication par mail... reformulation à venir ).

    Mini-Projet :

    Surveillance du portefeuille (très opérationnel), implique un DW de qualité.

    Sur le projet QDD ( Qualité de la donnée ) :

    C'est un projet générique comportant plusieurs volets :

    * traingulation : avoir à disposition de façon systématique une source tiers pour validation

    * profiling : le niveau 0 de la validation des données dans un DW

    Le profiling peut se voir comme une batterie de tests élémentaires à laquelle on soumet les données d'un DW : nb de valeurs nulles d'une colonne d'une table, nb de valeurs distinctes, taille moyenne d'une colonne alphanumérique etc... La difficulté de l'exercice consiste à exploiter la profusion de résultats produite par le profiling : à date le DW est soumis à 1600 tests élémentaires, ce qui nécessite une sur-couche de traitement (remontée d'alerte intelligente).

    * dictionnaire de données : cartographie des sources de données ( DW, sources externes ) utilisées à des fins de production de reportings.

    Un tel dictionnaire aide à déterminer la criticité des données exploitées.

    Projet décisionnel PREVOYANCE :

    * formations Prévoyance (principes généraux, produits)

    * interview des métiers afin de déterminer leurs besoins en terme de données

    * participation à la rédaction des spécifications (DW prévoyance phase 1 - sur 3 phases-)

    DW Partenaire :

    Dans le cadre de son activité Thélem Assurances est amené à établir des partenariat avec d'autres acteurs du marché : une partie des activités de production est déléguée, le risque restant porté par Thélem.

    Le partenaire est amené à fournir sous forme de flux des données de production que nous souhaitons voir intégrer au sein d'un DW dédié dit "Partenaire" ( car modélisé de façon générique afin de pouvoir accueillir des flux partenaires hétérogènes).
    ...
    A venir :

    Des choses à faire en terme d'automatisation des reportings ( alimentation de datamarts, sur-couche de restitution Web Report Studio - SAS - )

    Métrologie :

    Dans le cadre de la validation DW, communiquer à base de smiley sur l'état des données du DW. Une idée :

    * chaque test admet un seuil de tolérance ( même méthode stat que pour les seuils de positivité )
    * chaque service utilisateur donne plus ou moins d'importance à tel ou tel test
    ( ex - : l'actuariat peut tolérer de travailler parfois sur échantillon... )
    * une pondération des tests différenciée par service est établie
    * note global par domaine par service

    Formations :

    24/05/2012 : Montée en compétence Prévoyance (EVEHO)
    04/06/2012 : Montée en compétence Réglementaire (EVEHO)
    05 - 06/07/2012 : Prévoyance Individuelle (AF2A)
    11/07/2012 : formation produits PREVOYANCE Thélem (dispensée par Thotem, organisme de formation interne)
    31/07/2012 : processus sinistre - matériel non AUTO
    25/09/2012 : chaîne comptable (comptabilité client / comptabilité générale)
    02/10/2012 : processus sinistre - AUTO
    23/10/2012 : service production RDI
    12/11/2012 : Solvabilité 2
    06/2016 : statistiques (CEGOS)
    03/207 : web scraping / web crawling (FORSIDES)
    05/2017 : Machine Learning R / Python ( FORSIDES )
    05/2017 : SAS Add-In
    09/2017 : SAS Visual Analytics
  • SFR - Responsable de Service (statistiques & décisionnel DAF)

    2002 - 2011 J’ai occupé 3 postes successivement au sein de SFR :

    1. « revenue manager » de 2002 à 2004 (au sein de la DAF BU GP)

    2. « chargé d’études statistiques » de 2004 à 2008 (au sein du pôle Analyse Statistique de l'Activité, Direction de la Stratégie). J’ai été nommé responsable d’études statistiques courant 2008.

    3. En Mars 2010, je suis nommé Responsable de Service suite à élargissement de l'équipe initiale. Je prends alors la tête d'une petite équipe de 3 Chargés d’Études Statistiques au sein du pôle Suivi de l'Activité. J'occupe ce poste jusqu'à mon départ de SFR, fin Mai 2011.

    Descriptif des tâches accomplies au sein de chaque poste :

    [ Revenue Manager : ]

    Le « revenue manager » fait en étroite collaboration avec le marketing, du pilotage économique de l’offre.

    Plus en détails :

    * Il s’assure que d’un point de vue financier (gains versus coûts), le projet marketing qu’on lui soumet est viable en établissant un « business plan »

    * Il remonte les risques inhérents à la structure tarifaire de l’offre : explosion des coûts réseau ( sur offres avec illimité ), "cannibalisation" de CA, ...

    * Il précise les conditions de rentabilités de l’offre à venir : point mort, élasticité de la consommation, gain de parts de marché, "yield", ...


    * Il évalue l’impact financier de tout changement dans la politique tarifaire du segment de marché dont il est responsable ( en ce qui me concernait il s’agissait du segment de marché Grand public – offre prépayée et les forfaits bloqués - ) :changement de quantum de facturation, "flat tarif" versus tarification différenciée sur tranches horaires, appel à prix unique,...


    [ Pôle Analyste Statistique de l'Activité (ASA) : ]

    Les missions du pôle ASA sont les suivantes :


    * Fournir les données de référence sur l'activité de SFR, en garantissant la régularité des règles de gestion

    * Publier les indicateurs clés pour le suivi de la performance des offres/produits en terme d'usage et de revenu

    * Apporter les éléments nécessaires à l'établissement du référentiel de prévisions de SFR (input pour le BP et budget SFR)

    * Nourrir la règlementation d'indicateurs à destination de l'ARCEP
    Fournir au CDG des éléments permettant d'effectuer certains reversements aux éditeurs

    * Etre en support de la MOA finance pour l'implémentation des règles de gestion dans le Datamart


    En tant que chargé d’études statistiques au sein de la direction financière je suis amené à travailler en étroite collaboration avec un large éventail de collaborateurs issus d’entités variées :


    * contrôle de gestion : production de rapports récurrents ( suivi de promotions, volumétries client, suivi des usages )

    * « revenue management » : pilotage économique de l'offre grand public

    * « marketing » : « reporting », zooms ponctuels sur événements "marketing" ( lancement de nouvelles gammes, promotions, animations sur parc, en conquête )

    * maîtrise d'ouvrage « datawarehouse » : contrôle de la fiabilité des données du datawarehouse, recette, élaboration des expressions de besoins

    Quelques événements professionnels auxquels j'ai participé :

    * Choix d'un outil de BI ("Business Intellignece") dans le cadre du projet DATAMART ETUDES & MODELISATION
    * Refonte des agrégats du DATAMART PREPAYE ( encadrement 1 stagiaire )
    * ARCEP (LOI CHATEL...)
    * WIFI (dimensionnement HotSpot...)
    * PoC
    * Projet Restitution Globale ( encadrement 1 stagiaire + 1 apprenti + 1 CDD )
    * Formation Microstrategy Web
    * SAS V9
    * Formation : Adopter la posture du Manager au service de la performance
    * Formation : Chef de projet
    * Projet décisionnel DATAMART ROAMING ( encadrement : 1 prestataire TERADATA, 1 prestataire Microstrategy ), 1 membre de mon équipe )

    Divers :

    * Mai 2010 : Formation CEGOS "Renforcer sa méthodologie projet"
  • AD2-ONE - Chargé d'études statistiques / Administration ORACLE

    2000 - 2002 Au sein de cette filiale du groupe Vivendi Universal Net, j’ai participé à la mise en place d’un système de rapports en ligne (consultables par internet) destiné aux clients (annonceurs et éditeurs) ainsi qu’à l’interne (service financier).

    Les données sur lesquelles sont fondées les rapports proviennent de "logs" générés par un applicatif de gestion de campagnes publicitaires sur le web ( ENGAGE ). Ces données sont récupérées puis chargées au sein d’une base de données ORACLE ( version 8.1.7 ). Des traitements périodiques effectués en heures creuses (procédures et fonctions PL/SQL) permettent d’alimenter les tables (« aggrégées ») sur lesquelles se fondent les rapports.

    La gestion des utilisateurs (annonceurs et/ou éditeurs) se fait par LDAP.

    Les rapports sont générés dynamiquement (JSP, JDBC, SQL) suivant certains paramètres spécifiques au client (Est-ce un annonceur, un éditeur, un interne? Sur quelle plage de temps souhaite-t-il consulter les données ? Quel est l’indicateur qu’il souhaite étudier : impressions, clicks, visites, visiteurs uniques ?).

    La récupération (FTP sur la plate forme de production), le chargement (utilitaire ORACLE SQL*LOADER) ainsi que le traitement (procédures, fonctions PL/SQL) des données ont été automatisés (scripts SQL,batch invoqués dans JAVA).
    Une gestion des retards a également été mise en place : les calculs étant effectués en premier lieu sur les données à fort niveau de priorité.

    Je suis également à l’origine de la modélisation et de la création de la base de données REPORT. J’ai effectué des travaux d’administration sur cette base : cold backup, réplication (simple) vers une base de secours, imports, exports, gestion des utilisateurs ORACLE, partitionnement des tables, gestion des indexes locaux…

    D’autre part, j’ai effectué un travail de « reverse-engenering » sur la base de données transactionnelle sur laquelle s’appuie l’applicatif de gestion de campagnes publicitaires sur le web.

    Les derniers développements ont consisté à établir une mesure d’audience croisée : nombre d’internautes ayant visité 2 sites donnés sur une plage de temps fixée.

Formations

Réseau

Annuaire des membres :