Menu

Pierre-Louis THOUVENOT

Paris

En résumé

Parcours: master 2 de mathématiques appliquées spécialité Ingénierie Statistique et Actuariat (Institut de Mathématiques Appliquées, Université Catholique de l’Ouest d’Angers).

Métier: Data Scientist

Association: Membre de Data For Good Bayes Impact (une communauté de data scientists bénévoles mettant leurs compétences au profit de la résolution de problèmes sociaux)

Engagement universitaire: conférencier diplôme universitaire GeoData Scientist et Master 2 (25h/ans)
-- > Les données du Big data
-- > Les architectures
-- > Les outils
-- > Les méthodes statistiques
-- > Les applications
-- > Les métier
-- > TD sous SAS, R, Python

Mes compétences :
Teradata
SAS
KXEN Datamining
SPAD
Géomarketing
SQL
Cube OLAP
Statistiques
Datamining
Scoring
SIG
Big Data
Social networking
R
MODELER IBM
Python
Tableau Software
Sphinx
Cognos
Neolane

Entreprises

  • Valeo - Lead Data Scientist

    Paris 2017 - maintenant Mission: développement de la Data Science et accompagnement de la transformation digital de l'entité Visibilité
    Chantiers:
    -->Valorisation de la donnée
    - Détecter des cas d'utilisation de la donnée
    - Proposé de nouveaux produits basé sur la data
    - Réaliser des POC innovant ( produit industriel, marketing, brevet, usine...)
    -->Culture et organisation
    - Vulgarisation ( présentation de la Data science au top management, pitch auprès des équipes, vidéo de présentation)
    - Construction d'une équipe
    - Culture de la data ( methode agile+ speak with data)
    -->Données
    - Methodologie de QOD ( Quality Of Data)
    - Securisation des usages ( respect de la RGDPR+ aspect sécurité)
    - Best practrice

    -->Technologies
    - Aide a la mise en place d'un Datalake
    - Rencontrer et travailler avec start up
    - Veille technologiques

    -->Production et mesure
    - passer en production les POC
    - mesurer les performances des nouveaux produits ou services

    Contexte technique: Python,R, BIME, Tableau software, Google cloud, AWS
    Modèles Statistique: Scoring, Series temporelles, TextMining,RandomForest,SVM,deep learning,Deep Forest....


  • Boursorama - Data Sientist

    Boulogne-Billancourt 2015 - 2017
    Data Management Plaform:
    --> Recommandation de ciblage marketing
    --> Implémentation
    --> Recette
    --> Optimisation
    -->Reporting

    Big Data marketing:
    --> Élaboration de use case marketing
    --> Cadrage
    --> Recommandation méthode statistiques
    --> Implémentation ( construction de package python)
    --> Formation

    Fidélisation/Acquisition:
    --> Reporting
    --> Etudes
    --> Ciblage
    --> Mesure de campagne
    --> Recommandation

    Produit/finance:
    --> Etudes
    --> Reporting

    Risque:
    --> Fraude

    Logiciels: SAS , R , PYTHON, EZAKUS,NEOLANE,COGNOS
    Bases de données: Oracle, Mysql, Cassandra
    Langage: SQL, HIVEQL, CQL,Spark
    Modèles Statistique: Scoring, Series temporelles, TextMining,RandomForest,Moteur de recommandation ,SVM
  • SNCF - Consultant

    2014 - 2015 Estimation de la Fraude

    Logiciels : SAS,Tableau Software
    Modèles Statistique: Bootstrap, régression, théorie des sondages, Kmeans, ACP,test
  • Printemps - Consultant

    Paris 2014 - 2014 Score de potentiel

    Logiciels : SAS
    Modèle Statistique: régression logistique
  • SYSTEME U Centrale régionale Sud. - Consultant

    VENDARGUES 2014 - 2014 Mesure de performance.
    Logiciels : Modeler IBM
    Modèles Statistique: Régression, Test ( Student, Kolmogorov Smirnov, Wilcoxon)
  • Soft Computing - Consultant senior

    PARIS 2014 - 2015
  • SFR - Chargé d'étude statistique

    2012 - 2014 -->Responsable de la production des outils de ciblage pour les campagnes marketing sur le mobile:
    - Cadrage/ Construction/ Restitution/ Production/ Maintenance des scores d’antichurn (résiliation) et d’appétences (offres)
    - Cadrage/ Construction/ Restitution/ Production/ Maintenance des segmentations et des typologies
    - Cadrage/ Construction/ Restitution/ Production/ Maintenance des marqueurs
    - Optimisation de l’ensemble de la chaîne de production
    - Challenge des différents outils de production
    - Optimisation (qualité, espace, temps) des processus
    - Coordination avec les différents acteurs (Direction du Système d’Information, Pilotage des Campagnes Marketing, Coordination, Direction Marketing)

    --> Mise en place d’une démarche et d’un processus de qualité de données
    - Cartographie des données et enjeux
    - Mise en place d’un reporting de qualité sur les données qualitatives et quantitatives
    - Constructions d’indicateurs de détection d’anomalies
    - Implémentation des algorithmes dans Teradata
    - Aide à l’automatisation de la cartographie des besoins
    - Construction d’un Plan de Prévention de Risque

    --> Études Ad’hoc
    - Comportement client
    - Réseaux sociaux
    - Détection de cibles marketing

    --> Aide à la mise place d’un moteur de recommandation
    - construction de scores
    - étude sur l’efficacité du moteur


    Logiciels : Teradata, SAS, KXEN, Datalab
  • SFR - Consultant

    2011 - 2014
  • SFR - Business Intelligence

    2011 - 2012 Accompagnement Opérationnel :

    -->Aide à la refonte du systeme d'information
    - confection d’un schéma fonctionnel des changements
    - cartographie et Migration des programmes pour accéder aux nouvelles données
    - validation des nouvelles données suite à la migration
    - réalisation d’un document utilisateur des changements

    -->Aide à la production de reporting
    - analyse du besoin utilisateur
    - production de cubes OLAP pour l'aide à la décision (SQL)
    - mise à disposition de reporting ( pression commerciale , fraude ...)

    Logiciels utilisés: Teradata, Microsoft SQL Server
  • Galeries Lafayette - Chargé d étude statistique

    Paris 2011 - 2011 --> Accompagnement à la mise en œuvre et à la mesure d’un dispositif de campagnes sur la beauté
    - Extraction d’informations
    - Créations d’indicateurs performants
    - Élaboration et automatisation de tableaux de reporting
    - Mise en place de tests de significativités
    - Analyse des résultats
  • LA BANQUE POSTALE - Chargé d'étude Géomarketing

    Paris 2011 - 2011 -->Optimisation du réseau par des méthodes Géomarketing
    - Recherches théoriques d’optimisation du réseau
    - Mise à jour du Système d'information Géographique
    - Test du Géo codeur
    - Étude projective de l’optimalité temporel du réseau
  • ETAM - Chargé détude statistique

    Clichy 2011 - 2011 -->Étude de l’impact du programme de fidélité
    - Application de la théorie du sondage dans le but d’étudier l’impact des différents dispositifs d'animation
    - Modélisation des données
    - Mise en place de tests de significativités
    - Analyse des résultats
    - Rédaction d’un document de synthèse


  • Velvet consulting - Consultant

    Paris 2011 - 2014
  • VELVET - Chargé d'étude statistique

    2011 - 2014 --> Élaboration d’une offre de service en Géomarketing :

    - Recherches théoriques sur le sujet, avec pour finalité un support détaillé.
    - Formation de l’équipe datamining
    - Étude des solutions technologiques au Géomarketing
    - Élaboration d’une maquette de test des logiciels SIG
    - Test des logiciels
    - Business Plan
    - Mise en place de partenariats

    Logiciels utilisés : SAS , SPAD, SPSS, TERADATA, CARTES&DONNEES, KXEN
  • ACTUARIS (société de conseil en actuariat) - Chargé d'étude actuarielle

    2010 - 2010 -->Étude de l’activité d’organismes assureurs
    - Traitement de questionnaires
    - Collaboration avec de nombreux organismes assureurs pour valider les résultats
    - Synthèse de l’information disponible
    - Analyse des résultats pour dégager une tendance globale de l’activité des organismes assureurs
    - Élaboration d’un rapport final
    - Publication officiel des résultats par l'association représentant ces organismes assureurs

    -->Travail sur des progiciels de tarification en prévoyance collective
    - Prise de connaissance des progiciels
    - Validation des calculs actuariels de tarification
    - Mise en place de la recette
    - Test et packaging des progiciels
    - Collaboration au sein d’une équipe pluridisciplinaire

    --> Initialisation d'une base de données d'étude en assurance vie

    Logiciels utilisés: Excel,PMexpert,POB
  • INRA (Institut National de la Recherche Agronomique) - Chargé d’étude statistique

    Paris 2009 - 2009 Mission : application de la spectroscopie proche infrarouge à la caractérisation chimique de produits organiques et à leur biodégradation dans les sols.
    --> Analyse des besoins
    --> Élaboration d’un plan d’étude des données
    --> Recherche d’informations pertinentes
    --> Analyse de la robustesse des méthodes de prévisions
    --> Comparaison de l’efficacité et des limites de logiciels métiers de statistique
    --> Travail en collaboration avec des spécialistes du domaine de la chimie

    Logiciels utilisés: SPAD, Tanagra, R

Formations

Réseau