-
Valeo
- Lead Data Scientist
Paris
2017 - maintenant
Mission: développement de la Data Science et accompagnement de la transformation digital de l'entité Visibilité
Chantiers:
-->Valorisation de la donnée
- Détecter des cas d'utilisation de la donnée
- Proposé de nouveaux produits basé sur la data
- Réaliser des POC innovant ( produit industriel, marketing, brevet, usine...)
-->Culture et organisation
- Vulgarisation ( présentation de la Data science au top management, pitch auprès des équipes, vidéo de présentation)
- Construction d'une équipe
- Culture de la data ( methode agile+ speak with data)
-->Données
- Methodologie de QOD ( Quality Of Data)
- Securisation des usages ( respect de la RGDPR+ aspect sécurité)
- Best practrice
-->Technologies
- Aide a la mise en place d'un Datalake
- Rencontrer et travailler avec start up
- Veille technologiques
-->Production et mesure
- passer en production les POC
- mesurer les performances des nouveaux produits ou services
Contexte technique: Python,R, BIME, Tableau software, Google cloud, AWS
Modèles Statistique: Scoring, Series temporelles, TextMining,RandomForest,SVM,deep learning,Deep Forest....
-
Boursorama
- Data Sientist
Boulogne-Billancourt
2015 - 2017
Data Management Plaform:
--> Recommandation de ciblage marketing
--> Implémentation
--> Recette
--> Optimisation
-->Reporting
Big Data marketing:
--> Élaboration de use case marketing
--> Cadrage
--> Recommandation méthode statistiques
--> Implémentation ( construction de package python)
--> Formation
Fidélisation/Acquisition:
--> Reporting
--> Etudes
--> Ciblage
--> Mesure de campagne
--> Recommandation
Produit/finance:
--> Etudes
--> Reporting
Risque:
--> Fraude
Logiciels: SAS , R , PYTHON, EZAKUS,NEOLANE,COGNOS
Bases de données: Oracle, Mysql, Cassandra
Langage: SQL, HIVEQL, CQL,Spark
Modèles Statistique: Scoring, Series temporelles, TextMining,RandomForest,Moteur de recommandation ,SVM
-
SNCF
- Consultant
2014 - 2015
Estimation de la Fraude
Logiciels : SAS,Tableau Software
Modèles Statistique: Bootstrap, régression, théorie des sondages, Kmeans, ACP,test
-
Printemps
- Consultant
Paris
2014 - 2014
Score de potentiel
Logiciels : SAS
Modèle Statistique: régression logistique
-
SYSTEME U Centrale régionale Sud.
- Consultant
VENDARGUES
2014 - 2014
Mesure de performance.
Logiciels : Modeler IBM
Modèles Statistique: Régression, Test ( Student, Kolmogorov Smirnov, Wilcoxon)
-
Soft Computing
- Consultant senior
PARIS
2014 - 2015
-
SFR
- Chargé d'étude statistique
2012 - 2014
-->Responsable de la production des outils de ciblage pour les campagnes marketing sur le mobile:
- Cadrage/ Construction/ Restitution/ Production/ Maintenance des scores d’antichurn (résiliation) et d’appétences (offres)
- Cadrage/ Construction/ Restitution/ Production/ Maintenance des segmentations et des typologies
- Cadrage/ Construction/ Restitution/ Production/ Maintenance des marqueurs
- Optimisation de l’ensemble de la chaîne de production
- Challenge des différents outils de production
- Optimisation (qualité, espace, temps) des processus
- Coordination avec les différents acteurs (Direction du Système d’Information, Pilotage des Campagnes Marketing, Coordination, Direction Marketing)
--> Mise en place d’une démarche et d’un processus de qualité de données
- Cartographie des données et enjeux
- Mise en place d’un reporting de qualité sur les données qualitatives et quantitatives
- Constructions d’indicateurs de détection d’anomalies
- Implémentation des algorithmes dans Teradata
- Aide à l’automatisation de la cartographie des besoins
- Construction d’un Plan de Prévention de Risque
--> Études Ad’hoc
- Comportement client
- Réseaux sociaux
- Détection de cibles marketing
--> Aide à la mise place d’un moteur de recommandation
- construction de scores
- étude sur l’efficacité du moteur
Logiciels : Teradata, SAS, KXEN, Datalab
-
SFR
- Consultant
2011 - 2014
-
SFR
- Business Intelligence
2011 - 2012
Accompagnement Opérationnel :
-->Aide à la refonte du systeme d'information
- confection d’un schéma fonctionnel des changements
- cartographie et Migration des programmes pour accéder aux nouvelles données
- validation des nouvelles données suite à la migration
- réalisation d’un document utilisateur des changements
-->Aide à la production de reporting
- analyse du besoin utilisateur
- production de cubes OLAP pour l'aide à la décision (SQL)
- mise à disposition de reporting ( pression commerciale , fraude ...)
Logiciels utilisés: Teradata, Microsoft SQL Server
-
Galeries Lafayette
- Chargé d étude statistique
Paris
2011 - 2011
--> Accompagnement à la mise en œuvre et à la mesure d’un dispositif de campagnes sur la beauté
- Extraction d’informations
- Créations d’indicateurs performants
- Élaboration et automatisation de tableaux de reporting
- Mise en place de tests de significativités
- Analyse des résultats
-
LA BANQUE POSTALE
- Chargé d'étude Géomarketing
Paris
2011 - 2011
-->Optimisation du réseau par des méthodes Géomarketing
- Recherches théoriques d’optimisation du réseau
- Mise à jour du Système d'information Géographique
- Test du Géo codeur
- Étude projective de l’optimalité temporel du réseau
-
ETAM
- Chargé détude statistique
Clichy
2011 - 2011
-->Étude de l’impact du programme de fidélité
- Application de la théorie du sondage dans le but d’étudier l’impact des différents dispositifs d'animation
- Modélisation des données
- Mise en place de tests de significativités
- Analyse des résultats
- Rédaction d’un document de synthèse
-
Velvet consulting
- Consultant
Paris
2011 - 2014
-
VELVET
- Chargé d'étude statistique
2011 - 2014
--> Élaboration d’une offre de service en Géomarketing :
- Recherches théoriques sur le sujet, avec pour finalité un support détaillé.
- Formation de l’équipe datamining
- Étude des solutions technologiques au Géomarketing
- Élaboration d’une maquette de test des logiciels SIG
- Test des logiciels
- Business Plan
- Mise en place de partenariats
Logiciels utilisés : SAS , SPAD, SPSS, TERADATA, CARTES&DONNEES, KXEN
-
ACTUARIS (société de conseil en actuariat)
- Chargé d'étude actuarielle
2010 - 2010
-->Étude de l’activité d’organismes assureurs
- Traitement de questionnaires
- Collaboration avec de nombreux organismes assureurs pour valider les résultats
- Synthèse de l’information disponible
- Analyse des résultats pour dégager une tendance globale de l’activité des organismes assureurs
- Élaboration d’un rapport final
- Publication officiel des résultats par l'association représentant ces organismes assureurs
-->Travail sur des progiciels de tarification en prévoyance collective
- Prise de connaissance des progiciels
- Validation des calculs actuariels de tarification
- Mise en place de la recette
- Test et packaging des progiciels
- Collaboration au sein d’une équipe pluridisciplinaire
--> Initialisation d'une base de données d'étude en assurance vie
Logiciels utilisés: Excel,PMexpert,POB
-
INRA (Institut National de la Recherche Agronomique)
- Chargé d’étude statistique
Paris
2009 - 2009
Mission : application de la spectroscopie proche infrarouge à la caractérisation chimique de produits organiques et à leur biodégradation dans les sols.
--> Analyse des besoins
--> Élaboration d’un plan d’étude des données
--> Recherche d’informations pertinentes
--> Analyse de la robustesse des méthodes de prévisions
--> Comparaison de l’efficacité et des limites de logiciels métiers de statistique
--> Travail en collaboration avec des spécialistes du domaine de la chimie
Logiciels utilisés: SPAD, Tanagra, R