-
Pôle Emploi
- Data Analyst / Netezza - Hive QL - Dataiku - Qliksense
Paris
2018 - maintenant
Lors de mon intervention sur le département données décisionnelles, j’accompagne le département "Pilotage Expérience utilisateur" afin de les aider à trouver des axes d'analyses de la mise en valeur des différentes applications Pôle Emploi ou de la mise en évidence d'axes d'amélioration. Conseils sur le plan fonctionnel mais aussi sur la faisabilité technique. Analyse, conception, modélisation, création et représentation de datasets à partir de données Big Data. Lors de ma deuxième partie de mission j’étais en charge de la réalisation d’une trentaine de rapports Qliksense sur différents domaine pilotage, suivi technique, actualisation des demandeurs d’emploi, lors de cette mission j’ai aussi pu créer des datasets sous l’outils Dataiku et aussi réaliser un rapport Kibana basé sur Elasticsearch.
-
Humanis
- Data Flow Engineer - Web Developer / MS SQL - Talend - PHP- Drupal
2018 - 2018
Migration du site D’AG2R vers Humanis, après le rachat de certaine activité D’AG2R par le groupe Humanis, il a fallu migrer ce site à l’identique ainsi que certain processus lié à ce site, tels que des flux de mise à jour de données, cette migration a été faite sous Drupal.
-
AG2R LA MONDIALE
- Data Analyst / MS SQL - Talend - SSIS - Qlikview
2014 - 2018
Lors de ma mission chez Ag2r La Mondiale j'ai intégré l'équipe DSI étude afin d'améliorer le processus de chargement de données ainsi que la gestion des migrations vers de nouveaux outils. J'ai effectué la rédaction de spécifications, la création de Jobs de chargement de données, l'organisation de l'ordonnancement, la gestion des logs et des retours d'erreurs.
De plus, en tant que responsable d'application, je m'occupai de la remonter d'anomalies ainsi que de la relation avec l'éditeur, mais aussi de l'animation du projet organisation des réunions avec les utilisateurs et remonter des besoins. Ainsi que de la gestion du planning et du budget, la mise en place des environnements de recette et de production pour le bon déroulement du projet.
Une autre facette de ma mission était la planification de processus récursif et la gestion de leur bon fonctionnement, création de statistiques mensuelles, d'extraction spécifique pour des organismes extérieurs tels de l'AMF.
Lors de cette mission j'étais aussi en charge du site internet groupe, pour mise à jour du contenu et la gestion des développements demandés par le métier.
-
6 It
- Data Flow Engineer / PL SQL - Talend - Java
Informatique | Carpentras
2013 - 2013
Suite à l’arrivée de nouveaux clients, Logiris avait besoin d’intégrer leur flux de commande dans leur gestionnaire d’entrepôt. J’ai développé un flux de récupération et de mise en forme des informations des nouveaux clients afin que le gestionnaire de l’entrepôt puisse intégrer ces données. J’ai effectué la gestion des logs et des erreurs, le suivi de projet, ainsi que la réalisation des tests d’acceptations.
-
Sopra Group
- Data Flow Engineer / Talend
Paris
2013 - 2013
Le groupe de travail responsable de la migration des données, avait besoin de norme afin de pouvoir développer leur projet Talend dans les meilleures conditions. J’ai rédigé un document qui définit les bonnes pratiques, l’organisation du travail ainsi les normes de développement nécessaire à la gestion des flux d’alimentation de données. Lors de cette mission je me suis occupé de la formation des développeurs, de la rédaction de documentation technique, de la documentation des bonnes pratiques d’utilisation de l’ETL Talend, de l’installation et configuration du logiciel, de l’organisation du travail en Groupe.
-
Sanofi
- Data Flow Engineer / MS SQL - Talend
Paris
2013 - 2013
Suite à l’intégration du groupe Genzyme chez Sanofi, leur banque de données de molécules devait être mise aux normes Sanofi. Afin que le groupe Genzyme et le groupe Sanofi puissent partager les commandes de molécules entre les différents sites. J’ai effectué la migration de la chimiothèque de Boston afin de respecter les normes du système Sanofi, rédaction de la spécification et réalisation de différents Jobs de chargement. Planification du projet. Création de Jobs de génération des nouveaux identifiants. Amélioration des performances de certains Jobs critiques. Déploiement des Jobs en production. Gestion des logs et des erreurs. Réunion avec le groupe de travail de Boston.
-
6IT
- Data Flow Engineer / MS SQL - Talend
Carpentras
2013 - 2013
Dans le cadre de ma mission j'ai intégré de nouveaux clients dans le flux de traitement logistique existant. Ces nouveaux clients fonctionnaient avec des flux et une gestion logistique différente. La gestion des erreurs et warning s'est faite via l'enregistrement de logs et d'alertes email. J’ai effectué le Développement des Jobs, pour la gestion des flux de commande, le formatage de fichiers : Délimité (EDI) et Positionnel (SAP), j’ai aussi géré les logs et les erreurs.
-
Bull
- Data Flow Engineer / SQL - Talend - Java
Les Clayes-sous-Bois
2012 - 2012
Dans le cadre de la démarche d’amélioration continue, l’AGPM Toulon avait besoin de mettre en place et de suivre des indicateurs de performance sur les processus. J’ai réalisé plusieurs Jobs Talend afin d’obtenir des états concernant les indicateurs de performance. Ces Jobs chargent les états mensuellement, à une date donnée, avec comme passage de paramètres les dates de traitement. Lors de cette mission j’ai rédigé les documents techniques, guides utilisateurs, j’ai mis en place des procédures de gestion d’erreurs, j’ai effectué le croisement de données depuis des bases de données et des fichiers plats délimités, je me suis occupé du traitement et du formatage des données avec les différents composants Talend, j’ai développé des fonctions de traitements de données (routines), enfin j’ai mise en place de scénarios de test.
-
STMicroelectronics
- Data Analyst / MySQL - Java - Talend - Pentaho
2010 - 2011
La combinaison de certaines données est difficilement accessible au sein d’un même outil, et de plus à cause d’un environnement informatique complexe, les utilisateurs ne parviennent pas à obtenir facilement la totalité des informations nécessaires à leur travail d’analyse au quotidien. J’ai développé un outil d’aide à la décision devant permettre aux futurs utilisateurs, de divers corps de métier, de comparer une activité de production en fonction des allocations de capacité de l’outil industriel. Ce dernier est présenté sous forme de tables dynamiques permettant d’analyser certaines données en les classant ou en les représentant sous formes graphiques. Suite à l’analyse de l’existant, j’ai effectué la rédaction de documents techniques, guides utilisateurs technique et métier, la mise en place d’un planning géré via un digramme de Gantt, la création de MCD pour la modélisation théorique, la construction de la base de données BI sous MySQL, l’extraction et croisement de données depuis des bases de données et des fichiers plats délimités via Talend, la génération de rapports dynamiques grâce à des requêtes MDX (Pentaho Bi), ainsi que la génération des rapports BO.