Menu

Michrafy MOOS

PARIS

En résumé

Je suis docteur en recherche opérationnelle. Mon expertise porte sur la modélisation et la résolutions des problèmes industriels faisant appel à des outils relevant de la data science, l'optimisation des ressources et l'analyse métier.

Actuellement, je travaille sur des problèmes relatifs au Data science tels que l'analyse des données, la segmentation, la classification. Il s'agit de contribuer aux phases suivantes l'analyse de données, la modélisation, et la résolution des problèmes métiers. Les techniques utilisées relèvent de la statistique descriptive, les méthodes exploratoires, ACP, Clustering, les méthodes de régression et l'apprentissage supervisé ou non supervisé et l'optimisation combinatoire.

Je suis animateur du séminaire "Datascience, principes, outils et applications".

Mots clés : modélisation, knapsack, théorie de graphes, optimisation combinatoire, statistique, Analyse de données, régression, clustering, classification, Machine learning, R

Mes compétences :
BRMS
Statistique
Apprentissage supervisé
Clustering/classification automatique
Optimisation combinatoire
Design Patterns
MongoDB
NoSQL
C++
UML
Urbanisation
Java
Data mining
R
Méthodes d'apprentissage
Outils data science

Entreprises

  • Acteur en Energie - Data Scientist

    2015 - maintenant Contribution à la mise en place d’une plateforme (FSM) pour la gestion des activités des techniciens de Gaz depuis la création des demandes jusqu’à la planification et la réalisation des interventions.
    - Analyser le temps d’intervention à travers une étude statistique.
    - Analyser la qualité des adresses d’interventions et établir des règles de scoring.
    - Modéliser et élaborer des indicateurs statistiques pour l’évaluation du moteur de tournées.
    - Analyser et établir les profils des tournées et des intervenants en se basant sur une méthode d'analyse de données multidimensionnelles.
    - Elaborer des méthodes de classification pour la discrimination des tournées en se basant sur les méthodes d'apprentissage.
    - Analyser la similarité des exigences fonctionnelles en se basant sur la méthode ACM.
    - Elaborer un modèle pour l’initialisation et la génération des données représentatives à l’échelle national

  • One Bull - Consultant BigData

    2014 - 2014 Projet : Mise en place d’une plateforme hadoop as a service. L’utilisateur a la possibilité de déployer un cluster MapR en spécifiant le nombre de nœuds, le type de template VM et les composants Haute disponibilité.

    Mission :
    - Recueillir, analyser et cadrer les besoins du projet.
    - Etudier les offres Amazon EMR et Azure HDInsight.
    - Définir les user story (Backlog).
    - Mettre en place le projet hadoop as a service.
    - Réalisation des tests d’intégration.

    Environnement
    - Hadoop Mapr, Cloud Openstack, Cloudify, Alien for cloud, Shell, Ruby, Vagrant
  • BULL TELECOMMUNICATION -  Data scientist

    2014 - 2014 Plateforme de la gestion des services domiciliaires, Bull TELCO

    Projet Projet d'innovation : Modélisation d’une plateforme domotique (gestion des services domiciliaires). Ce travail a donnée lieu au dépôt de 3 brevets.

    Mission
    - Réaliser un état de l'art sur l’internet des objets connectés.
    - Concevoir un modèle sémantique pour la domotique.
    - Modéliser des outils pour l'analyse de données.
    - Modéliser un composant BigData utilisant des méthodes d'apprentissage.

    Outils : Méthode d’apprentissage, Clustering, Analyse de données, réseau sémantique, modèles de données.

  • Bull Teleco -  Data scientist

    2013 - 2013 GEODAIR permet de mettre en place une plateforme BigData pour la collecte, le contrôle et la supervision de la qualité de l’air via des capteurs.

    - Recadrage du besoin et ateliers métiers
    - Identification et analyse les règles métiers basé sur la réglementation Européen
    - Identification des indicateurs statistiques.
    - Conception du module statistique pour les indicateurs statistiques.
    - Conception et élaboration de Règles Métier.
    - Assister à l’architecture technique.
    - Mettre en place du socle de base pour l’application de règles avec Drools.
    - Rédaction du dossier de la valorisation industrielle


    Environnement technique : Statistique, R, Java, Formalisme BRMS, NoSQL/MongoDB, Drools, Java, Talend
  • M6 DSI, Groupe publicitaire - DataScientist

    2011 - 2011 Mission : Modélisation et développement d’un moteur d’optimisation
    pour la gestion de l’offre publicitaire basé sur des outils datascience

    - Elaborer une nouvelle architecture basée sur les design patterns pour le moteur d’optim.
    - Modéliser des méthodes de résolution pour la gestion du taux de gracieux, des gracieux négatifs (GAD), des multi-formats et du GRP (audience).
    - Modéliser et développer des indicateurs qualitatifs.
    - Concevoir et développer des méthodes pour la gestion de la dispersion.

    PLATEFORME : Optimisation,méta-heuristique, API CPLEX 12,
    JAVA, design pattern, factoring
  • ILOG, R&D - Consultant R&D

    2009 - 2010 j'ai collaboré avec le département de Recherche et développement d'ILOG/IBM
    - mise en place d’un framework pour le compiler et le moteur RCE
    - Elaboration et mise en place d’un framework pour le moteur RVE
    - Analyse de performance et de comportement des (RETE/Sequential/FastPah).
    - Contribution a la spécification des « success-story ».
  • M6, département de publicité -  Data scientist

    2008 - 2008 J'ai contribué à l'élaboration d'une application pour la gestion des plages publicitaires. Mon objectif consiste à :
    - modéliser et à élaborer des méthodes -pour le diagnostic dédiées- aux offres publicitaires.
    - Modéliser et mettre au point des méthodes dédiées à la gestion des heures fixes dans des plages publicitaires.

    Outils : Java, C++, ILOG Cplex/Concert, eclipse, knapsack, recherche opérationnelle.
  • CERMSEM-LOSI - Ingénieur R&D

    2006 - 2008 j'ai occupé un poste d'ingénieur de recherche et développement. Mon objectif consiste à :
    - modéliser et à élaborer des méthodes pour la résolution des problèmes liés aux chargements des conteneurs, dans le cadre de la logistique .
    - Modeliser et mettre au point des methodes dediées aux problèmes de type knapsack.

    Outils : Unix, C/C++, shel, Ilog/Cplex, UML, Design pattern
    Requis et compétences : Optimisation combinatoire, Recherche opérationnelle, algorithmes avancés, logistique et transport, knapsack.

Formations

Réseau

Annuaire des membres :