Menu

Nicolas DROUGARD

Toulouse

En résumé

J'ai intégré le Magistère de Mathématiques d'Orsay en 2009, et terminé cette formation avec le Master 2 Recherche en Mathématiques Appliquées "Mathématiques Vision Apprentissage" de l'ENS Cachan (mention TB).

Je me suis spécialisé en IA: Planification dans l'Incertain, Apprentissage Statistique, Probabilités, Vision Artificielle, Optimisation et Informatique.

Durant ma thèse SUPAERO à l'Office National d'Etude et Recherche en Aerospatial (Onera) à Toulouse, nous avons publié trois articles de conférence (UAI-13, AAAI-14, SUM-15) et dans deux revues (IEEE TFS, RIA) à propos l'étude et l'adaptation du modèle Partially Observable Markov Decision Process appliqué à la robotique: certains algorithmes ont été testés à la compétition internationale de planification probabiliste IPPC14. Participant aux relectures pour la conférence AAAI-15, je suis membre du comité de programme pour UAI-15.

Enfin, je parle l'anglais et l'allemand, et programme en C/C++ (+arduino, ROS), Java (+android), R, torch7 (lua), Matlab.

Mes compétences :
Informatique
Mathématiques appliquées
Matlab
C++
Statistiques
Probabilités
Robotics
Image processing
Java
Android
R
LaTeX
Mathématiques
Machine Learning
Planning
Computer Vision

Entreprises

  • ISAE (Institut Supérieur de l'Aéronautique et de l'Espace) - Chercheur Postdoctoral

    Toulouse 2016 - maintenant Missions involving humans with automated systems become increasingly common and are subject to risk of failing due to human factors. Indeed missions may generate stress, workload or fatigue, increasing accident risk. The idea of our project is to refine human-robot supervision by using data from physiological sensors (eye tracking and electrocardiography devices) giving information about operator's state.
    The proof of concept mission consists of a ground robot, autonomous or controlled by a human operator, which has to fight fires catching randomly. We proposed to use planning frameworks, such as Partially Observable Markov Decision Processes (POMDPs) and Reinforcement Learning (RL) to improve human-machine interactions by optimizing the decision of the mode (autonomous or controlled robot) or the display of countermeasures (alarms in the form of visual stimulus).
    A dataset of demonstrations produced by remote volunteers through an on-line video game simulating the mission allows to optimize the strategy using RL and to learn the POMDP inferring human state. Cognitive availability, current task, type of behavior, situation awareness or involvement in the mission are examples of studied human operator state. Finally scores of the missions (number of extinguished fires) will quantify the improvement made by using physiological data. ISAE department DCAS, Chaire Dassault
  • Ecole Nationale de l’Aviation Civile (ENAC) - Teacher assistant

    2012 - maintenant Probability and Statistic tutorials.
  • ONERA - Doctorant -- PhD student

    Palaiseau 2012 - 2015 Thèse sur l'amélioration d'un modèle de planification pour la robotique: "Percevoir pour planifier et planifier pour percevoir".
    ISAE-SUPAERO and Onera-The French Aerospace Lab, PhD under Didier Dubois and Florent Teichteil-Königsbuch supervision.
    ``See to plan and plan to see'': I work on Partially Observable Markov Decision Processes (POMDPs) applied to robotics.
    Key words: Markov Decision Process (MDP), Sequential decision-making under uncertainty, Uncertainty theories, Autonomous robotics, Computer Vision, Uninhabited Aerial Vehicules.
  • Institut Supérieur de l'Aéronautique et de l'Espace - Teacher

    2012 - 2014 Stochastic Processes course.
    Teacher assistant: Robotics session.
  • ENS Cachan, M2-R MVA - Etudiant

    2011 - 2012 Formation en Mathématiques Appliquées, M2 Recherche "Mathématiques Vision Apprentissage": Apprentissage Statistique, Traitement d' image, Contrôle Dynamique, Optimisation, Informatique.
    MSc "MVA" in Applied Mathematics.
    Relevant courses: Machine/Statistical Learning, High Dimension Statistics, Probabilistic Graphical Models, Reinforcement Learning, Kernel Methods for Learning, Dynamic Control and Estimation, Convex Optimization, Optimization for Image Processing, Compressed Sensing and Wavelet Theory. First-class honours (mention très bien).
  • INRIA - Stagiaire

    Le Chesnay 2011 - 2011 Calcul numérique d'une politique optimale robuste pour un modèle économique basé sur des ressources renouvelables (en C++, Markov Decision Process)

Formations

Réseau

Annuaire des membres :