Menu

Caroline LESUEUR-GRAND

Versailles

En résumé

Mes compétences :
Intelligence artificielle
Réseaux de neurones
Electronique
Traitement d'image
Interaction homme machine
Programmation langage C
SQL
Machine Learning
MongoDB
Git
Python
PHP
JQuery
HTML
JavaScript

Entreprises

  • Ween Sas - Développeur en Intelligence Artificielle

    Versailles 2016 - 2018 Proposition et validation d’un modèle décisionnel permettant de sélectionner la pertinence des informations temps réel et apprises.
    Utilisation d’algorithme de Machine Learning pour l’apprentissage du comportement thermique du bâtiment et adaptation de cet algorithme pour un apprentissage en ligne.
    Apprentissage des habitudes géographiques des utilisateurs à travers la géolocalisation de leurs smartphones.
    Veille technologique.
    Rédaction du dossier Crédit Impôt Recherche.
    Vulgarisation de l’intelligence artificielle au sein de l’équipe.
  • Weenect - Chef de projet Intelligence Artificielle

    2016 - 2016 Mise en place des bases d’un programme d’intelligence artificielle et de machine learning dont
    l’objectif final est d’améliorer les performances des solutions proposées par la société (Balise
    de géolocalisation).
  • Université de Cergy-Pontoise - Doctorante en robotique interactive au sein du Laboratoire ETIS

    Cergy 2012 - 2016 Objectif(s) :
    Mettre en place une interface intuitive pour apprendre une tâche de navigation à un robot mobile
    Mettre en place un modèle bio-inspirée de sélection, reconnaissance et suivi d’un humain par le robot
    Apprentissage autonome d’une tâche de navigation basée sur la reconnaissance des lieux.
    Réalisation(s) :
    Dans cette thèse, nous nous intéressons à la difficulté des systèmes complexes (robots, drônes, système de monitoring) à interagir dans notre espace social d'une manière qui émule un travail collaboratif entre humains. Nous défendons l'idée qu'exploiter les propriétés de stabilité et d'adaptation naturelle des synchronisations non intentionnelles et des activités rythmiques peut résoudre plusieurs problèmes liés aux IHM et permettre de repenser leur conception. Le contexte applicatif est d'apprendre une tâche de navigation à un robot compagnon par le biais d'INTERACTIONS INTUITIVES avec son partenaire.
    Dans un premier temps, j’ai pu mettre en place un système bio-inspiré permettant de sélectionner une personne voulant interagir avec le robot. L’attention du robot sera focalisée sur la zone en mouvement dans son champ de vision synchrone avec sa propre dynamique. Les expériences ont été réalisées avec le robot Nao d’aldebaran et une caméra fixe indépendante pour la preuve concept et sur robot mobile.
    Par la suite, je me suis intéressée au maintien de l’interaction au cours de la tâche et au suivi de la personne avec un robot mobile. Le système est composée de deux modèles : le premier Haute résolution est basée sur l’apprentissage de points d’intérêts sur la personne et leur position les uns par rapport aux autres. Le deuxième basse résolution apprend une image grossière de la personne et actualise cette image au cours du suivi.
    La problématique suivante était l’adaptation du rythme du robot par rapport à son partenaire humain. On est parti de l’observation suivante : lorsque deux personnes marchent côte à côte, leur fréquence de marche est synchrone et cet aspect facilite l’interaction entre les deux personnes. Nous avons alors rajouté un bras oscillant (le robot ne possède pas de jambes) pour être témoin du rythme du robot. Ensuite, en se basant sur l’acquisition du mouvement au flot optique perçu par le robot, nous avons pu extraire les mouvements d’oscillation des jambes du partenaire. Ainsi, ce signal nous permet de synchroniser le robot sur le rythme du partenaire humain.
    Enfin, j’ai développé un modèle permettant le déclenchement automatique de l’apprentissage de la tâche de navigation. Ce système s’appuie sur la détection de nouveauté au cours de l’interaction et l’auto-évaluation par le robot de son comportement.

Formations

Réseau

Annuaire des membres :