Menu

Claude BONNAUD

Montréal

En résumé

Je suis un architecte avec plus de 20 années d’expérience en informatique, les 7 dernières années dans le monde bancaire chez Desjardins et à la Banque Nationale.

Au cours des 5 dernières années, j’ai développé une expertise dans un domaine très pointu, la gestion des données maîtres client, ou plus communément appelé, le Master Data Management. Mes spécialités c’est l’architecture de données et l’intégration de données, que ce soit pour des besoins informationnels où opérationnels.

J’ai une formation universitaire en informatique scientifique ainsi qu’un MBA de l’université McGill. Je parle couramment et j’écris le Français et l’Anglais. J’ai une bonne expérience de l’international ayant travaillé 10 ans en France chez Peugeot/Citroën et chez GE Medical Systems.

J’aime travailler et interagir avec des équipes multidisciplinaires pour mettre en place des solutions informatiques qui répondent bien aux exigences fonctionnelles et non fonctionnelles. Je peux concevoir et vulgariser une solution pour la communiquer aux gestionnaires, et aussi en parler de façon très technique avec des développeurs et des testeurs.


Mes compétences :
Master Data Management
Architecture de données
Business Intelligence

Entreprises

  • Banque Nationale du Canada - Architecte d'Entreprise de données MDM

    Montréal 2007 - maintenant À la Banque Nationale, j’ai joué les rôles d’architecte d’entreprise, d’architecte de solution, et d’architecte de données. En ce moment je joue le rôle d'architecte d'entreprise en Master Data Management, et voici mes principales activités:
    • Émettre les orientations technologiques de la Banque en matière d’architecture MDM et définir l'architecture cible.
    • Valider les aspects techniques et fonctionnels de la solution afin d'assurer le respect des besoins d'affaires et des normes de la Banque.
    • Conseiller la haute direction sur les tendances et les directions technologiques à prendre.
    • Conseiller les architectes de solutions dans l’identification des solutions les plus appropriées, et plus spécifiquement en architecture de données et architecture MDM.
    • Réaliser de la vigie technologique dans le domaine des architectures MDM.
    • Identifier les interrelations et les synergies possibles entre les différents projets.
    • Travailler étroitement en collaboration avec le groupe de gouvernance et qualité de données.
    • Travailler étroitement en collaboration avec les architectes d’entreprise (Données, affaires, technologies, services partagés).
    • Réviser pour approbation les architectures de données, incluant les modèles de données élaborés dans le cadre de projets d’affaires ou de dossiers de type fondation.

    Voici l’essentiel de ma contribution dans le cadre du projet MDM/CDI depuis le début de l’initiative en 2009:

    • Participer à l’évaluation des solutions proposées par Oracle, SAP, IBM, Initiate et Siperian dans le cadre d’un appel d’offre pour une solution de MDM/CDI.
    • Définition du modèle de données pour les individus et pour les entreprises s’inspirant du modèle de données d’entreprise de la banque et respectant les contraintes du produit d’Initiate.
    • Définition du modèle de données générique pour les domaines de valeurs.
    • Proposer des domaines de valeur normalisés pour les données client du groupe financier.
    • Démarrer le développement de la solution EBS pour permettre aux intendants de faire évoluer les domaines de valeurs.
    • Définition du modèle canonique des individus sur lequel s’appui le modèle de message des services CDI.
    • Initier les travaux sur le consentement client pour le partage des renseignements personnels à travers les différentes entités juridiques du groupe.
    • Orienter les travaux sur le consentement pour réduire la complexité du CDI.
    • Interpréter des résultats d’appariement pour aider le groupe de Qualité à comprendre les enjeux d’une mise en production du volet intégration et appariement du CDI.
    • Définition de rapports pour aider à l’évaluation de la qualité des résultats d’appariement.
    • Ébauche d’un modèle de sécurité pour l’accès aux données client qui s’appuie sur les particularités Banque ainsi que celles du Courtage.
    • Définition du modèle de l’extension pour intégrer les attributs à plusieurs valeurs actives et pour sauvegarder les golden records.
    • Définition d’un ODS entente en collaboration avec l’équipe BC9.
    • Définition des règles de calcul du cycle de vie client basé sur la détention de comptes.
    • Élaboration de différentes alternatives pour survivre la meilleure source de vérité dans nos « golden records ».
    • Élaboration de différentes alternatives pour fournir une BD client à la nouvelle plate forme caisse de la banque.
    • Élaboration de différentes alternatives pour déployer progressivement les différents composants de la solution CDI en production.
    • Trouver des solutions pour les différents problèmes soulevés lors des tests.
    • Élaboration de différents cas d’utilisation pour valider nos décisions pour supporter le processus d’octroi d’hypothèque.
  • Desjardins - Architecte d’Infrastructure

    Québec 2007 - 2007 Pour le compte de la Direction Architecture et Infrastructure techniques chez Desjardins, j’ai joué le rôle d’architecte d’infrastructure dans plusieurs projets à saveur technologique. L’enjeu dans ce types de projet, c’est le volet sécurité de la solution proposée, et choisir l’infrastructure qui répond aux attentes d’un point de vue performance et coût.

    • Mise en place d’une solution de Notation comportementale pour la Direction exécutive intégration et mesure des risques (DEIMR). Cette solution qui s’appuie sur le produit ProbeSM permet d’évaluer une probabilité de défaut basée sur le comportement des membres en surveillant la variabilité de leurs comportements transactionnels.
    • Mise en place d’une solution pour augmenter la robustesse de l’environnement exploratoire de la DEIMR. Cette solution qui s’appuie sur le produit Matlab permet de calculer les paramètres de risque supportant l’approche Notation interne du risque de crédit.
    • Projet de migration à la Génération 3 du produit SMG3 d’Experian qui est utilisé dans la gestion de la notation à l’octroi de crédit par la Vice présidence risque de crédit aux particuliers et petites entreprises.
    • Projet d’optimisation des systèmes de notation à l’octroi par l’amélioration des processus et l’ajout de données en provenance de sources externes. Cette solution s’appuie sur le produit Decision Agent d’Experian.
  • Desjardins - Architecte Concepteur de Solutions / Chargé de contribution

    Québec 2006 - 2007 Pour le compte de la Direction Architecture et Infrastructure techniques, explorer de nombreuses pistes d’optimisation et de réduction de coût de l’infrastructure technologique de l’environnement d’intelligence d’affaire chez Desjardins. L’enjeu dans ce type de projets, c’est de mettre en place des solutions utiles tout en respectant les contraintes auxquelles on s’attend dans une organisation de cette taille. Voici ce que ces 2 projets d’optimisation avec un budget de 750 000$ ont permis de mettre en place :

    • Définition d’un cadre de gestion de l’environnement d’intelligence d’affaire incluant deux processus pour favoriser le développement de traitements SAS qui utilisent la capacité de façon optimale.
    • Doubler le débit SAN pour un entrepôt de données de 5 To.
    • Identifier des mesures de performance pertinentes du SAN qui permettront de trouver d’autres solutions pour en améliorer le débit.
    • Conception et mise en place d’une solution technologique pour céduler sous Autosys de gros traitements SAS matures et récurrents. Cette solution permet de déplacer de la charge des périodes de pointe en journée vers des périodes où les serveurs sont moins utilisés.
    • Conception et mise en place d’un modèle en étoile permettant le suivi de l’utilisation de l’entrepôt de données.
    • Migration de l’entrepôt de données normalisées sur un nouveau serveur où la capacité est disponible.
  • Coradiant - Architecte Data Warehouse

    2006 - 2006 TrueSight Analytic
    Conception de 5 modèles en étoile aux niveaux logique et physique. Création de tous les objets sous Oracle 10g. L’enjeu est de concevoir une architecture de données technique qui prend avantage des vues matérialisées en permettant le query rewrite de façon transparente pour l’outil client.

    • Conception de 5 modèles en étoile : données brutes sur les sessions, données brutes sur les pages, agrégation applicative, agrégation technique, et agrégation utilisateur.
    • Création de 44 vues matérialisées pour agréger les données sur la dimension temps permettant un query rewrite efficace. Validation que le query rewrite à bien lieu tel que prévu.
    • Optimiser les ETLs de façon à pouvoir charger toutes les 5 minutes une agrégation de 110 fichiers contenant chacun en moyenne 120000 enregistrements (fichier de 120MB) dans 11 modèles en étoile.
  • Solocal Group - Architecte Data Warehouse

    Boulogne-Billancourt 2006 - 2006 Audit
    Il s’agit d’un projet d’audit de l’infocentre de sèvre chez le groupe PagesJaunes en France. J’ai effectué la revue des différentes architectures : technique, opérationnelle, de données, et des ETLs. Très rapidement j’ai compris l’enjeu de trouver des pistes pour réduire les temps de traitement monstrueux du week end pour éviter la non disponibilité des données le lundi matin. La mise en application des conclusions de cet audit permettra de réduire aisément les temps de traitement par un facteur de 10, ce qui libèrera la fenêtre de traitement du week end, et ce qui permettra de faire évoluer de nouveau cet infocentre.

    • Rédaction d’un document détaillé avec des pistes d’améliorations par thème: Architecture technique, Architecture opérationnelle, Architecture des données, Architecture des ETLs.
    • Rédaction des spécifications techniques pour la réécriture d’un ETL avec une preuve de concept qui prouve qu’on peut diviser les temps de traitement par un facteur de 6.
    • Synthèse des résultats sous PowerPoint et présentation à la direction des études.
  • Coradiant - Architecte Data Warehouse

    2005 - 2006 TrueSight Analytic
    Il s’agit d’une étude de faisabilité pour un nouveau produit hébergeant un clickstream data warehouse. Le défi consiste à intégrer et enrichir en temps réel plus de 60GB de données par jour, alors qu’un utilisateur doit être capable de faire des requêtes en même temps avec un temps réponse satisfaisant. On a sélectionné Oracle10g car la preuve de concept a démontré sa capacité à relever un tel défi. On a également sélectionné MicroStrategy comme outil de reporting entre autre pour sa très puissante fonctionnalité de drill sur des faits non additifs.

    • Conception d'un modèle dimensionnel selon Kimball comprenant 6 modèles en étoile.
    • Estimation de la taille du data warehouse selon différents scénarios.
    • Conception et prototypage de fonctions d’agrégation spécifiques MySQL permettant d’afficher des graphiques de percentiles à différents niveaux d’agrégations, et ceci en utilisant des outils standards de reporting tels que BusinessObjects, CrystalReports et MicroStrategy.
    • Conception et prototypage d’une architecture ETL qui s’appuie sur les fonctionnalités d’Oracle 10g permettant une alimentation en temps réel avec de très gros volumes de données.
    • Evaluation des outils Crystal Report Enterprise Server XI et Business Objects Enterprise Server XI pour faire du drill-down sur des faits non additifs.
    • Création d'un prototype de rapport BusinessObjects sur les données aggégées démontrant les fonctionnalités de drill down out of the box.
    • Comparaison de différents outils de reporting tels BusinessObjects, MicroStrategy, et Cognos.
  • Yellow Pages Group - Spécialiste Data Warehouse

    2005 - 2005 Service request data mart
    Il s’agit d’un petit projet chiffré à 150 jours personne. L’enjeu est de faire un tableau de bord pour suivre les mesures clés concernant les plaintes formulées par les clients de YPG. La source principale de ce tableau de bord est un système Siebel. J’ai conçu trois modèles en étoiles et enrichie le data warehouse au passage. J’ai rédigé la plupart des spécifications fonctionnelles pour les ETL. La rapidité de mise en œuvre d’un tel data mart est rendu possible car il s’appuie sur un grand nombre de dimensions conformes qui existent déjà. Voici le détail de ma contribution.

    • Clarification du périmètre fonctionnel du projet avec les principaux acteurs du business.
    • Conception d'un modèle dimensionnel selon Kimball pour un service request data mart comprenant 3 modèles en étoile s'appuyant sur des dimensions qui existent déjà.
    • Enrichir le modèle entité-relation du data warehouse avec de nouvelles tables permettant de calculer plus facilement les faits du data mart, et pour mettre à disposition des données historiques utiles à d’autres projets.
    • Calcul des estimés de charge basés sur le nombre et la complexité des unités de traitement prévues.
  • Yellow Pages Group - Spécialiste Data Warehouse

    2005 - 2005 Sales reporting phase 3
    Il s'agit de la 3ème phase d'un projet data mart que j’ai chiffré à 1000 jours personne. Le domaine fonctionnel est l’évaluation de la performance des vendeurs et de l’organisation des ventes. Mon rôle a été de clarifier le périmètre fonctionnel d’un projet qui a été arrêté pendant près d’une année, de faire le modèle de données, ainsi qu’un estimé des charges et un plan de travail pour la phase d’analyse. Voici le détail de ma contribution.

    • Clarification du périmètre fonctionnel du projet avec les principaux acteurs du business.
    • Conception d'un modèle dimensionnel selon Kimball pour un sales rep data mart comprenant 3 modèles en étoile s'appuyant sur des dimensions qui existent déjà.
    • Conception d’une approche efficace pour calculer des faits différentiels très complexe.
    • Enrichir le modèle entité-relation du data warehouse avec de nouvelles tables permettant de calculer plus facilement les faits du data mart, et pour mettre à dispositions des données historiques utiles à d’autres projets.
    • Calcul des estimés de charge basés sur le nombre et la complexité des unités de traitement prévues.
    • Conception d’un plan détaillé sous MS-Project pour la phase d’analyse.
    • Rédaction des spécifications fonctionnelle pour un grand nombre d’ETLs.
    • Présenter les différentes livraisons au business.
  • Yellow Pages Group - Spécialiste Data Warehouse

    2004 - 2005 Migration du data warehouse Teradata
    Il s'agit d'un projet de migration d’un data warehouse existant sous une plateforme Teradata vers un nouvel environnement cible s’appuyant sur Oracle9i, DataStage 7.1, et BusinessObjects 6.1b. Le défi majeur du projet a été d’effectuer cette migration en 11 mois, ce qui a nécessité de gonfler l’équipe à environ 30 personnes à temps plein, et ce qui a coûté $ 3 millions. J'ai joué plusieurs rôles à travers les différentes phases du projet.

    Au démarrage du projet ainsi que durant la majeure partie de la phase d'analyse, de Févier à Juin 2004, j’ai joué le rôle de Chef de projet / Architecte de données. Voici le détail de ma contribution.

    • Conception d’un plan détaillé sous MS-Project pour la phase d’analyse.
    • Mise en place d’un rapport d’avancement utilisé pour le suivi hebdomadaire du projet.
    • Identification et définition du contenu des livrables de la phase d’analyse.
    • Rencontre des utilisateurs pour définir une solution répondant mieux à leurs besoins.
    • Conception du modèle dimensionnel selon Kimball pour le data mart.
    • Conception du modèle entité-relation selon Inmon pour le data warehouse sous la supervision du groupe d’architecture de YPG.
    • Participer à la rédaction des spécifications fonctionnelles des ETLs.

    Durant la phase de développement et des tests, de Juillet à Décembre 2004, j'ai joué un rôle d'Analyste fonctionnel / Analyste DataStage. Voici le détail de ma contribution.

    • Participer à l’élaboration ainsi qu’à l'exécutions des scénarios de tests systèmes.
    • Revue du code DataStage de nombreux ETLs avec différents développeurs. Ces revues ont permis d'améliorer rapidement et de façon significative la qualité des ETLs, ce qui n'était pas possible avec les scénarios de test.
    • Elaboration d'une approche novatrice pour alimenter la dimension client basée sur une table d'évènements client. La situation était critique, et il fallait impérativement trouver une solution pour réussir à alimenter cette dimension type 2 de 20 millions d’enregistrements.
    • Rédaction de nombreuses spécifications techniques DataStage pour la résolution des problèmes rencontrés lors de la phase de rattrapage et du chargement du data mart.

    Après la mise en production, durant la période de garantie de Janvier à Avril 2005, j'ai joué un rôle d'Analyste fonctionnel / Analyste DataStage pour le support en production. Voici le détail de ma contribution.

    • Rédaction de nombreuses spécifications techniques DataStage pour la résolution des problèmes rencontrés en environnement de production.
    • J'ai industrialisé le recyclage des historiques de données dans le data mart à partir de la source d’origine TERADATA et en passant par le data warehouse. Ces traitements de recyclage permettent de recréer sur demande l'historique d'un ensemble identifié de clients et de contrats.
  • Yellow Pages Group - Spécialiste Data Warehouse

    2004 - 2004 Projet d’upgrade technologique
    Conception d’un plan détaillé pour effectuer l’upgrade d’un data warehouse et d’un data mart dans un environnement Oracle9i, DataStage 7.1, et BusinessObjects 6.1b. J’ai rédigé le document de solution technologique sous la supervision du groupe d’architecture de YPG, et j’ai supervisé le lancement du projet pour ensuite me consacrer au projet de migration de Teradata.
  • UQAM - Spécialiste Data Warehouse

    Montréal 2003 - 2003 Revue de modèle dimensionnel
    J’ai effectué une revue de modèle dimensionnel pour le compte du Bureau de Recherche Institutionnel de l’UQÀM. J’ai essayé de le simplifier autant que possible pour le bénéfice des utilisateurs finaux. Dans ma démarche, je me suis beaucoup inspiré sur les documents suivants : A Decision Support System for IST Academic, data models for a registrar’s data mart, snowflakes and grain: snowflaking to meet a design constraint. J’ai également testé la nouvelle version du modèle avec les rapports qui sont publiés sur le site Web du BRI.
  • Yellow Pages Group - Spécialiste Data Warehouse

    2003 - 2004 Revue de l’Architecture Data Warehouse
    Au cours de cette intervention de 2 mois, j’ai joué le rôle d’un détective à la recherche des informations pertinentes pour décrire la situation actuelle. Puis j’ai défini une cible souhaitable en identifiant des opportunités d’amélioration. Enfin j’ai proposé et chiffré plusieurs projets pour passer de la situation actuelle à la cible souhaitée. Cette revue s’est terminée par le lancement de 2 des 6 projets proposés pour un budget total de plus de 2,000,000 $. Ce travail a été réalisé pour le compte et sous la supervision du groupe d’Architecture de YPG.

    La qualité de cette revue a également permis à Odesia de conclure un contrat cadre de 3 ans avec Yellow Pages Group pour tous les projets data warehouse.
  • Téléglobe - Spécialiste Data Warehouse

    2003 - 2003 Dashboard Corporatif
    J’ai créé une solution Web pour fournir aux employés de Teleglobe un accès facile aux indicateurs de performance de leur société. J’ai été impliqué dans la mise en place de la seconde et de la troisième génération de cette solution. Le défi, c’était de livrer la solution très rapidement. L’architecture de la solution est publiée à http://www.action3d.net/DashboardDM.htm.

    • Créer un data mart, un univers BO, et un rapport BO affichant les 20 mesures en 4 jours elapse. J’ai tout d’abord construit un prototype sous Access, et j’ai ensuite déployé la solution sous SQL server et BO Application Foundation. Un expert ETL a chargé les données à partir d’un document Excel en utilisant SQL server DTS.
    • J’ai fait une proposition de forfait pour la réalisation de cette troisième génération. Puisque la majorité des mesures sont calculées manuellement aujourd’hui, j’ai proposé de créer un système Web pour saisir les mesures dans une base de données centralisée. Automatisation de l’alimentation de deux mesures à partir du Data Warehouse de Teleglobe, et le reste à partir de la base de données des mesures. La solution est déployée sur des machines d’Odesia.
    • Rédiger les spécifications du site web des mesures et supervisé un expert WebDev pour son développement.
    • J’ai obtenu la logique pour extraire et transformer les données à partir du Data Warehouse de Teleglobe, et j’ai supervisé un expert Informatica pour créer les mappings et les sessions.
    • Travailler avec un expert BO pour installer le serveur applicatif de Web Intelligence.
    • Automatiser un transfert sécurisé FTP des fichiers d’extraction à partir de Teleglobe vers Odesia en utilisant WS FTP LE, un utilitaire de copie développé en C++, GNUPG, et SQL Server DTS. On a utilisé GNU Privacy Guard pour encrypter et décrypter les données.
    • Rédiger un manuel d’administration du Dashboard Corporatif.
  • ACTION3D - Développeur

    2002 - 2003 Logiciel 3d et solution e-commerce
    J’ai créé et commercialisé Action3D Reducer, un réducteur de polygones sous Windows qui s’appuie sur MFC et la technologie DirectX. Le défi consistait à créer un meilleur produit que les solutions existantes. La technologie DirectX m’a permis de commercialiser un très bon produit en moins de 11 mois. Ma solution complètement automatisée de back-office m’a permis de minimiser les coûts opérationnels de la boutique virtuelle, soit environ $150 par année.

    • Recherche des différentes approches pour réduire le nombre de polygones dans un objet 3d. J’ai développé mon propre algorithme de réduction, mais j’ai fini par utiliser et améliorer celui disponible dans DirectX8 simplement parce qu’il donne de meilleurs résultats.
    • Développer un moteur 3d qui permet aux utilisateurs dans une fenêtre normale sous Windows d’interagir avec les objets 3d comme dans un jeu vidéo d’action.
    • Créer la solution e-commerce à www.action3d.net pour vendre et distribuer le logiciel sur le web. Pour générer de l’achalandage, j’ai conçu le site web de façon à faciliter son indexation par les moteurs de recherche. Pour vendre le produit j’utilise PayPal.
    • Créer les outils de back-office pour automatiser la gestion des licences et l’activation des installations du logiciel. Cette solution complètement automatisée a permis de maintenir de très bas coûts opérationnels pour la boutique virtuelle.
    • Créer une solution de protection contre le piratage basée sur la cryptographie et la signature de chaque installation.
  • GE Medical Systems - Chef de projet

    2001 - 2002 Data mart de factoring
    J’ai créé un data mart contenant les données de factoring de GE Capital Financing et je l’ai connecté au data mart des comptes à recevoir de GE Medical Systems. J’ai conçu une interface très robuste pour alimenter de façon quotidienne le dépôt avec les données provenant de plusieurs systèmes de factoring. Le succès du data mart a permis de poursuivre le programme de factoring. Il représentait pour les collecteurs une source d’information fiable et à jour sur les factures et les paiements des clients de GE Medical Systems. Le défi consistait à ne pas perdre un seul des 80 fichiers quotidiens envoyés au data mart par les systèmes de factoring. L’approche préconisée se base sur l’envoie d’Emails contenants des instructions précises pour résoudre les problèmes identifiés tels que la détection de fichiers manquants ou la présence de rejets. L’architecture de la solution du data mart est publiée à http://www.action3d.net/FactoringDM.htm.

    • Réutiliser la structure de base de données Oracle mise en place chez GE Plastics. C’est quelque chose qu’on essaie de faire autant que possible chez GE, ne pas réinventer la roue et réutiliser ce qui fonctionne bien ailleurs. J’ai validé sa structure avec les experts de chez GE Capital et j’ai fait les modifications nécessaires.
    • Créer l’environnement de développement Informatica et Business Objects.
    • Créer et stabiliser les mappings et les sessions Informatica.
    • Créer et stabiliser l’univers Business Objects.
    • Concevoir une solution pour détecter les fichiers de factoring manquants. J’ai réussi à vendre le concept à GE Capital Financing de façon à ce qu’ils changent leurs procédures d’envoie des fichiers, ce qui a rendu la détection possible.
    • Coder un shell script sous unix pour automatiser la réception des 80 fichiers quotidiens et envoyer des emails en cas de problèmes.
    • Assister les responsables fonctionnels à la résolution des rejets détectés par l’interface.
    • Créer des objets de mesure de performance dans l’univers Business Objects ainsi qu’une procédure stockée pour le calcul de ces mesures de façon quotidienne.
  • GE Medical Systems - Chef de projet

    2001 - 2002 Interface de factoring
    J’ai mis en place une interface sur la centrale permettant à GE Medical Systems de sous-traiter son activité de collection à GE Capital Financing en France, au Royaume-Uni, aux Pays-Bas, en Belgique, et en Italie. Durant le projet, j’ai transféré un portfolio de factures de plus de 140 millions d’euros. J’ai remplacé les deux chefs de projet précédents (fonctionnel & technique) après la mise en place de l’interface aux Royaume-Uni et Pays-Bas. Le défi consistait de comprendre rapidement le fonctionnement du progiciel AR millennium, de définir le scope du projet, d’engager 7 développeurs, et de coordonner nos efforts avec l’équipe de développement de Capital Financing.

    • Gestion du projet du côté GE Medical Systems avec un budget de plus de 370 000 euros seulement pour l’équipe de développement GEMS. J’ai divisé le projet en 5 sous-projets : Italie, France, Belgique, Espagne, et l’entrepôt de données factoring.
    • Bâtir une meilleure solution basée sur l’expérience du Royaume-Uni et des Pays-Bas. J’ai rédigé toutes les spécifications et coordonné le déploiement dans chaque pays.
    • Nettoyage du portfolio des factures ouvertes dans chaque pays. Cela représentait beaucoup de travail, de nombreuses itérations, et beaucoup de coordination de l’effort des 18 membres de l’équipe.
    • Recruter et former 4 développeurs COBOL/VSAM pour coder les interfaces du côté GEMS. Deux des développeurs étaient sur site et les 2 autres en Inde.
    • Concevoir une solution pour transférer des factures qui étaient déjà transférées à une autre société de factoring en Italie. Le rachat des factures medio était le challenge le plus important du projet. J’ai fourni des informations cruciales au directeur financier en Italie pour l’aider à finaliser l’accord avec Medio Factoring.
    • Définir une approche de recette finale nous permettant d’éviter les surprises lors du passage en production.
    • Rédiger les spécifications de l’interface de factoring pour le remplacement d’AR/DBS par Oracle receivables. Je me suis impliqué dans ce travail parce que je voulais faire profiter de mon expérience de factoring à l’équipe d’Oracle.
  • GE Medical Systems - Chef de projet

    2000 - 2001 Évaluation de la performance des employés
    J’ai amélioré le système Web appelé e360 qui est utilisé pour évaluer la performance des employés chez GE Medical Systems dans le monde. J’ai remplacé le chef de projet précédent pour démarrer la seconde édition de ce système. Mon approche a été d’améliorer le produit basé sur les leçons tirées de la première version. Cette seconde édition a été un vrai succès, particulièrement parce que l’Asie s’est réellement impliquée, les utilisateurs pouvant lire et répondre dans la langue de leur choix. Nous avons eu
    10 000 participants évalués par 100 000 répondants.

    • Piloter la résolution de la fonctionnalité d’email automatique avec 3 DBAs et un administrateur OAS.
    • Valider les spécifications de la seconde édition du système avec le leader global RH du e360. J’ai amélioré le système basé sur ce qui n’a pas bien fonctionné au cours de la première enquête.
    • Piloter les 2 développeurs PL/SQL de chez SQLi pour coder les améliorations. J’ai effectué beaucoup de tests et de revues de code.
    • Charger 275 000 employés GE ainsi que ses sous-traitants dans le monde à partir des données contenues dans l’instance globale d’exchange. J’ai développé une interface de chargement en utilisant Informatica.
    • Publier 171 pages html statiques dans 9 langues : Chinois, Anglais, Français, Allemand, Italien, Japonais, Coréen, Portugais, Espagnol. Grâce au Far East Pack de Microsoft j’ai été capable de travailler avec des documents Word en Japonais, Coréen, et Chinois.
    • Charger les questionnaires dans 9 langues dans un base Oracle UTF8.
    • Supporter l’application durant les 2 mois où 10 000 participants étaient évalués par 100 000 répondants.
    • Au démarrage de l’enquête, j’ai identifié et invité avec succès 20 000 employés additionnels en Asie à participer à l’enquête. Le système avait tout simplement oublié de les inviter.
    • Au cours de l’enquête, j’ai trouvé et résolu le problème qui déconnectait les répondants pendant qu’ils entraient leurs réponses. Cela m’a donné quelques sueurs froides étant donné le nombre important d’utilisateurs impactés.
  • GE Medical Systems - Chef de projet

    1999 - 2002 Solution de rémunération variable des vendeurs
    J’ai créé une solution client/serveur complètement automatisée pour calculer la rémunération variable des vendeurs de GE Medical Systems en Europe. C’était un projet avec un très haut niveau de complexité dans les plans de rémunération. Le défi ici a été de concevoir un système qui peut aisément être modifié pour intégrer de nouvelles règles de rémunération chaque année. J’ai mis en place un data mart pour collecter l’ensemble des données nécessaires au calcul de la rémunération variable des vendeurs. J’ai également mis en place une solution intranet pour permettre aux administrateurs de région de nettoyer les données. Pendant 3 années consécutives, j’ai été capable d’intégrer aisément les nouvelles règles avec l’aide d’un spécialiste d’Incentive Systems. Cette solution a sauvé $150 000 en réductions de coûts par année, et a permis de doubler le nombre de vendeurs sur le plan Européen, on est passé de 100 à 200 vendeurs. L’architecture de la solution du data mart est publiée à http://www.action3d.net/VariableCompensationDM.htm.

    • Dans ce projet on a utilisé à la fois la méthodologie 6sigma et le Phase Review Discipline.
    • Rédiger le plan d’affaire et obtenir le budget.
    • Rédiger les spécifications de la solution complète incluant les règles de rémunération variable et les interfaces.
    • Evaluation des progiciels de rémunération variable du marché et sélection d’Incentive comme la meilleure solution.
    • Négocier un très bon discount pour les licences d’Incentive de façon à obtenir le feu vert pour la mise en place de la solution.
    • Concevoir une nouvelle feuille de rémunération variable différentielle plus simple à comprendre pour les vendeurs.
    • Créer la feuille de rémunération avec Crystal Report.
    • Créer le data mart de rémunération variable. J’ai fait le design et j’ai créé la base de données Oracle. J’ai automatisé l’alimentation du data mart à partir de 4 systèmes : Oracle HR pour les employés, Force pour la structure de l’organisation des ventes, AR/DBS pour les factures et les paiements, CSS pour les commandes. J’ai utilisé les middlewares Informatica et DataJunction pour alimenter le data mart, et j’ai recruté un développeur COBOL/VSAM pour les extractions d’AR/DBS.
    • Créer les environnements de test et de production sur les serveurs NT.
    • Créer un prototype du moteur de calcul en Access pour générer les scénarios de test. La codification des règles de calcul dans le produit Incentive a été fait par les experts d’Incentive Systems, et j’ai effectué beaucoup de tests pour en assurer le fonctionnement tel que décrit dans les plans de rémunération variable.
    • Rédiger les spécifications de la solution intranet permettant aux Administrateurs dans les régions de nettoyer les données du data mart. J’ai sélectionné Cognicase pour créer la solution.
    • Créer un script sur NT pour automatiser le chargement des données, le calcul de la rémunération variable, et la création d’une base de reporting sous SQL server.
    • Rédiger un guide utilisateur pour l’administrateur central de la rémunération variable et les administrateurs des ventes dans les régions.
  • GE Medical Systems - Consultant fonctionnel

    1997 - 1998 Oracle HR
    J’ai déployé Oracle HR à travers l’Europe pour permettre de gérer plus de 4000 employés. Ce projet faisait partie d’un programme à GE de mise en place d’Oracle HR dans tous les business GE dans le monde. La valeur ajoutée la plus importante de ce projet a été de permettre d’obtenir rapidement une information à jour sur tous les employés de GE Medical Systems en Europe.

    • Faciliter l’identification de l’information que les Managers RH voulaient bien entrer dans le système.
    • Rédiger les spécifications pour l’adaptation du progiciel. Tous les développements ont été fait en central par GE Corporate.
    • Créer le fichier des employés dans le format approprié pour être chargé dans Oracle HR. J’ai effectué ce travail pour l’Espagne, le Portugal, l’Italie, la Turquie, et la Grèce.
    • Coordonner la validation du chargement des données par les Managers RH.
    • Définir et mettre en place la sécurité.
    • Définir et tester l’automatisation des avis d’arrivée, de transfert, et de départ.
    • Développer un rapport différentiel avec Business Objects pour faciliter l’envoie des modifications à l’administration de paye en France.
    • Développer une interface avec le système de gestion des augmentations.
  • GE Medical Systems - Consultant fonctionnel

    1995 - 1996 Gestion de contrat de service
    Définition des fonctionnalités d’un système de gestion de contrat pour GEMS pouvant être utilisé par les trois pôles : en Europe, aux US, et en Asie.
  • GE Medical Systems - Spécialiste en Méthodologie IEM

    1994 - 1994 Pilotage de trois projets ISP respectivement pour les ressources humaines, le service après vente, et sur le processus de la Commande au Paiement.
  • GIE Psa Peugeot Citroen - Expert IEF & méthodologie IEM

    Rueil Malmaison 1992 - 1993 Aider à la finalisation de plusieurs projets de développement de systèmes sur la centrale utilisant l’outil IEF. J’ai développé et introduit dans chacun des projets où je suis intervenu plusieurs programmes réutilisables afin d’augmenter la qualité des livrables ainsi que la productivité des équipes de développement. J’ai également travaillé avec le groupe des méthodes de PSA pour définir une interface utilisateur standard pour laquelle j’ai développé les programmes réutilisables.
  • Samson Belair / Deloitte & Touche - Conseillé en management

    1989 - 1991 Impliqué dans diverses prestations de service informatique : étude de faisabilité, revue de système, développement, et sélection. J’ai passé la dernière année et demie à jouer un rôle clé dans le développement d’un système sur la centrale AR/AP multi-devise pour Téléglobe Canada en utilisant les outils IEF.
  • Northern Telecom - Chef de projet

    1987 - 1988 Gestion de projet, analyse des besoins, conception, modélisation des données, développement d’un système de gestion de réparation en utilisant un langage de 4ème génération.

Formations

  • McGill University (Canada) (Montréal)

    Montréal 1985 - 1987 MBA
  • Université De Montréal DESI (Montréal)

    Montréal 1982 - 1984 B.Sc. en Informatique

Réseau

Pas de contact professionnel