Expériences & Réalisations
Consultant Big Data / Data Scientist
2015 - 2016 at Conix, Issy-les-moulineaux
Consultant data scientist chez Conix Consulting. Création de l'offre Big Data puis intervention sur l'ensemble des volets de cette offre, dont notamment:
• La mise en place du Datalab de CONIX : ConixLab (Veille puis choix de l’architecture technique, tests de la solution retenue)
• Le développement de l’offre commercial: supports et outils commerciaux, animation, avant-vente et promotion de l’offre (client, salons, table ronde…), formations et gestion des projets data science
• Lead technique de POC ConixLab : fraude bancaire (clients sur liste noire, détection de cartes bancaires piratées, prédiction de la solvabilité client), fraude à la mutuelle/ assurance (détection automatisée de faux devis optiques), analyse de sentiments portant sur l’actualité web (en partenariat avec l’école Sup’Galilée, « Santé des entreprises à l’aide d’information sur le web »)
• Etude de notoriété et analyse concurrentielle : pour une célèbre maison de champagne (à partir des réseaux sociaux)
• Autres datathons : hackallocs (hackathon des allocations familiales), concours DataScience.net (problème de classification de produit CDiscount) …
Ingénieur d’Etudes et développement
Novembre 2014 – Avril 2015 at Sopra Steria, La Défense
Ingénieur en recherche et développement au sein de Sopra ("Société de programmation et d'analyse" ou bien "d'Annecy", qui sait vraiment ;), j'ai aprécié les projets de développement Java sur lesquels j'ai pû travailler.
Développement d’une application web pour OBS (Orange Business Services) orientée système de ticketing:
- Recueil et analyse du besoin métier en méthode Agile
- Implémentation du besoin métier (JEE, Stripes, bootstrap...)
- Tests unitaires de la solution (JUnit)
Développement d'une application web PHP, Canal Pro:
- Implémentation du besoin métier
- Implémentation mobile: aspect responsive design (CSS, Bootstrap...)
- Tests unitaires de la solution
Participation au DigiLab sur différents POC orientés télécommunication
- Veille technologique sur les outils BigData (Hadoop, Cloudera, MapR)
- Participation à l’identification des algorithmes statistiques
- Mise en oeuvre sur le cluster Hadoop des algorithmes
Environnement : MLLib, Hadoop, Cloudera, Java, Spring, Junit, Hibernate, Stripes
Ingénieur Data Scientist
Mars 2014 – Sept 2014 at GrDF - État-major DSI, Paris
Cette expérience se situe dans la continuité de ma formation d'ingénieur génie logiciel, et plus précisement ma spécialistation en recherche d'information (data mining) et analyse de contenu (machine learning). Propulsé dans l'univers du Big Data, ce projet s'est découpé en plusieurs phases: la première a été un "débroussaillage" technologique parmi la jungle des outils existants (j'en ai abordé prés d'une vingtaine). Cette montée en compétence sera nécessaire pour mener à bien ma mission de catégorisation de fiches dites innovantes (de l'information non-structurée). Ces fiches qui se placent dans un contexte de Small Big Data seront catégorisées selon différentes approches allant de la classification Bayésienne supervisée, en passant par l'annotation sémantique par ontolologies, jusqu'au partitionnement par paquet à l'aide de méthode de clustering.
Finalement, ce gain d'exérience me permet de contribuer au lancement du datalab de GrDF. C'est en participant à différents projets d'analyse prédictive aux enjeux capitaux pour l'avenir du gaz que je prends gôut au métier de data scientist
"Intervention majoritaires au sein du département veille et innovation, rattaché à l’état-major de GRDF, sur les problématiques de détection de churn et d’analyse de données sémantiques."
Mission 1 : Analyse sémantique et Veille technologique (Mise en oeuvre de cas d’école sur une vingtaine d’outils d’analyse de données, Catégorisation de fiches dites innovantes, Traitement et préparation de la donnée, Valorisation de la donnée, Implémentation des algorithmes de classification (naive bayes, K-means clustering), analyse des résultats des traitements statistiques)
Mission 2 : Mise en place du datalab pour la détection de churn (Étude & installation/administration du datalake: cluster Hadoop from scratch, Alimentation du datalake, Mise en qualité des données, Valorisation de la donnée, Identification des algorithmes statistiques (modèles prédictifs), Mise en oeuvre et évaluation de ces modèles prédictifs, Analyse des résultats statistiques
Environnement : PERL, Python, Scikit learn, R, Gate, Protégé, Weka, Shell, Hadoop, Python (pandas), Scikit-Learn (Dataiku), SQL, Java,
Data Analyst
Mai 2013 – Août 2013 at MUNCI, Issy-les-moulineaux
C'est à l'issue de ma seconde année en tant qu'elève ingénieur en informatique à l'école Sup'Galilée que j'ai eu l'occasion d'intégrer l'association du MUNCI. Pendant plusiers semaines, j'ai travaillé sur un projet traitant un sujet très actuel: l'avenir des métier IT, notamment celui des informaticiens, et le mythe de la pénurie des informaticiens. Ainsi, c'est non seulement en qualité de développeur web mais aussi en tant qu'aprenti-ingénieur data analyst à l'esprit critique quant à ma future profession que j'ai vécu ce stage de technicien.
"Développement en PHP d’une plateforme web capable d’extraire puis d’analyser des offres d’emploi du secteur du numérique, en provenance de trois célèbres sites d’offres d’emploi."