CV créé le :
23/02/2021
CV modifié le :
26/08/2022
Dernière connexion :
26/08/2022
Coordonnées
******
*****
Adresse :
* ****** *** *********** ***** ******
Email :
***********@*****.**
Port. :
************
|
Ingénieur Data Analyst Power BI, Python, SQL, Confirmé
Référence : 818053
Expériences Professionnelles
janv. 2022
aujourd'hui
|
Consultant d’Application chez Capgemini
|
|
|
|
Rennes
|
|
|
oct. 2020
juin 2021
|
Data Analyst
|
|
|
|
Degriffstock
|
Projet : Analyse de comportement clients python et Power BI
Contexte : Degriffstock est une enseigne de déstockage des vêtements de marques. L'objectif de
ce projet était d'identifier les clients qui ont à la fois un compte sur le site internet de l'enseigne et
dans l'un de ces magasins, pour des campagnes de marketing.
Tâches effectuées sous python:
* Recueille du besoin de l'employeur
* Planification des taches du projet
* Collecte des données des clients
* Manipulation et transformation des données
* Identification et segmentation du type RFM des clients
* Visualisation du profil des clients par segment
* Analyse et comparaison du profil des clients entre les segments
* Modélisation et classification des segments à l'aide des algorithmes de machine learning
(régression logistique, SVM, forêts aléatoires, gradient boosting, réseaux de neurones )
* Prédiction et évaluation des modèles de prédiction
* Création des indicateurs de performance à partir des modèles de prédiction
* Déploiement en live sur web des modèles en production grâce à une API Flask Posman
Tâches effectuées sur Power BI:
* Préparation des données des clients
* Modélisation des données à l'aide de Power Query
* Construction des KPI (Indicateurs de performance)
* Réalisation, publication et partage des rapports et des tableaux de bords
* Établissement de connexion entre SAP HANA et Power BI à l'aide d'un pilote ODBC
* Présentation et mise à jour des rapports
* Rédaction du guide pour les utilisateurs
* Environnements techniques: Power BI, Jupyter (Python3), Numpy, Pandas, Scikit-
Learn TensorFlow 2 (Keras), SQL, Git, Notepad++, SAP, ODB, API Flask Posman
|
|
mars 2020
août 2020
|
Data Analyst
|
|
|
|
Chambre de l'Agriculture & INVENIO
|
Projet : Opti-Fraise
Contexte : OptiFraise est un projet mise en place par la Chambre de l'Agriculture de Lot-et-
Garonne en collaboration avec INVENIO qui est une entreprise spécialisée dans l'expérimentation de
la filière fruits et légumes en Nouvelle Aquitaine.
Le but de ce projet d'optimiser le système d'irrigation d'eau actuel en culture de fraises hors-sol à
l'aide de machine learning.
Tâches effectuées:
* Définition des méthodes et outils de traitement des données
* Installation et configuration des outils de traitement des données
* Réalisation d'une veille documentaire (Extraction, transformation) des données
* Comparaison des besoins en eau des fraisiers par type de substrat et par stade de
développement à l'aide de l'ANOVA et de l'ACP
* Stockage des données avec HDFS Frameworks de Hadoop
* Traitement en continu à l'aide de Hadoop Streaming , fichiers HDFS d'un script Python
* Implémentation des modèles de Régression de machine learning ( régression linéaire, SVM,
forêts aléatoires, gradient boosting, réseaux de neurones )
* Évaluation et prédiction des besoins en eau des fraisiers
* Importation , transformation des données via Power Query
* Modélisation des données avec les fonctions DAX sur PowerBI
* Intégration et mise à jour des données dans HDFS à bas d'un script python
* Création des Dashboards pour visualiser des indicateurs de performances des modèles
* Rédaction, synthèse, présentation, documentation.
Environnement technique: Jupyter (Python3), PowerBI , Hadoop, Pandas, Numpy, Seaborn,
Matplotlib, Scikit-learn, Keras, Windows, Ubuntu, Bash, Pack Office
|
|
mars 2019
oct. 2019
|
Développeur Python
|
|
|
|
SCALIAN Alyotech
|
Projet 1 : Développement d'un Serious Game
Contexte 1 : Le but de ce projet est de développer des IA de communication suis sera intégrer dans
un logiciel de réalité virtuelle pour une augmentation l'efficacité des agents de GRDF qui gèrent des
situations de fuites de gaz.
Tâche 1 :
* Analyse de besoin
* Documentation sur le métier Planification des taches du projet
* Installation des outils nécessaires à la réalisation du projet
* Récupération des données historiques du métier avec un script python
* Transcription des audio en textes et des textes en audio à l'aide des API de reconnaissance
de paroles (Google API, IBM, Sphinx )
* Comparaison des performances de transcription des trois API à l'aide du test de Ki2
* Construction d'une base de données textuelle au format JSON
* Nettoyage et analyse descriptive des données textuelles
* Entrainement des Réseaux de neuronnes sur une partie des données
* Exécution en continue du script python par UNITY
* Assistance aux utilisateurs du Serious Game
Environnement technique : Jupyter (Python3), Unity, SpeechRecognition, CMU Sphinx,
ibm_watson, os, PyAudio, PocketSphinx, string, random, nltk, tensorflow, numpy, pandas, matplotlib,
seaborn, Beautiful Soup, Pack Office, Windows, Shell
Projet 2 : Analyse comportementale des utilisateurs du Serious Game
Contexte 2 : Cette analyse nous permet d'une part de suivre et de localiser les actions des
utilisateurs pendant le jeu en RV. D'autre part, elle permet de mesurer la performance de chaque
utilisateur.
Tâches effectuées:
* Visualisation du parcours des utilisateurs en RV à l'aide des graphiques 3D
* Analyse des données générées par le Serious Game
* Modélisation des l'intervention des utilisateurs par le biais de la régression de COX de la
bibliothèque Lifelines
* Rédaction de fiche technique, synthèse et présentation,
Environnement technique : Jupyter (Python3), Numpy, Pandas, Scikit-Learn , Lifelines
Matplotlib, Pack Office, Windows, CMD
|
|
oct. 2013
janv. 2017
|
Chargé d'Études Statistique
|
|
|
|
INSAE/Bénin
|
Projet 1: Aides au développement durable
Contexte 1 : Initié par le PNUD, le projet a pour objectifs d'analyser les données sociales et
économiques du Bénin pour aider le gouvernement à formuler un programme de développement
économique, politique et inclusif.
Tâches effectuées:
* Planification des taches du projet
* Récupération, nettoyage et formatage des données avec le logiciel R, dplyr
* Visualisation sur une carte à l'aide de ggmap
* Classification des classes sociales à l'aide Kmeans, hclust
* Comparaison des profils des ménages à travers une ACP
* Création des rapports et des tableaux de bords avec Rshiny et ggplot2
* Réalisation des présentations tout au long du projet
* Participation à la rédaction du rapport final du projet.
Environnement technique: R (Rstudio), Markdown, RColorBrewer, Plotly, Ggplot2, Dplyr,
stats, FPC, FactoMineR, Windows, Pack Office
Projet 2 : Recensement 2016
Contexte 2 : Mise à jour depuis 2006, le but de ce projet est d'actualiser le fichier national de
recensement de la population en république du Bénin.
Tâches effectuées:
* Conception de la structure de la base de données
* Création et Stockage des données dans la base de données à l'aide de MySQL
* Gestion des bases de données à l'aide des requêtes SQL
* Rédaction des procédures, leur explication et vérification de leur application
Environnement technique : Oracle, SQL, MySQL, MyISAM, Windows, Pack Office
|
|
Diplômes et formations
sept. 2018
sept. 2020
|
Master Mathématiques Appliquées, spécialité Sciences Des Données (SDD)
- BAC+5
|
|
|
|
Université Rennes 2
|
|
sept. 2010
juin 2013
|
Licence Pro, Mathématiques Informatique, spécialité Ingénierie Statistique
- BAC+3
|
|
|
|
|
|
Compétences
Python, Scikit-Learn, Pandas, Tensorhow, keras, Numpy, Matplotlib, Seaborn, Beautifulsoup, Django, NLTK, NLP, os, Lifelines
R, Rstudio, Markdown, RColorBrewer, Plotly, Ggplot2, Rshiny, Dplyr, stats, Caret, GBM, Xgboost, randomForest, doParallel, kernlab, lattice, e1071, glmnet, bestglm, VIM, leaps, mice, corrplot, class, ROCR, XML,
Mathématiques : Liner and Logistic Regression, Random Forrest, Gradient Boosting, SVM, CNN, RNN, MLP, ARIMA, Clustering, Kmeans, Decision Trees,
Outils Big Data: Hadoop, HDFS, MapReduce, Spark, Pyspark, Bash, Linux, Ubuntu, Windows,
Base de données : MySQL, SQL, NOSQL, MongoDB, nosql Oracle, Hbase,
Data visualisation: PowerBI, Ggplot2, Rshiny,
Web développement : UI5, HTML5, CSS3, Power BI, API, Flask,
Autres : SAP HANA, ODBC, Jupyter, TensorFlow 2, Git, Notepad++, SAP, ODB, API Flash Posman, ANOVA, Hadoop Streaming, script, Python3, Pack Office, IBM, JSON, Unity, SpeechRecognition, CMU Sphinx, ibm_watson, PyAudio, string, random, Beautiful Soup, Shell, CMD, FPC, FactoMineR, MyISAM
Compétences linguistiques
|
Important
|
CV actualisé il y a plus de 6 mois, certaines informations peuvent ne pas être à jour.
|
|