Business Analyst | ETL DataViz BI Nanterre, France

Podría estar disponible

(Actualizado 2020-02-06.)

Business Analyst | ETL DataViz BI

Nanterre, France

Nativo French, Intermedio English

  • Java, Scala, Ruby, Shell, Json, Jira, Confluence, Microsoft
  • SQL, ELK, Hadoop, Hive, PowerBI, Qlik Sense, HBase, Elasticsearch, Oracle
  • Méthode agile, Conception, rédaction de spécifications, Data Visualisation

Habilidades (57)

ESPRIT D'ÉQUIPE

SQL

Hive

DOCUMENTATION

Confluence

PROTOTYPAGE

CONCEPTION

Agile

Jira

Logstash

Business Analyst

Git

BI

VISIO

Gestion de projet

TESTS

Cucumber

MOA/MOE

Spring 4

data

ÉCRITURE FONCTIONNELLE

MVC

Hadoop

Ruby

ANALYSE DES BESOINS

ZooKeeper

HTML

tests unitaires

Elasticsearch

technico-fonctionnel

Power BI

Hbase

SPÉCIFICATIONS FONCTIONNELLES

Postman

Jenkins

Java 7 & 8

MAINTENANCE

API

JQuery

JavaScript

JUnit

SSAS Tab

AMOA

ROBOTIQUE

CORRECTION

Oracle

VISUAL STUDIO

Google Cloud Platform

Oracle BI Publisher

SYSTÈMES EMBARQUÉS

SOAP UI

UX

Prélèvement à la source

AWS

POWER

DSP2

.NET

Experiencia profesional

Agile Business Analyst
EDF Commerce

2018-10 - 2019-11

Projet: VERONE - Gamme Conso
Contexte:
En étroite collaboration avec la division du Marketing, il est question de traiter la consommation énergétique
(Electricité, Gaz) et la souscription/désabonnement des clients EDF via la mise en place d'algorithmes tout en appliquant la réglementation européenne GDPR.
Activité:
▪︎ Recueil, Analyse et conception des besoins métiers tout en tenant compte des futurs cas d'usage.
▪︎ Rédaction et validation des spécifications fonctionnelles répondant aux différents besoins.
▪︎ Pilotage, chiffrage et suivi d'activité à travers différents comités.
▪︎ Priorisation du besoin par valeur (MVP)
▪︎ Cadrage et mis en place des règles de gestions des parcours clients et données
▪︎ Mise en place des stratégies de recette fonctionnelle (plans de tests, scénarios, JDD, exécution)
▪︎ Formalisation des différents scénarii pour automatisation des tests avec Cucumber.
▪︎ Amélioration de la documentation générale et retro doc.
▪︎ Echange constant et description fonctionnelle aux équipes de développement.
Environnement technique:
▪︎ Framework/Serveur: Hadoop, Spark, Kafka, Oozie, Hive, HBase, Oracle, ODI, Elasticsearch
▪︎ Méthodologie & Modélisation: Agile scrum, UML, Confluence, JIRA
▪︎ Outils/IDE: yEd, Pack Office, SQL Developer, Confluence, JIRA, HP ALM, Kibana, Teams, Postman

Career Manager
CAPGEMINI

2018-02 - 2019-03

▪︎ Suivi de carrière de plusieurs collaborateurs d'une ESN
▪︎ Encadrement et coaching des dits collaborateurs
▪︎ Participation aux baromètres d'évaluation des collaborateurs pour promotion, formation et rotation
de projet

Data Analyst - Consultant BI ELK
Capgemini

2017-03 - 2018-09

Projet: @CCOST (ACCélération de l'Outillage et de la Supervision Transverse)
EDF Commerce
Contexte:
Dans une équipe full agile, je travaillais en qualité d'appui métier sur le projet @CCOST qui s'axe sur la mise en place des indicateurs, le traitement de données et la supervision de l'ensemble des applications du SI commerce
sous la responsabilité du domaine marché des clients particuliers EDF. Le contexte du projet est organisé au tour de cinq activités:
▪︎ Concevoir la supervision des processus du SI MCP (définition des indicateurs)
▪︎ Implémenter les indicateurs dans les outils de supervision existants
▪︎ Collecter, traiter et centraliser les données dans un lac de données
▪︎ Piloter le projet
▪︎ Restituer les tableaux de bord des processus
Activité:
▪︎ Recueil et analyse des besoins
▪︎ Conception et Prototypage
▪︎ Implémentation et centralisation des indicateurs de supervision (sous l'ETL Suite Elasticsearch)
▪︎ Élaboration et réalisation des tests unitaires et des recettes fonctionnelles
▪︎ Maintenance corrective et évolutive du lac de données et des indicateurs.
Environnement technique:
▪︎ Framework/Serveur: Elasticsearch, Kibana, Logstash, FileBeat, MetricBeat, HeartBeat, Graph
▪︎ Langages: Script Shell, MySQL, SQL, Ruby, Java, Power BI
▪︎ Méthodologie & Modélisation: Agile scrum, UML, Confluence, JIRA, Teams
▪︎ Outils/IDE: SublimeText, Visio, Pack Office, Linux, Dynatrace, Confluence, Postman, MobaXterm

Data Engineer - Consultant Java EE
CAPGEMINI

2016-02 - 2017-03

Projet: ORGE (Outil des Règles Générales d'Exploitation)

Client: EDF DPNT Contexte:
Lot 4 du projet QUADOR (Qualité des données de références), ORGE a pour but de cadrer la démarche d'analyse
d'exhaustivité du respect des référentiels de la Direction du Parc Nucléaire et Thermique (DPNT) EDF.
Activité:
▪︎ Rédaction des documents techniques de l'ensemble des composants de l'application et transfert de compétences à la TMA.
▪︎ Développement et mise en place d'API et services REST backoffice en Java pour CRUD
▪︎ Développement d'un batch Spark de traitement des données Hive (EAM, ECM) de l'entrepôt
Hadoop vers Elasticsearch
▪︎ Montée de version Elasticsearch 2.3.3 vers la 5.4.3 avec mis à jour de l'application et des différents
modules.
▪︎ Utilisation de Kibana et Sense pour la visualisation des données Elasticsearch, Hue comme interface
de virtualisation des workflow Oozie. Postman pour interrogation des API et web services.
▪︎ Développement des évolutions et corrections d'anomalies
▪︎ Développement d'un POC basé sur Sqoop pour l'import et l'export de données de base relationnel
(PostgreSQL) vers Hadoop
▪︎ Réalisation des tests unitaires avec Junit, Mockito, ScalaTest.
▪︎ Compilation et correction de la qualité du code source avec Jenkins.
Environnement technique:
▪︎ Framework/Serveur: Elasticsearch, Spark, Hadoop, Oozie, Hive, Spring, PostgreSQL, Git, Maven
▪︎ Langages: Java EE, Java, Scala, MobaXterm, Postman, FileZilla client
▪︎ Méthodologie & Modélisation: Agile scrum, UML


EXPERIENCES PROFESSIONNELLES DIVERSES

Formación académica

Diplôme d'ingénieur
Institut d'Ingénierie Informatique de Limoges

2013-09 - 2016-09

Diplôme d'études universitaires générales
sciences de l'université de Douala Cameroun

2011-09 - 2013-08

Certificaciones

MCP

Contacta con el consultor

/