Du haut de mes trois années d'expériences dans l'analyse et le traitement des données Loyalty, des données Bancaires et assurantielles et doté d’une curiosité intellectuelle, d’une capacité d’adaptation, d’analyse et de l’autonomie, je suis diplômé d'un Master 2 Actuariat et traitement de données et d'un DU big data, data science et analyse et gestion des risques sous python obtenus à l'université de Montpellier.
Projet : L’objectif de cette mission en tant que Technical Data Analyst est de faire du support : traitement des demandes ad hoc et régulières de chiffres et d’extractions de données pour les métiers. De l’accompagnement d’un Product Owner dans l’analyse des chiffres d’un Dashboard (nouvellement industrialisé) via des bases de données Cloud Snowflake, avec des requêtes SQL. Et de l’audit de toutes les demandes traitées sur l’année 2024.
Réalisations :
o Traitement des demandes de chiffres et d’extractions de données :
Échanges souvent en anglais avec les métiers pour bien affiner les besoins
o Accompagnement Product Owner dans l’analyse des chiffres du Dashboard de performance, via des requêtes SQL sur snowflake.
o Audit de toutes les demandes traitées sur ServiceNow sur l’année 2024
Livrables :
o Données issues des demandes d’extractions et de chiffres
o Détails des remarques issues de l’analyse des chiffres du Dashboard
o Fichiers d’audit de toutes les demandes traitées sur l’année 2024
Environnement technique : SQL, Cloud Snowflake, ServiceNow.
Projet : L’objectif de cette mission en que Business Data Analyst est de réaliser d’une part la recette des données Loan tapes et valuation, via des bases de données VERTICA, l’accompagnement des autres membres de l’équipe sur des sujets techniques, le développement de programmes pour la validation rules en Python, VerticaPY et SQL. Ces programmes nous permettent de s’assurer que nos données Loan Tapes respectent bien les conditions prédéfinies par la BCE.
Réalisations :
o AMOA Métier & Data en interface avec de nombreux interlocuteurs
o Pré-analyse des données Loan Tapes attendues par la BCE
o Validation des règles de mapping de données fournies par la MOE Data
o Validation des spécifications fonctionnelles vs. Mapping des données
o Référent interne pour les phases de Recette bi-mensuelles (complexes) des données « Loan tapes » et « Valuation »:
Définition des cas de tests
Rédaction des cahiers de tests
Utilisation de Python-SQL-VerticaPy
o Pilotage de l’avancement collectif de la Recette en coordination avec la CMAF
o Rédaction de comptes-rendus de réunions projet
o Développement en Python-SQL-VerticaPy des programmes « validation rules » de contrôle des données Loan Tapes,
o Analyse des données Loan tapes valuation
o Conduite du changement : rédaction du ModOp du projet Validation Rules, support fonctionnel et technique…
Livrables :
o Programmes des recettes « loan tapes » et « valuation»
o Programmes « validation rules »
o Fichiers des Cas de tests
o Fichier de validation des règles de mapping
Environnement technique : BDD VERTICA, Verticapy, Python, SQL.
Data Analyst SI RH – Chargé d’études statistiques
Projet : L’objectif de cette mission en tant que Data Analyst SI RH/chargé d’études est de réaliser des reportings mensuels, trimestriels et annuels, d’assurer l’évolution, le développement et la refonte de programmes informatiques. Prise en charge de demandes ad hoc, des demandes allant de l’extraction de données, leur traitement jusqu’à leur analyse. Réalisation d’enquêtes ACEMO à l’attention de la DARES sur l’activité et les conditions d’emploi de la main d’œuvre, études et suivi d’indicateurs de l’index égalité F/ H.
Refonte du programme du Cahier RH : reporting semestriel traitant des chiffres clés du groupe, la structure et l’évolution des effectifs, leur mouvement, l’absentéismes, la politique salariale, la rémunération, et les entretiens professionnels
o Adaptation du programme aux nouvelles bases des données relationnelles SAS
o Amélioration du code SAS et paramétrages VBA pour les adaptions aux changements des bases
o Reporting sur les détachements des collaborateurs dans le cadre de la fusion SG/CDN
o Creation reporting sur le télétravail, via des requêtes SAS
o Enquêtes et suivi d’indicateurs (KPI RH)
o Reporting Bilan salarial et négociations, via des requêtes SAS
o Analyses statistiques en vue des négociations salariales du Crédit du Nord.
o Traitement des demandes adhoc : extraction de données sur les retours de congés longue durée Sur l’année, listes des formations suivies par collaborateurs depuis 2015, études statistiques, liste changements de métiers par collaborateur, montant dernière augmentation par collaborateurs etc., via des requêtes SAS.
Livrables :
o Livraison de divers reportings synthétiques et facilement exploitables par les DRH et nos différents destinataires.
o Livraison de données synthétique en fonction des demandes adhoc.
o Livraison d’études et d’analyses statistiques.
Environnement technique : SAS Entreprise Guide, SAS Base Excel, VBA, SI RH, Winscp
Projet : L’objectif de cette expérience en tant que Data Analyst est d’accompagner les consultants dans l’analyse des données des clients (Bailleurs et réservataires), d’accompagner les gestionnaires territoriaux et les gestionnaires BEL (bourse d'échange de logements) dans l'analyse de données. Réalisation de Dashboards sur les activités de ces derniers.
Réalisations :
o Collecte et nettoyage de données fournies par les bailleurs sociaux
o Réorganisation des données
o Alimentation des répertoires de données
o Mise en place du logiciel Power BI, qui n’est pas utilisé avant.
o Changement des outils de traitements de données d’Excel à python
o Réalisation de Dashboards sous Power BI sur l’activité de l’entreprise.
o Mise en place d’un mode opératoire pour consultation des Dashboards.
Livrables
o Livraison de fichiers de sortie organisés et facilement exploitables par les consultants.
o Livraison de Dashboards ou de fichiers Excel synthétisant les analyses en fonction des besoins.
Environnement technique : Python, Power BI, Excel.
- French
- English