Projets
Développez un processus d'intégration de données en utilisant l'API SafetyCulture pour extraire et analyser les données d'inspection, assurant un flux de données transparent pour l'évaluation des risques et le suivi de la conformité. Cette solution permet aux organisations d'améliorer la sécurité opérationnelle en tirant parti des informations en temps réel issues des inspections numériques.
De nombreuses industries s'appuient sur l'API SafetyCulture pour effectuer des inspections, suivre la conformité et gérer les risques de sécurité. Cependant, extraire et intégrer ces données efficacement dans les systèmes de business intelligence était un défi. Notre objectif était de développer un pipeline automatisé qui récupère les données d'inspection de l'API SafetyCulture et les traite pour le reporting et l'analyse.
Pour y parvenir, nous avons construit un flux de travail d'extraction et de transformation des données qui extrait les données en temps réel, les nettoie et les stocke dans un format structuré. Cette solution permet aux organisations d'identifier les risques de sécurité, de surveiller les tendances de conformité et de générer des insights exploitables, assurant une approche proactive de la sécurité au travail et de l'efficacité opérationnelle.
Développer un rapport Cockpit pour la chaîne d'approvisionnement afin d'identifier les produits risquant de dépasser leur date "Sell by Maximum Time" (SMT), en tenant compte du stock actuel, des prévisions de ventes, des lots de produits, des emplacements de stockage et des types de stock.
La chaîne d'approvisionnement a rencontré le défi crucial de gérer les produits avec des Dates de Durabilité Minimale (DDM). Chaque produit avait un délai spécifique avant de ne plus pouvoir être vendu à des tiers. Pour éviter des pertes potentielles, il était impératif de suivre la date "Vendre avant la Date Limite" (VDL), la dernière date à laquelle un produit pouvait être vendu. Notre objectif était de développer un algorithme qui identifie le nombre de produits risquant de dépasser leur date VDL en fonction du stock actuel et des prévisions de ventes.
Mise en œuvre d'un pipeline CI/CD pour automatiser les déploiements et améliorer l'efficacité des flux de travail de traitement des données dans un environnement basé sur le cloud. Le projet se concentre sur l'orchestration, la transformation, l'ingestion et le reporting tout en garantissant la qualité des données, les tests automatisés et une intervention manuelle minimale pour les déploiements.
Ce projet s'est concentré sur l'automatisation du pipeline CI/CD pour améliorer l'efficacité du déploiement et la qualité des données dans un environnement basé sur le cloud. En mettant en œuvre Bitbucket Pipelines, l'équipe a permis des déploiements automatisés pour les projets Cloud Composer, Dataflow et DBT, réduisant ainsi l'effort manuel et minimisant les erreurs.
De plus, des tests unitaires et une validation des données ont été intégrés dans le pipeline pour garantir la fiabilité. La configuration comprenait également des configurations d'environnement automatisées pour le développement et la production, rationalisant ainsi les processus de test et de déploiement.
Une documentation complète et une formation ont été fournies pour soutenir la transition, aboutissant à des déploiements plus rapides et plus fiables ainsi qu'à une efficacité améliorée du traitement des données.
Développement d'une solution d'analyse des coûts logistiques en intégrant les données ERP et logistiques, permettant à Danone d'obtenir des informations exploitables sur les structures de coûts. Le projet a facilité la visibilité de la répartition des coûts et le développement de KPI, favorisant l'optimisation des coûts et l'efficacité de la chaîne d'approvisionnement.
En intégrant les données ERP de Danone avec les ensembles de données des prestataires logistiques, ce projet a fourni une vue d'ensemble des coûts logistiques, permettant une analyse détaillée de la répartition des coûts. La solution a permis à Danone de découper et d'analyser les dépenses logistiques, d'identifier les causes profondes des fluctuations de coûts et d'optimiser les dépenses. Grâce au développement de KPI personnalisés, l'entreprise a obtenu un meilleur contrôle des dépenses de la chaîne d'approvisionnement, entraînant des économies de coûts significatives et une efficacité opérationnelle accrue. La mise en œuvre a assuré une prise de décision basée sur les données, aidant Danone à gérer de manière proactive les coûts logistiques et à améliorer la performance globale.
Un programme de formation structuré sur la maîtrise des données pour une entreprise leader dans le secteur FMCG, conçu pour améliorer les capacités analytiques des équipes clients. L'initiative couvrait trois niveaux d'utilisateurs—Visualisateurs de rapports, Utilisateurs moyens, et Utilisateurs experts—leur permettant d'interpréter efficacement les données, de créer des rapports et d'exploiter des analyses avancées pour une meilleure prise de décision.
Une entreprise leader dans le secteur des FMCG a lancé un programme de formation structuré pour améliorer la culture des données au sein des équipes client, permettant un meilleur accès aux données et une prise de décision optimisée.
Le programme était divisé en trois niveaux : les Visualisateurs de Rapports ont appris à naviguer dans des rapports préconstruits, les Utilisateurs Moyens ont créé des rapports personnalisés avec des données intégrées, et les Utilisateurs Pro ont reçu une formation avancée en architecture de données et SQL. Cette approche a permis aux équipes de travailler de manière autonome avec les données, réduisant ainsi la dépendance au support informatique.
En conséquence, les rapports sont devenus plus efficaces, la prise de décision plus rapide et l'interprétation des données plus précise, contribuant aux efforts de transformation numérique de l'entreprise.
Développement d'une solution d'analyse de part de marché intégrant les données de Nielsen et IQVIA. Le système consolide, transforme et enrichit les données de vente des détaillants et pharmacies, fournissant des informations précises et des vérifications automatisées de la qualité des données.
The Market Share Cockpit est une solution analytique puissante qui consolide et enrichit les données de vente de Nielsen et IQVIA, offrant une vue unifiée de la performance du marché. En intégrant l'intelligence externe avec les rapports ERP internes, elle permet des comparaisons précises et des insights consommateurs plus approfondis.
Les vérifications automatisées de la qualité des données, l'analyse des KPI et les transformations hiérarchiques garantissent l'exactitude et la cohérence des données à tous les niveaux de reporting. Cette solution permet aux entreprises de suivre les tendances, d'optimiser les stratégies et de prendre des décisions basées sur les données en toute confiance.
Développement d'une solution d'analyse des ventes qui permet aux entreprises d'explorer les données clients et produits par région, d'identifier les opportunités de croissance et de prendre des décisions basées sur les données. La solution garantit des comparaisons précises et des insights fiables grâce à une transformation et une intégration avancées des données.
Le projet Sales Analysis to Grow propose une solution d'analytique avancée qui permet aux entreprises de mieux comprendre leur performance commerciale. En intégrant et transformant des données provenant de multiples sources, la solution permet une analyse détaillée du comportement des clients et des tendances produits à travers différentes régions.
Grâce à des tableaux de bord interactifs, les utilisateurs peuvent découvrir des opportunités de croissance cachées, comparer des indicateurs clés de performance et suivre les dynamiques du marché avec précision. La solution garantit une haute précision et cohérence des données, offrant une base solide pour la prise de décisions stratégiques et l'optimisation des ventes.
Une solution sécurisée et automatisée pour intégrer les données SharePoint dans un compte de stockage Azure en utilisant Microsoft Graph API. Cette approche garantit une ingestion de données fluide tout en maintenant des normes de sécurité élevées grâce à Azure Key Vault et à l'authentification basée sur des jetons.
Gérer les données SharePoint manuellement est difficile, surtout lorsqu'il s'agit de les intégrer dans un stockage cloud moderne. Ce projet propose une solution sécurisée et automatisée en utilisant Microsoft Graph API pour extraire les données de SharePoint et les stocker dans Azure Storage.
Le processus commence par une authentification sécurisée, où un secret de principal de service est récupéré depuis Azure Key Vault pour générer un jeton d'accès pour accéder à Graph API. L'ID de lecteur nécessaire est ensuite récupéré, et Azure Data Factory orchestre le transfert de données, garantissant une ingestion de données fluide et évolutive.
Cette solution améliore la sécurité avec une authentification protégée, automatise le flux de données pour réduire l'effort manuel, et offre un pipeline évolutif et efficace pour gérer les tâches complexes d'intégration de données.
Optimisation des performances de Power BI grâce à l'évaluation du modèle de données, à l'optimisation du pushdown et à la formation aux meilleures pratiques. La solution a considérablement amélioré les vitesses de rafraîchissement des jeux de données, amélioré la réactivité des rapports et assuré une surveillance continue des performances pour une efficacité à long terme.
Le client a rencontré des contraintes de performance malgré l'augmentation de la capacité Premium, avec des actualisations de jeux de données lentes et un rendu visuel retardé dans les rapports Power BI. Pour résoudre ces problèmes, nous avons mené une évaluation complète des performances, identifiant et optimisant les rapports à forte consommation de CPU et les modèles de données inefficaces.
En mettant en œuvre l'optimisation par pushdown, en affinant le traitement Power Query et en repensant les modèles de données selon les meilleures pratiques, nous avons accéléré les temps d'actualisation des données et les vitesses de réponse visuelle. De plus, nous avons fourni une formation ciblée sur Power BI et des tableaux de bord de surveillance en temps réel, permettant une détection proactive des problèmes et garantissant la durabilité des performances à long terme.
Traditionnellement, l'accès aux données GfK nécessitait des téléchargements manuels via un site web, créant des inefficacités dans l'approvisionnement, l'intégration et le reporting. Notre solution automatise l'ensemble du processus—gérant de manière transparente l'authentification SAML, la récupération des fichiers et leur intégration dans un entrepôt de données, garantissant une ingestion de données sécurisée et efficace.
GfK, une entreprise leader dans la recherche de marché, fournit des données essentielles sur les biens de consommation. Cependant, l'accès manuel et l'intégration de ces données étaient fastidieux et inefficaces. Notre solution automatise l'ensemble du flux de travail, permettant une authentification sécurisée, une récupération automatisée des fichiers et une ingestion de données simplifiée.
Le processus commence par une authentification SAML, où les utilisateurs se connectent via GfK Federation, les redirigeant vers GfK Connect pour validation. Pour automatiser cette étape, nous utilisons la bibliothèque Mechanize de Python pour gérer la soumission des identifiants de manière sécurisée avec des secrets stockés dans Azure Key Vault.
Une fois authentifié, notre système effectue une découverte automatisée des fichiers à l'aide de BeautifulSoup, identifiant les fichiers de données disponibles. L'ingestion des données est gérée par un Databricks Compute Cluster, qui intègre en toute sécurité les données récupérées dans un Data Lake, évitant ainsi le traitement redondant.
Développement d'un tableau de bord personnalisé du système d'information exécutif (EIS) pour Alpro, intégrant des données financières, logistiques et commerciales dans une vue centralisée et exploitable. La solution permet à l'équipe de direction de surveiller les performances, d'identifier les tendances et de favoriser la prise de décisions stratégiques pour la croissance de l'entreprise.
Pour soutenir l'équipe de direction d'Alpro, nous avons conçu un tableau de bord EIS sur mesure qui regroupe et visualise les indicateurs financiers, logistiques et commerciaux essentiels dans une interface unique et intuitive. En fournissant des informations en temps réel sur la performance de l'entreprise, le système permet l'identification des tendances, la prise de décisions proactives et la planification stratégique.
Cette approche axée sur les données améliore l'efficacité opérationnelle, garantit la cohérence des données entre les départements et optimise les processus de prise de décision, ce qui stimule finalement la performance et la rentabilité de l'entreprise.
Développement d'une solution de Data Warehouse (DWH) basée sur les données SAP pour optimiser l'intégration, le traitement et le reporting des données. La solution extrait et consolide les données de plusieurs tables SAP liées aux documents de vente, garantissant une transformation et une accessibilité efficaces des données pour l'intelligence d'affaires.
Les données SAP pour une commande client sont souvent réparties sur plusieurs tables (jusqu'à 15), nécessitant des jointures complexes qui augmentent l'utilisation du CPU et les risques d'erreurs. Ce projet rationalise l'intégration des données dans une architecture structurée pour améliorer l'efficacité.
Les données brutes SAP des tables clés (VBAK, VBUP, VBKD, etc.) sont extraites, nettoyées, validées et intégrées pour consolider les documents de vente, de livraison et de facturation tout en assurant des mises à jour incrémentielles pour l'optimisation des performances.
En appliquant une logique spécifique aux KPI et des règles métier, les données sont transformées en formats optimisés, permettant des analyses avancées et des rapports. Cette approche structurée simplifie la récupération des données SAP, améliore la qualité des données et optimise la prise de décision.
Créer une plateforme pour collecter, traiter et analyser les données sur la part de marché et d'autres indicateurs pour le Département Marketing et Innovation, Nutricia Netherlands.
Les employés analysent constamment le marché et la position de l'entreprise sur celui-ci. Ils recherchent des niches pour de nouveaux produits et des opportunités pour étendre la présence des produits existants. Pour accomplir ces tâches, ils ont besoin d'une plateforme analytique qui les libérera des processus de préparation de données routiniers et leur permettra de se concentrer uniquement sur l'analyse du marché.
Le projet « Themis Harmonization » visait à unifier les systèmes d'information et les processus métier dans toutes les filiales, emplacements et pays. La solution a établi un environnement numérique unique pour des rapports standardisés, réduit les coûts et amélioré la prise de décision.
Initialement, les filiales fonctionnaient avec des systèmes d'information fragmentés et déconnectés, entraînant des rapports incohérents, un support complexe et des coûts opérationnels élevés. Nous avons livré un cycle complet de mise en œuvre BI : analyse des rapports existants, réalisation d'une analyse des écarts par rapport aux modèles globaux (Themis et Eagle), développement de rapports critiques, formation des utilisateurs et intégration avec l'entrepôt de données global. Cela a créé un écosystème ERP/BI unifié avec des processus standardisés, des données consolidées et des analyses fiables.
Une initiative mondiale de Business Intelligence pour Danone, unifiant les canaux de reporting fragmentés à travers les filiales, les sites et les pays. Le projet a remplacé les systèmes locaux déconnectés par une plateforme BI unique et standardisée—Eagle BI—améliorant la cohérence des données et la visibilité stratégique.
À l'origine, les branches de Danone utilisaient une variété d'outils de reporting isolés, ce qui entraînait des données incohérentes et des coûts de support élevés. Nous avons exécuté le cycle de vie complet de l'implémentation BI—évaluant les pratiques de reporting actuelles, réalisant une analyse des écarts par rapport aux modèles globaux (Themis & Eagle), concevant des rapports critiques, formant les utilisateurs et intégrant avec l'entrepôt de données global. Le résultat fut un écosystème ERP/BI cohérent avec des processus harmonisés, des analyses fiables et une transparence améliorée à travers l'organisation.