Oracle Data Platform pour les détaillants

Analyses de données en direct

 

Améliorez l'analyse de vos données de vente au détail stratégiques grâce aux bonnes pratiques

La capacité à effectuer une analyse en direct à partir de données de haute qualité est essentielle pour les entreprises de nombreux secteurs, mais particulièrement importante pour les détaillants. Les informations exploitées en temps opportun à partir de données précises peuvent contribuer à améliorer la satisfaction des clients en proposant des recommandations de produits instantanées et en veillant à ce que le stock soit au bon endroit au bon moment. Optimisez les votre merchandising, votre marketing et vos ventes avec des évaluations en temps réel de la performance des promotions, réduisez les coûts et les risques grâce à des prévisions de stock plus précises et plus encore. En bref, une analyse efficace des données en direct peut avoir des conséquences positives sur les opérations de vente au détail dans l'ensemble de votre entreprise.

Pour tirer le meilleur parti de l'analyse de données en direct, vous devez implémenter une approche unifiée et optimisée de la gestion du cycle de vie des données sur vos jeux de données les plus stratégiques. Cette approche vous aide à :

  • Réduire la complexité et la duplication des données.
  • Réduire les risques et les coûts associés aux données de mauvaise qualité.
  • Créer une vue unique et cohérente de vos données.
  • Fournir des données de façon cohérente dans toute l'entreprise.
  • Mettre à disposition des outils décisionnels en libre-service pour les rapports et les analyses de données avancées, quels que soient les appareils utilisés par les équipes de domaine.
  • Gagner en flexibilité dans votre environnement de données, en maintenant le coût du changement le plus bas possible.

Modernises vos analyses grâce à une solution d'analyse optimisée

Le schéma suivant démontre comment Oracle Data Platform est conçu de manière à fournir aux détaillants un cadre complet et cohérent permettant de gérer l'ensemble du cycle de vie des analyses de données. Au centre se trouvent deux composants essentiels : le dépôt de données opérationnelles (ODS) utilisé pour stocker les données opérationnelles incluses et conservées sous forme brute sans transformation, et un entrepôt de données dans lequel les données sont stockées sous forme optimisée pour les performances des requêtes et l'analyse avancée.

L'ODS et l'entrepôt de données créent une même plateforme de données capable d'analyses plus efficaces et plus avancées en s'associant. Cette combinaison permet l'application efficace d'outils avancés d'analyse et de visualisation, tout en conservant la possibilité d'étudier les données sous leur forme brute pour identifier les anomalies ou les informations sans affecter les performances de l'application transactionnelle sous-jacente. Cette approche est avantageuse pour les détaillants, car elle empêche la duplication contradictoire et inexacte des mêmes données source qui, si elles sont utilisées pour éclairer les décisions d'une entreprise, peuvent entraîner des retards, des erreurs et, en fin de compte, des pertes de ventes.

Examinons de plus près comment Oracle Data Platform intègre un ODS, un entrepôt de données et d'autres composants clés pour aider les détaillants à utiliser efficacement l'analyse de données en direct.

Diagramme : Analyse de données en direct, description ci-dessous

Cette image montre comment utiliser Oracle Data Platform pour la vente au détail afin de prendre en charge l'analyse des données historiques et en direct sous forme optimisée. La plateforme comprend les cinq piliers suivants :

  1. 1. Sources de données et repérage
  2. 2. Connexion, ingestion et transformation
  3. 3. Sauvegarde, tri et création
  4. 4. Analyses, apprentissage et prévision
  5. 5. Mesures et réactions

Le pilier « Sources de données et repérage » inclut deux catégories de données.

  1. 1. Les applications comprennent des données provenant des ERP, SCM, CX et WMS, Fusion SaaS, NetSuite, E-Business Suite, PeopleSoft, JD Edwards, SAP, Salesforce et Workday.
  2. 2. Les enregistrements métier comprennent les transactions de vente, les données client, les données produit, les transactions de retour, les données fournisseur, les données de stock, les données provenant des systèmes de point de vente et les données de revenu et de marge.

Le pilier « Connexion, ingestion et transformation » comprend deux fonctionnalités.

  1. 1. L'ingestion par lots utilise OCI Data Integration, Oracle Data Integrator et les outils de base de données. La capture des données de modification utilise OCI GoldenGate et Oracle Data Integrator.
  2. 2. Les deux fonctionnalités se connectent de manière unidirectionnelle à la fonction de stockage de données opérationnelles au sein du pilier « Sauvegarde, tri et création.»

Le pilier « Sauvegarde, tri et création » comprend trois fonctionnalités.

  1. 1. Le dépôt de données opérationnelles utilise Oracle Autonomous Transaction Processing.
  2. 2. Le dépôt de données de service utilise Oracle Autonomous Data Warehouse et les outils de base de données.
  3. 3. La gouvernance utilise OCI Data Catalog.

Ces fonctionnalités sont connectées au sein du pilier. Le dépôt de données opérationnelles est connecté de manière unidirectionnelle au dépôt de données de service.

Une fonction se connecte au pilier « Analyses, apprentissage et prévision » : le dépôt de données de service se connecte de manière unidirectionnelle à la fonction d'analyse et de visualisation.

Le pilier « Analyses, apprentissage et prévision » comprend une seule fonctionnalité.

  1. 1. L'analyse et la visualisation utilisent Oracle Analytics Cloud, GraphStudio et des éditeurs de logiciels indépendants.

Le pilier « Mesures et réactions » comprend une seule catégorie de consommateurs : tableaux de bord et rapports.

Les trois piliers centraux (« Ingestion et transformation », « Sauvegarde, tri et création », et « Analyses, apprentissage et prévision ») sont pris en charge par l'infrastructure, le réseau, la sécurité et IAM.



Il existe deux (ou trois) principales méthodes d'injection de données dans une architecture pour permettre aux détaillants de mieux analyser leurs données.

  • Pour démarrer notre processus, nous devons gagner en visibilité sur les données à jour provenant de nos dossiers d'entreprise et de nos applications (par exemple, les niveaux de stock sur l'ensemble des sites de vente au détail). Pour ce faire, nous utilisons OCI GoldenGate pour permettre l'ingestion des captures de données de modifications (CDC) en temps quasi réel à partir de bases de données opérationnelles (traitement transactionnel). Cela inclut tous les enregistrements ou jeux d'enregistrements discrets associés aux transactions de vente au détail, y compris les transactions de point de vente et Web (ventes et retours), ainsi que les données de stock, de logistique et de chaîne d'approvisionnement. Outre le déclenchement de l'ingestion de données à l'aide d'horodatages ou de filtres d'indicateur, les données peuvent être incluses via un mécanisme CDC qui détecte les modifications au fur et à mesure qu'elles se produisent. OCI GoldenGate fournit un mécanisme CDC qui peut traiter les modifications source de manière non invasive en traitant les fichiers journaux des transactions terminées et en stockant ces modifications capturées dans des fichiers trace externes, indépendamment de la base de données. Les modifications sont ensuite transférées de manière fiable vers une base de données intermédiaire ou un dépôt de données opérationnelle.
  • Nous pouvons désormais ajouter des jeux de données relatifs aux principales transactions de vente au détail, notamment les données de stock et de produit, les enregistrements clients, les offres et les prix. Ces jeux de données comprennent souvent de grands volumes de données souvent on-premises, et dans la plupart des cas, l'ingestion par lots est généralement plus efficace.

    Cependant, il y a plusieurs points à prendre en compte lorsque vous décidez de collecter des données transactionnelles à partir de sources opérationnelles pour alimenter des magasins de données opérationnels. Les techniques disponibles varient principalement en termes de latence de l'intégration des données, allant des lots quotidiens planifiés à l'intégration continue en temps réel. Les données sont capturées à partir de sources via des requêtes incrémentielles qui effectuent un filtrage en fonction d'un horodatage ou d'un indicateur. Les techniques varient également selon l'opération : l'extraction ou la propagation. Une opération d'extraction extrait de nouvelles données à intervalles fixes, tandis qu'une opération de propagation charge des données dans la cible une fois qu'une modification apparaît. Une ingestion quotidienne par lots est la plus appropriée si le renouvellement intrajournalier n'est pas requis pour les données, par exemple les données sur les tendances à long terme ou les données qui ne sont calculées qu'une fois par jour, telles que les informations de clôture financière. Les chargements par lots peuvent être effectués dans une période de temps d'arrêt si le modèle de gestion ne nécessite pas une disponibilité de l'entrepôt de données 24h/24. Différentes techniques telles que le partitionnement en temps réel ou le « trickle and flip » existent pour limiter l'impact d'une charge sur un entrepôt de données actif lorsqu'aucune fenêtre de temps d'arrêt n'est disponible.
  • Nous pouvons également éventuellement utiliser l'intégration en continu pour assimiler les données lues à partir de balises à des emplacements de stockage via l'IoT, la communication entre machines et d'autres moyens. Les vidéos peuvent également être consommées de cette façon. En outre, dans ce cas d'utilisation, nous avons l'intention d'analyser et de réagir rapidement aux comportements des consommateurs en analysant les messages sur les réseaux sociaux, les réponses aux messages internes et les messages de tendance. Les messages/événements de média social (application) seront assimilés avec la possibilité d'effectuer une transformation/agrégation de base avant de stocker les données dans le stockage cloud. Des analyses de flux supplémentaires peuvent être utilisées pour identifier la corrélation entre des événements et des comportements de consommateurs, et des modèles identifiés peuvent être renvoyés (manuellement) pour qu'OCI Data Science examine les données brutes.

La persistance et le traitement des données reposent sur deux composants.

  • Le dépôt de données opérationnelle est utilisée pour la génération de rapports opérationnels sur les données brutes et comme source de données pour un dépôt de données de service d'entreprise ou de domaine ou un entrepôt de données d'entreprise (EDW). C'est un élément complémentaire d'un EDW dans un environnement d'aide à la décision. Un ODS est généralement une base de données relationnelle conçue pour intégrer et conserver des données provenant de plusieurs sources à utiliser pour des opérations supplémentaires, la génération de rapports, les contrôles et l'aide à la décision opérationnelle, tandis que le EDW est utilisé pour l'aide à la décision tactique et stratégique. En général, le modèle de données d'ODS est très proche du modèle de données de l'application source OLTP. Toutes les données source doivent être acceptées par l'ODS et presque aucune règle de qualité des données ne doit être mise en œuvre, ce qui garantit que vous disposez d'un dépôt représentant toutes les données de la journée provenant des systèmes opérationnels. Contrairement à un dépôt de données maître de production, les données ne sont pas transmises au système opérationnel. Les entrepôts de données sont généralement en lecture seule et mis à jour par lots selon un planning spécifique, tandis que les dépôts de données opérationnelles sont maintenus plus près du temps réel et sont constamment alimentés.
  • Nous avons créé des jeux de données traités prêts à être rendus persistants sous forme relationnelle optimisée pour le traitement et les performances des requêtes dans le dépôt de données de service. Dans ce cas d'utilisation, le dépôt de données de service est un entrepôt de données, un type de plateforme de persistance conçu pour prendre en charge les activités décisionnelles et les analyses de plus en plus avancées. L'objectif principal d'un entrepôt de données est de consolider et de fournir des indicateurs précis aux utilisateurs professionnels afin de les aider à prendre des décisions éclairées dans leur travail quotidien et à prendre des décisions stratégiques plus grandes. Pour ce faire, les entrepôts de données sont hautement spécialisés, contiennent souvent de grands volumes de données historiques et sont uniquement destinés à l'exécution de requêtes et d'analyses. Un entrepôt de données centralise et consolide de grands volumes de données provenant de sources multiples, telles que les fichiers journaux d'application et les applications de transaction, puis les fournit sous une forme optimale pour l'analyse. Ses capacités analytiques permettent aux entreprises de tirer de leurs données de précieuses informations commerciales leur permettant d’améliorer leur processus de prise de décision. Au fil du temps, il crée un enregistrement historique qui peut s’avérer inestimable pour les data scientists et les analystes métiers. En raison de ces capacités, un data warehouse peut être considéré comme la source d’informations fiables d’une entreprise. On a tendance à considérer les entrepôts de données uniquement comme des actifs technologiques, mais ils fournissent en fait un environnement unique pour rassembler les utilisateurs professionnels et l'informatique afin de développer et de fournir une compréhension partagée de l'environnement d'exploitation d'un détaillant et d'effectuer des tâches telles que :
    • Définir les besoins de l'entreprise (indicateurs clés), identifier les données source qui concernent des indicateurs clés et préciser des règles métier pour transformer les informations source en indicateurs clés
    • Modéliser la structure des données de l'entrepôt cible pour stocker les indicateurs clés
    • Alimenter les indicateurs en implémentant des règles métier
    • Mesurer l'exactitude globale des données en configurant des règles de qualité des données
    • Élaborer des rapports sur les indicateurs clés
    • Mettre les indicateurs clés et les métadonnées à la disposition des utilisateurs professionnels à l'aide d'outils de requête ad hoc ou d'états prédéfinis
    • Mesurer la satisfaction des utilisateurs professionnels et ajouter ou modifier des indicateurs clés

La capacité d'analyser, d'apprendre et de prévoir repose sur deux technologies.

  • Les services d'analyse et de visualisation fournissent des analyses descriptives (description des tendances actuelles avec des histogrammes et des graphiques), des analyses prédictives (prédiction des événements, identification des tendances et détermination de la probabilité de résultats incertains) et des analyses prescriptives (propositions d'actions appropriées, conduisant à une prise de décision optimale), permettant aux détaillants de répondre à des questions telles que :
    • Les ventes réelles de cette période divergent-elles du plan actuel ?
    • Quelle est la valeur de vente au détail du stock disponible et diverge-t-elle par rapport à la même période l'année dernière ?
    • Quels sont les articles les plus vendus dans une division ou un service ?
    • Quelle a été l'efficacité de la dernière promotion ?

    Outre l'utilisation d'analyses et de visualisations avancées, des modèles de machine learning peuvent être développés, entraînés et déployés.

    La gouvernance est un facteur essentiel à prendre en compte lors de la création d'une telle solution. Les utilisateurs professionnels s'appuient sur l'exactitude des indicateurs clés de l'entrepôt de données pour prendre des décisions. Si ces indicateurs sont erronés, les décisions risquent également d'être erronées. Selon la stratégie de qualité des données que vous avez définie, les utilisateurs professionnels devront probablement participer activement à la surveillance des divergences de données. Ils devront aider l'équipe informatique à affiner le calcul des indicateurs et aider à la qualification et à l'identification des données erronées. Cela entraîne généralement la modification et l'amélioration testable des règles.

  • Nos règles et politiques de gouvernance peuvent être appliqués à nos données et modèles conservés, testés et de haute qualité, et peuvent être exposés en tant que produit de données (API) au sein d'une architecture de maillage de données à des fins de distribution dans l'ensemble de l'entreprise de vente au détail. Cela peut être essentiel pour résoudre les problèmes de qualité des données. Presque toutes les entreprises de vente au détail pâtissent de la mauvaise qualité des données à leur disposition. Des données incohérentes, inexactes, incomplètes et obsolètes sont souvent à l'origine de problèmes commerciaux coûteux tels que les inefficacités opérationnelles, les analyses erronées, les économies d'échelle non réalisées et les clients mécontents. Ces problèmes de qualité des données et les problèmes commerciaux qui leur sont associés peuvent être résolus en s'engageant à une démarche complète de qualité des données dans toute l'entreprise, en exploitant les capacités de l'architecture décrite ci-dessus.

Prenez de meilleures décisions avec de meilleures données

Oracle Data Platform est conçu pour vous assurer que vous disposez d'un accès à des données cohérentes et de haute qualité au moment et à l'endroit où vous en avez besoin afin de pouvoir effectuer les opérations suivantes :

  • Prendre des décisions plus éclairées.
  • Réduire le coût des changements à venir grâce à un environnement de données cohérent, mais flexible.
  • Réfléchir souvent aux changements de processus et de données moins cloisonnés et sans impact sur la disponibilité et la qualité des données.
  • Réduire le risque d'erreurs dans les rapports financiers et réglementaires critiques en éliminant les copies cloisonnées des mêmes données avec une logique de transformation différente dans l'ensemble de l'environnement de données de l'entreprise.
  • Fournir des analyses avancées et un repérage des données en libre-service pour la création de rapports avec une disponibilité des données bien meilleure : l'accès aux données n'est plus lié aux outils spécifiques utilisés par les équipes de domaine.
  • Réduire les coûts de stockage pour la croissance de l'ODS et d'autres dépôts de données.
  • Passer plus de temps à examiner les informations fournies par les données et moins de temps à identifier les divergences causées par plusieurs copies de données cloisonnées et donc déconnectées.
  • Réduire les risques en ne disposant plus de plusieurs copies de données, ce qui augmente la surface d'attaque.

Ressources associées

Lancez-vous

Testez plus de 20 services cloud Always Free grâce à une période d'essai de 30 jours pour encore plus de services

Oracle offre un essai gratuit illimité sur une sélection de services comme Autonomous Database, Arm Compute et Storage, ainsi que 300 USD de crédits gratuits pour tester des services cloud complémentaires. Obtenez les détails et créez votre compte gratuit dès aujourd’hui.

  • Que comprend Oracle Cloud Free Tier ?

    • 2 bases de données autonomes de 20 Go chacune
    • AMD et Arm Compute VM
    • 200 Go de stockage total par blocs
    • 10 Go de stockage d'objets
    • 10 To de transfert de données sortantes par mois
    • Plus de 10 services Always Free
    • 300 USD de crédits gratuits pendant 30 heures pour plus de possibilités

Suivez le guide

Découvrez un large éventail de services OCI via des tutoriels et des ateliers pratiques. Que vous soyez développeur, administrateur ou analyste, nous pouvons vous aider à comprendre comment fonctionne OCI. De nombreux ateliers sont disponibles pour Oracle Cloud Free Tier ou dans un environnement d'ateliers gratuits fournis par Oracle.

  • Introduction aux services fondamentaux d'OCI

    Les ateliers de cette session présentent les services principaux d'Oracle Cloud Infrastructure (OCI), y compris les réseaux cloud virtuels (VCN) ainsi que les services de calcul et de stockage.

    Commencer l'atelier sur les services principaux d'OCI
  • Démarrage rapide d'Autonomous Database

    Dans cette session, vous allez découvrir les étapes à suivre pour commencer à utiliser Oracle Autonomous Database.

    Commencer l'atelier de démarrage rapide d'Autonomous Database
  • Créez une application à partir d'une feuille de calcul

    Cet atelier vous explique pas à pas comment télécharger une feuille de calcul dans un tableau d'Oracle Database et comment créer ensuite une application à partir de ce nouveau tableau.

    Commencer cet atelier
  • Déployez une application HA sur OCI

    Dans cet atelier, vous apprendrez à déployer des serveurs Web sur deux instances de calcul dans Oracle Cloud Infrastructure (OCI), configurés en mode haute disponibilité grâce à l'utilisation d'un équilibreur de charges.

    Commencez l'atelier sur les applications HA

Découvrez plus de 150 modèles de bonnes pratiques

Découvrez comment nos architectes et d’autres clients déploient une large gamme de workloads, des applications d’entreprise au HPC, des microservices aux lacs de données. Comprenez les bonnes pratiques, écoutez d’autres architectes clients de notre série « Développer et Déployer » et déployez même de nombreux workloads avec notre fonctionnalité de déploiement en un clic ou faites-le vous-même à partir de notre dépôt GitHub.

Architectures populaires

  • Apache Tomcat avec MySQL Database Service
  • Oracle Weblogic sur Kubernetes avec Jenkins
  • Environnements de machine learning (ML) et d'IA
  • Tomcat sur Arm avec Oracle Autonomous Database
  • Analyse des journaux avec la pile ELK
  • HPC avec OpenFOAM

Découvrez combien vous pouvez économiser sur OCI

La tarification d'Oracle Cloud est simple, avec des tarifs faibles homogènes dans le monde entier et prenant en charge un large éventail de cas spécifiques. Pour estimer votre tarif réduit, consultez l’estimateur de coûts et configurez les services en fonction de vos besoins.

Ressentez la différence :

  • 1/4 des coûts de bande passante sortante
  • Rapport prix/performances de calcul 3 fois plus élevé
  • Tarifs faibles et identiques dans chaque région
  • Tarifs faibles sans engagements à long terme

Contactez l’équipe commerciale

Vous souhaitez en savoir plus sur Oracle Cloud Infrastructure ? Laissez l’un de nos experts vous aider.

  • Il peut répondre à des questions telles que :

    • Quels workloads fonctionnent le mieux sur OCI ?
    • Comment tirer le meilleur parti de mes investissements Oracle en général ?
    • Quelles sont les différences entre OCI et les autres fournisseurs cloud ?
    • Comment OCI peut-il prendre en charge de vos objectifs d'IaaS et de PaaS ?