Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Configurez un espace de données minimum viable pour partager les données entre les organisations
Créé par Ramy Hcini (Think-it), Ismail Abdellaoui (Think-it), Malte Gasseling (Think-it), Jorge Hernandez Suarez (AWS) et Michael Miller (AWS)
Récapitulatif
Les espaces de données sont des réseaux fédérés pour l'échange de données, la confiance et le contrôle des données étant des principes fondamentaux. Ils permettent aux entreprises de partager, d'échanger et de collaborer sur des données à grande échelle en proposant une solution rentable et indépendante de la technologie.
Les espaces de données ont le potentiel de stimuler de manière significative les efforts en faveur d'un futur durable en utilisant la résolution de problèmes basée sur les données avec une end-to-end approche impliquant toutes les parties prenantes concernées.
Ce modèle vous montre comment deux entreprises peuvent utiliser la technologie de l'espace de données sur Amazon Web Services (AWS) pour faire avancer leur stratégie de réduction des émissions de carbone. Dans ce scénario, l'entreprise X fournit des données sur les émissions de carbone, que l'entreprise Y consomme. Consultez la section Informations supplémentaires pour obtenir les détails suivants sur les spécifications de l'espace de données :
Les participants
Affaire de cas
Autorité de l'espace de données
Composants de l'espace de données
Services d'espace de données
Données à échanger
Modèle de données
Connecteur Tractus-X EDC
Le modèle inclut les étapes suivantes :
Déploiement de l'infrastructure nécessaire à un espace de données de base avec deux participants AWS.
Échange de données sur l'intensité des émissions de carbone en utilisant les connecteurs de manière sécurisée.
Ce modèle déploie un cluster Kubernetes qui hébergera les connecteurs d'espace de données et leurs services via Amazon Elastic Kubernetes Service (Amazon EKS).
Le plan de contrôle et le plan de données Eclipse Dataspace Components (EDC)
En outre, le service d'identité est déployé sur Amazon Elastic Compute Cloud (Amazon EC2) pour reproduire un scénario réel d'espace de données minimum viable (MVDS).
Conditions préalables et limitations
Prérequis
Un actif Compte AWS pour déployer l'infrastructure de votre choix Région AWS
Un utilisateur AWS Identity and Access Management (IAM) ayant accès à Amazon S3 qui sera utilisé temporairement en tant qu'utilisateur technique (le connecteur EDC ne prend actuellement pas en charge l'utilisation de rôles). Nous vous recommandons de créer un utilisateur IAM spécifiquement pour cette démo et de lui attribuer des autorisations limitées.)
AWS Command Line Interface (AWS CLI) installé et configuré dans la configuration de votre choix Région AWS
eksctl
sur votre poste de travail Git
sur votre poste de travail Un certificat SSL/TLS AWS Certificate Manager (ACM)
Un nom DNS qui pointera vers un Application Load Balancer (le nom DNS doit être couvert par le certificat ACM)
HashiCorp Vault
(pour plus d'informations sur l'utilisation AWS Secrets Manager pour gérer les secrets, consultez la section Informations supplémentaires.)
Versions du produit
Limites
Sélection du connecteur ‒ Ce déploiement utilise un connecteur basé sur EDC. Cependant, assurez-vous de prendre en compte les points forts et les fonctionnalités des connecteurs EDC
et FIWARE True afin de prendre une décision éclairée qui correspond aux besoins spécifiques du déploiement. Conception du connecteur EDC ‒ La solution de déploiement choisie repose sur le tableau de bord du connecteur EDC de Tractus-X
, une option de déploiement bien établie et largement testée. La décision d'utiliser ce tableau est motivée par son utilisation courante et par l'inclusion d'extensions essentielles dans la version fournie. Bien que PostgreSQL HashiCorp et Vault soient des composants par défaut, vous avez la possibilité de personnaliser votre propre version de connecteur si nécessaire. Accès au cluster privé ‒ L'accès au cluster EKS déployé est limité aux canaux privés. L'interaction avec le cluster s'effectue exclusivement à l'aide
kubectl
d'un IAM. L'accès public aux ressources du cluster peut être activé à l'aide d'équilibreurs de charge et de noms de domaine, qui doivent être mis en œuvre de manière sélective pour exposer des services spécifiques à un réseau plus large. Cependant, nous ne recommandons pas de fournir un accès public.Concentration sur la sécurité ‒ L'accent est mis sur l'abstraction des configurations de sécurité par rapport aux spécifications par défaut afin que vous puissiez vous concentrer sur les étapes de l'échange de données du connecteur EDC. Bien que les paramètres de sécurité par défaut soient conservés, il est impératif d'activer les communications sécurisées avant d'exposer le cluster au réseau public. Cette précaution garantit une base solide pour un traitement sécurisé des données.
Coût de l'infrastructure ‒ Une estimation du coût de l'infrastructure peut être obtenue à l'aide du AWS Pricing Calculator
. Un simple calcul montre que les coûts peuvent atteindre 162,92 USD par mois pour l'infrastructure déployée.
Architecture
L'architecture MVDS comprend deux clouds privés virtuels (VPCs), l'un pour le service d'identité DAPS (Dynamic Attribute Provisioning System) et l'autre pour Amazon EKS.
Architecture DAPS
Le schéma suivant montre le DAPS exécuté sur des EC2 instances contrôlées par un groupe Auto Scaling. Un Application Load Balancer et une table de routage exposent les serveurs DAPS. Amazon Elastic File System (Amazon EFS) synchronise les données entre les instances DAPS.

Architecture d'Amazon EKS
Les espaces de données sont conçus pour être des solutions indépendantes de la technologie, et plusieurs implémentations existent. Ce modèle utilise un cluster Amazon EKS pour déployer les composants techniques de l'espace de données. Le schéma suivant montre le déploiement du cluster EKS. Les nœuds de travail sont installés dans des sous-réseaux privés. Les pods Kubernetes accèdent à l'instance Amazon Relational Database Service (Amazon RDS) pour PostgreSQL qui se trouve également dans les sous-réseaux privés. Les pods Kubernetes stockent les données partagées dans Amazon S3.

Outils
AWS services
AWS CloudFormationvous aide à configurer les AWS ressources, à les approvisionner rapidement et de manière cohérente, et à les gérer tout au long de leur cycle de vie dans toutes Comptes AWS les régions.
Amazon Elastic Compute Cloud (Amazon EC2) fournit une capacité de calcul évolutive dans le AWS Cloud. Vous pouvez lancer autant de serveurs virtuels que vous le souhaitez et les augmenter ou les diminuer rapidement.
Amazon Elastic File System (Amazon EFS) vous aide à créer et à configurer des systèmes de fichiers partagés dans le AWS Cloud.
Amazon Elastic Kubernetes Service (Amazon EKS) vous permet d'exécuter AWS Kubernetes sans avoir à installer ou à gérer votre propre plan de contrôle ou vos propres nœuds Kubernetes.
Amazon Simple Storage Service (Amazon S3) est un service de stockage d'objets basé sur le cloud qui vous permet de stocker, de protéger et de récupérer n'importe quel volume de données.
Elastic Load Balancing (ELB) répartit le trafic applicatif ou réseau entrant sur plusieurs cibles. Par exemple, vous pouvez répartir le trafic entre les EC2 instances, les conteneurs et les adresses IP dans une ou plusieurs zones de disponibilité.
Autres outils
eksctl est un utilitaire de ligne de commande permettant de créer et de gérer des clusters Kubernetes sur Amazon EKS.
Git
est un système de contrôle de version distribué et open source. HashiCorp Vault
fournit un stockage sécurisé avec un accès contrôlé aux informations d'identification et autres informations sensibles. Helm
est un gestionnaire de packages open source pour Kubernetes qui vous aide à installer et à gérer des applications sur votre cluster Kubernetes. kubectl
est une interface de ligne de commande qui vous permet d'exécuter des commandes sur des clusters Kubernetes. Postman
est une plateforme d'API.
Référentiel de code
Les fichiers YAML de configuration Kubernetes et les scripts Python pour ce modèle sont disponibles dans le référentiel. GitHub aws-patterns-edc
Bonnes pratiques
Amazon EKS et isolation des infrastructures des participants
Dans Kubernetes, les espaces de noms sépareront l'infrastructure du fournisseur X de l'infrastructure du consommateur de l'entreprise Y selon ce schéma. Pour plus d'informations, consultez les guides des meilleures pratiques d'EKS
Dans une situation plus réaliste, chaque participant disposerait d'un cluster Kubernetes distinct fonctionnant au sein de son propre cluster. Compte AWS L'infrastructure partagée (DAPS dans ce modèle) serait accessible aux participants à l'espace de données tout en étant complètement séparée des infrastructures des participants.
Épopées
Tâche | Description | Compétences requises |
---|---|---|
Pour cloner le référentiel. | Pour cloner le référentiel sur votre poste de travail, exécutez la commande suivante :
Le poste de travail doit avoir accès à votre Compte AWS. | DevOps ingénieur |
Provisionnez le cluster Kubernetes et configurez des espaces de noms. | Pour déployer un cluster EKS simplifié par défaut dans votre compte, exécutez la
La commande crée le VPC et les sous-réseaux privés et publics qui s'étendent sur trois zones de disponibilité différentes. Une fois la couche réseau créée, la commande crée deux Pour plus d'informations et des exemples de sortie, consultez le guide eksctl Après avoir provisionné le cluster privé, ajoutez le nouveau cluster EKS à votre configuration Kubernetes locale en exécutant la commande suivante :
Ce modèle utilise le Pour vérifier que vos nœuds EKS fonctionnent et sont prêts, exécutez la commande suivante :
| DevOps ingénieur |
Configurez les espaces de noms. | Pour créer des espaces de noms pour le fournisseur et le consommateur, exécutez les commandes suivantes :
Dans ce modèle, il est important d'utiliser | DevOps ingénieur |
Tâche | Description | Compétences requises |
---|---|---|
Déployez le DAPS en utilisant AWS CloudFormation. | Pour faciliter la gestion des opérations DAPS, le serveur DAPS est installé sur les EC2 instances. Pour installer DAPS, utilisez le AWS CloudFormation modèle
Vous pouvez déployer le AWS CloudFormation modèle en vous connectant à la AWS CloudFormation console AWS Management Console et en utilisant celle-ci
C'est à vous de choisir le nom de l'environnement. Nous vous recommandons d'utiliser un terme significatif, tel que Pour ce modèle, Le modèle déploie les EC2 instances dans des sous-réseaux privés. Cela signifie que les instances ne sont pas directement accessibles via SSH (Secure Shell) depuis Internet. Les instances sont dotées du rôle IAM et de l' AWS Systems Manager agent nécessaires pour permettre l'accès aux instances en cours d'exécution via le gestionnaire de session, une fonctionnalité de. AWS Systems Manager Nous vous recommandons d'utiliser le gestionnaire de session pour y accéder. Vous pouvez également configurer un hôte bastion pour autoriser l'accès SSH depuis Internet. Lorsque vous utilisez l'approche bastion host, l'exécution de l' EC2 instance peut prendre quelques minutes supplémentaires. Une fois le AWS CloudFormation modèle déployé avec succès, pointez le nom DNS sur le nom DNS de votre Application Load Balancer. Pour confirmer cela, exécutez la commande suivante :
La sortie doit ressembler à ce qui suit :
| DevOps ingénieur |
Enregistrez les connecteurs des participants au service DAPS. | À partir de l'une des EC2 instances configurées pour le DAPS, enregistrez les participants :
Le choix des noms n'a aucune incidence sur les prochaines étapes. Nous vous recommandons d'utiliser soit Les commandes d'enregistrement configureront également automatiquement le service DAPS avec les informations nécessaires extraites des certificats et des clés créés. Lorsque vous êtes connecté à un serveur DAPS, collectez les informations nécessaires pour les étapes ultérieures de l'installation :
Nous vous recommandons de copier-coller le texte dans des fichiers portant le même nom et préfixés par le préfixe Vous devez avoir le client IDs pour le fournisseur et le consommateur et vous devez avoir quatre fichiers dans votre répertoire de travail sur votre poste de travail :
| DevOps ingénieur |
Tâche | Description | Compétences requises |
---|---|---|
Clonez le référentiel Tractus-X EDC et utilisez la version 0.4.1. | La version du connecteur Tractus-X EDC nécessite le déploiement et la disponibilité des services PostgreSQL (base de données des actifs) et HashiCorp Vault (gestion des secrets). Il existe de nombreuses versions des cartes Tractus-X EDC Helm. Ce modèle spécifie la version 0.4.1 car il utilise le serveur DAPS. Les dernières versions utilisent le Managed Identity Wallet (MIW) avec une implémentation distribuée du service d'identité. Sur le poste de travail où vous avez créé les deux espaces de noms Kubernetes, clonez le référentiel tractusx-edc
| DevOps ingénieur |
Configurez le graphique Tractus-X EDC Helm. | Modifiez la configuration du modèle de graphique Tractus-X Helm pour permettre aux deux connecteurs d'interagir ensemble. Pour ce faire, vous devez ajouter l'espace de noms au nom DNS du service afin qu'il puisse être résolu par les autres services du cluster. Ces modifications doivent être apportées au Assurez-vous de commenter toutes les dépendances DAPS dans
| DevOps ingénieur |
Configurez les connecteurs pour utiliser PostgreSQL sur Amazon RDS. | (Facultatif) L'instance Amazon Relational Database Service (Amazon RDS) n'est pas requise dans ce modèle. Cependant, nous vous recommandons vivement d'utiliser Amazon RDS ou Amazon Aurora, car ils fournissent des fonctionnalités telles que la haute disponibilité, la sauvegarde et la restauration. Pour remplacer PostgreSQL sur Kubernetes par Amazon RDS, procédez comme suit :
| DevOps ingénieur |
Configurez et déployez le connecteur du fournisseur et ses services. | Pour configurer le connecteur du fournisseur et ses services, procédez comme suit :
| DevOps ingénieur |
Ajoutez le certificat et les clés dans le coffre du fournisseur. | Pour éviter toute confusion, produisez les certificats suivants en dehors du Par exemple, exécutez la commande suivante pour accéder à votre répertoire de base :
Vous devez maintenant ajouter les secrets dont le fournisseur a besoin dans le coffre. Les noms des secrets contenus dans le coffre sont les valeurs des clés figurant dans la
Une clé AES (Advanced Encryption Standard), une clé privée, une clé publique et un certificat autosigné sont initialement générés. Ils sont ensuite ajoutés en tant que secrets au coffre. De plus, ce répertoire doit contenir les
Vous devriez maintenant être en mesure d'accéder au coffre par le biais de votre navigateur ou de la CLI. Navigateur
CLI Vault La CLI utilisera également le port forward que vous avez configuré.
| DevOps ingénieur |
Configurez et déployez le connecteur grand public et ses services. | Les étapes de configuration et de déploiement du client sont similaires à celles que vous avez effectuées pour le fournisseur :
| |
Ajoutez le certificat et les clés dans le coffre du consommateur. | Du point de vue de la sécurité, nous recommandons de régénérer les certificats et les clés pour chaque participant à l'espace de données. Ce modèle régénère les certificats et les clés pour le consommateur. Les étapes sont très similaires à celles du fournisseur. Vous pouvez vérifier les noms secrets contenus dans le Les noms des secrets contenus dans le coffre sont les valeurs des clés figurant dans la
Les
Le port local est cette fois le 8201, ce qui vous permet de mettre en place des redirections pour le producteur et le consommateur. Navigateur Vous pouvez utiliser votre navigateur pour vous connecter à http://localhost:8201/ Les secrets et les fichiers contenant le contenu sont les suivants :
CLI Vault À l'aide de la CLI de Vault, vous pouvez exécuter les commandes suivantes pour vous connecter au coffre-fort et créer les secrets :
| DevOps ingénieur |
Tâche | Description | Compétences requises |
---|---|---|
Configurez la redirection de port. |
Le cluster est privé et n'est pas accessible au public. Pour interagir avec les connecteurs, utilisez la fonction de transfert de port Kubernetes pour transférer le trafic généré par votre machine vers le plan de contrôle des connecteurs.
| DevOps ingénieur |
Créez des compartiments S3 pour le fournisseur et le consommateur. | Le connecteur EDC n'utilise actuellement pas d'informations d'identification AWS temporaires, telles que celles fournies en assumant un rôle. L'EDC ne prend en charge que l'utilisation d'une combinaison de clé d'accès IAM et de clé d'accès secrète. Deux compartiments S3 sont nécessaires pour les étapes ultérieures. Un compartiment S3 est utilisé pour stocker les données mises à disposition par le fournisseur. L'autre compartiment S3 est destiné aux données reçues par le consommateur. L'utilisateur IAM doit être autorisé à lire et à écrire des objets uniquement dans les deux compartiments nommés. Une paire d'identifiant de clé d'accès et de clé d'accès secrète doit être créée et conservée en toute sécurité. Après la mise hors service de ce MVDS, l'utilisateur IAM doit être supprimé. Le code suivant est un exemple de politique IAM pour l'utilisateur :
| DevOps ingénieur |
Configurez Postman pour qu'il interagisse avec le connecteur. | Vous pouvez désormais interagir avec les connecteurs via votre EC2 instance. Utilisez Postman comme client HTTP et fournissez des collections Postman pour les connecteurs fournisseur et consommateur. Importez les collections Ce modèle utilise les variables de collection Postman pour fournir des informations à vos demandes. | Développeur d'applications, ingénieur de données |
Tâche | Description | Compétences requises |
---|---|---|
Préparez les données d'intensité des émissions de carbone à partager. | Vous devez d'abord choisir la ressource de données à partager. Les données de l'entreprise X représentent l'empreinte carbone de son parc de véhicules. Le poids est le poids brut du véhicule (PTC) en tonnes, et les émissions sont exprimées en grammes CO2 par tonne-kilomètre (g CO2 e/t-km) selon la Wheel-to-Well mesure (WTW) :
Les données d'exemple se trouvent dans le L'entreprise X utilise Amazon S3 pour stocker des objets. Créez le compartiment S3 et stockez-y l'exemple d'objet de données. Les commandes suivantes créent un compartiment S3 avec des paramètres de sécurité par défaut. Nous vous recommandons vivement de consulter les meilleures pratiques de sécurité pour Amazon S3.
Le nom du compartiment S3 doit être unique au monde. Pour plus d'informations sur les règles de dénomination, consultez la documentation AWS. | Ingénieur de données, développeur d'applications |
Enregistrez la ressource de données sur le connecteur du fournisseur à l'aide de Postman. | Une ressource de données du connecteur EDC contient le nom des données et leur emplacement. Dans ce cas, la ressource de données du connecteur EDC pointera vers l'objet créé dans le compartiment S3 :
| Développeur d'applications, ingénieur de données |
Définissez la politique d'utilisation de l'actif. | Un actif de données EDC doit être associé à des politiques d'utilisation claires. Créez d'abord la définition de la politique dans le connecteur du fournisseur. La politique de l'entreprise X est de permettre aux participants de l'espace de données d'utiliser les données d'empreinte carbone.
| Développeur d'applications, ingénieur de données |
Définissez une offre de contrat EDC pour l'actif et sa politique d'utilisation. | Pour permettre aux autres participants de demander l'accès à vos données, proposez-les dans le cadre d'un contrat qui précise les conditions d'utilisation et les autorisations :
| Développeur d'applications, ingénieur de données |
Tâche | Description | Compétences requises |
---|---|---|
Demandez le catalogue de données partagé par l'entreprise X. | En tant que consommateur de données dans le domaine des données, l'entreprise Y doit d'abord découvrir les données partagées par les autres participants. Dans cette configuration de base, vous pouvez le faire en demandant au connecteur consommateur de demander le catalogue des actifs disponibles directement au connecteur fournisseur.
| Développeur d'applications, ingénieur de données |
Lancer une négociation contractuelle pour les données sur l'intensité des émissions de carbone de l'entreprise X. | Maintenant que vous avez identifié l'actif que vous souhaitez consommer, lancez un processus de négociation de contrat entre les connecteurs consommateur et fournisseur.
Le processus peut prendre un certain temps avant d'atteindre l'état VÉRIFIÉ. Vous pouvez vérifier l'état de la négociation du contrat et l'ID de contrat correspondant en utilisant la | Développeur d'applications, ingénieur de données |
Tâche | Description | Compétences requises |
---|---|---|
Consommez les données des points de terminaison HTTP. | (Option 1) Pour utiliser le plan de données HTTP afin de consommer les données de l'espace de données, vous pouvez utiliser webhook.site
Dans cette dernière étape, vous devez envoyer la demande au plan de données du consommateur (ports de transfert correctement), comme indiqué dans la charge utile ( | Développeur d'applications, ingénieur de données |
Consommez directement les données des compartiments S3. | (Option 2) Utilisez l'intégration Amazon S3 avec le connecteur EDC et pointez directement vers le compartiment S3 de l'infrastructure grand public comme destination :
| Ingénieur de données, développeur d'applications |
Résolution des problèmes
Problème | Solution |
---|---|
Le connecteur peut soulever un problème concernant le format PEM du certificat. | Concaténez le contenu de chaque fichier sur une seule ligne en ajoutant. |
Ressources connexes
Informations supplémentaires
Spécifications de l'espace de données
Les participants
Participant | Description de l'entreprise | Objectif de l'entreprise |
Entreprise X | Exploite une flotte de véhicules en Europe et en Amérique du Sud pour transporter diverses marchandises. | Vise à prendre des décisions basées sur les données afin de réduire l'intensité de son empreinte carbone. |
Entreprise Y | Une autorité de régulation environnementale | Applique les réglementations et politiques environnementales conçues pour surveiller et atténuer l'impact environnemental des entreprises et des industries, y compris l'intensité des émissions de carbone. |
Affaire de cas
L'entreprise X utilise la technologie de l'espace de données pour partager les données d'empreinte carbone avec un auditeur de conformité, la société Y, afin d'évaluer et de prendre en compte l'impact environnemental des opérations logistiques de l'entreprise X.
Autorité de l'espace de données
L'autorité de l'espace de données est un consortium des organisations qui régissent l'espace de données. Dans ce modèle, les entreprises X et Y forment l'organe de gouvernance et représentent une autorité fédérée en matière d'espace de données.
Composants de l'espace de données
Composant | Implémentation choisie | Informations supplémentaires |
Protocole d'échange de données | Protocole Dataspace version 0.8 | |
Connecteur d'espace de données | Connecteur Tractus-X EDC version 0.4.1 | |
Politiques d'échange de données | Politique d'utilisation par défaut |
Services d'espace de données
Service | Mise en œuvre | Informations supplémentaires |
Service d'identité | « Un système de provisionnement dynamique des attributs (DAPS) a pour but de vérifier certains attributs des organisations et des connecteurs. Les tiers n'ont donc pas besoin de faire confiance à ces derniers à condition qu'ils fassent confiance aux assertions du DAPS. » — ROBINETS Pour se concentrer sur la logique du connecteur, l'espace de données est déployé sur une EC2 machine Amazon à l'aide de Docker Compose. | |
Le service de découverte | « Le catalogue fédéré constitue un référentiel indexé des auto-descriptions de Gaia-X afin de permettre la découverte et la sélection des fournisseurs et de leurs offres de services. Les auto-descriptions sont les informations fournies par les participants sur eux-mêmes et sur leurs services sous forme de propriétés et de réclamations. » — Kickstarter de l'écosystème Gaia-X |
Données à échanger
Ressources de données | Description | Format |
Données sur les émissions de carbone | Valeurs d'intensité pour différents types de véhicules dans la région spécifiée (Europe et Amérique du Sud) pour l'ensemble du parc de véhicules | Fichier JSON |
Modèle de données
{
"region": "string",
"vehicles": [
// Each vehicle type has its Gross Vehicle Weight (GVW) category and its emission intensity in grams of CO2 per Tonne-Kilometer (g CO2 e/t-km) according to the "Well-to-Wheel" (WTW) measurement.
{
"type": "string",
"gross_vehicle_weight": "string",
"emission_intensity": {
"CO2": "number",
"unit": "string"
}
}
]
}
Connecteur Tractus-X EDC
Pour la documentation de chaque paramètre EDC de Tractus-X, consultez le fichier de valeurs d'origine
Le tableau suivant répertorie tous les services, ainsi que leurs ports exposés et points de terminaison correspondants à titre de référence.
Nom du service | Port et chemin |
Plan de contrôle | ● Gestion : ‒ Port : 8081 Chemin : ● contrôle ‒ Port : 8083 Trajet : ● Port du protocole : 8084 Chemin : ● métriques ‒ Port : 9090 Trajet : ● observabilité ‒ Port : 8085 Trajet : |
Plan de données | par défaut ‒ Port : 8080 Chemin : public ‒ Port : 8081 Trajet : proxy ‒ Port : 8186 Chemin : métriques ‒ Port : 9090 Trajet : observabilité ‒ Port : 8085 Trajet : |
Coffre-fort | Hafen : 8200 |
PostgreSQL | Hafen : 5432 |
Utilisation AWS Secrets Manager du gestionnaire
Il est possible d'utiliser Secrets Manager au lieu de HashiCorp Vault comme gestionnaire de secrets. Pour ce faire, vous devez utiliser ou créer l'extension AWS Secrets Manager EDC.
Vous serez responsable de la création et de la maintenance de votre propre image, car Tractus-X ne fournit pas de support pour Secrets Manager.
Pour ce faire, vous devez modifier les fichiers Gradle de génération du plan de contrôle et du plan
Pour plus d'informations sur la refactorisation de l'image Docker du connecteur Tractus-X, consultez les diagrammes Refactor
Pour des raisons de simplicité, nous évitons de reconstruire l'image du connecteur selon ce modèle et utilisons HashiCorp Vault.