Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Richten Sie einen nutzbaren Mindestdatenraum für die gemeinsame Nutzung von Daten zwischen Organisationen ein
Erstellt von Ramy Hcini (Think-IT), Ismail Abdellaoui (Think-IT), Malte Gasseling (Think-IT), Jorge Hernandez Suarez () und Michael Miller () AWS AWS
Umgebung: PoC oder Pilotprojekt | Technologien: Analytik; Container und Mikroservices; Data Lakes; Datenbanken; Infrastruktur | Arbeitslast: Open Source |
AWSDienste: Amazon Aurora; AWS Certificate Manager (ACM) AWS CloudFormation; AmazonEC2; AmazonEFS; AmazonEKS; Elastic Load Balancing (ELB); AmazonRDS; Amazon S3; AWS Systems Manager |
Übersicht
Datenräume sind föderierte Netzwerke für den Datenaustausch mit Vertrauen und Kontrolle über die eigenen Daten als Kernprinzipien. Sie ermöglichen es Unternehmen, Daten in großem Umfang zu teilen, auszutauschen und zusammenzuarbeiten, indem sie eine kostengünstige und technologieunabhängige Lösung bieten.
Datenräume haben das Potenzial, die Bemühungen für eine nachhaltige future erheblich voranzutreiben, indem datengesteuerte Problemlösungen mit einem end-to-end Ansatz eingesetzt werden, der alle relevanten Interessengruppen einbezieht.
Dieses Muster führt Sie durch das Beispiel, wie zwei Unternehmen die Datenraum-Technologie auf Amazon Web Services (AWS) nutzen können, um ihre Strategie zur Reduzierung der CO2-Emissionen voranzutreiben. In diesem Szenario liefert Unternehmen X Daten zu den CO2-Emissionen, die Unternehmen Y verbraucht. Im Abschnitt Zusätzliche Informationen finden Sie die folgenden Einzelheiten zur Datenraumspezifikation:
Teilnehmer
Geschäftsszenario
Behörde für den Datenraum
Komponenten des Datenraums
Dienste für den Datenraum
Daten, die ausgetauscht werden sollen
Datenmodell
Tractus-X-Anschluss EDC
Das Muster umfasst Schritte für Folgendes:
Bereitstellung der Infrastruktur, die für einen Basisdatenraum erforderlich ist, auf dem zwei Teilnehmer laufen AWS.
Sicherer Austausch von Daten zur Kohlenstoffemissionsintensität mithilfe der Konnektoren.
Dieses Muster stellt einen Kubernetes-Cluster bereit, der Datenraum-Konnektoren und deren Dienste über Amazon Elastic Kubernetes Service (Amazon) hostet. EKS
Die Steuerungsebene und die Datenebene von Eclipse Dataspace Components (EDC)
Darüber hinaus wird der Identitätsdienst auf Amazon Elastic Compute Cloud (AmazonEC2) bereitgestellt, um ein reales Szenario mit einem minimal nutzbaren Datenraum (MVDS) zu replizieren.
Voraussetzungen und Einschränkungen
Voraussetzungen
Ein Aktiv AWS-Konto zur Bereitstellung der Infrastruktur in der von Ihnen ausgewählten AWS-Region
Ein AWS Identity and Access Management (IAM) Benutzer mit Zugriff auf Amazon S3, der vorübergehend als technischer Benutzer verwendet wird (Der EDC Connector unterstützt derzeit nicht die Verwendung von Rollen. Wir empfehlen, dass Sie einen IAM Benutzer speziell für diese Demo erstellen und diesem Benutzer eingeschränkte Berechtigungen zuweisen.)
AWS Command Line Interface (AWS CLI) in der von Ihnen ausgewählten Version installiert und konfiguriert AWS-Region
Git
auf deiner Workstation Ein AWS Certificate Manager (ACM)SSL/Zertifikat TLS
Ein DNS Name, der auf einen Application Load Balancer verweist (der DNS Name muss durch das ACM Zertifikat abgedeckt sein)
HashiCorp Tresor
(Informationen AWS Secrets Manager zur Verwaltung von Geheimnissen finden Sie im Abschnitt Zusätzliche Informationen.)
Produktversionen
Einschränkungen
Konnektorauswahl ‒ Diese Bereitstellung verwendet einen EDC basierten Connector. Achten Sie jedoch darauf, die Stärken und Funktionen sowohl des Connectors als auch des EDCFIWARE
True Connectors zu berücksichtigen, um eine fundierte Entscheidung zu treffen, die den spezifischen Anforderungen der Bereitstellung entspricht. EDCConnector Build ‒ Die gewählte Implementierungslösung basiert auf der Tractus-X EDC Connector
Helm-Übersicht, einer etablierten und ausführlich getesteten Implementierungsoption. Die Entscheidung, dieses Diagramm zu verwenden, hängt von seiner allgemeinen Verwendung und der Aufnahme wesentlicher Erweiterungen in der bereitgestellten Version ab. Postgre SQL und HashiCorp Vault sind zwar Standardkomponenten, Sie haben jedoch die Flexibilität, Ihren eigenen Connector-Build bei Bedarf anzupassen. Zugriff auf private Cluster ‒ Der Zugriff auf den bereitgestellten EKS Cluster ist auf private Kanäle beschränkt. Die Interaktion mit dem Cluster erfolgt ausschließlich mithilfe von
kubectl
undIAM. Der öffentliche Zugriff auf die Clusterressourcen kann mithilfe von Load Balancern und Domainnamen ermöglicht werden. Diese müssen selektiv implementiert werden, um bestimmte Dienste einem breiteren Netzwerk zugänglich zu machen. Wir empfehlen jedoch nicht, öffentlichen Zugriff zu gewähren.Sicherheitsfokus ‒ Der Schwerpunkt liegt auf der Abstraktion von Sicherheitskonfigurationen anhand von Standardspezifikationen, sodass Sie sich auf die Schritte konzentrieren können, die beim Austausch von EDC Konnektordaten erforderlich sind. Obwohl die Standardsicherheitseinstellungen beibehalten werden, müssen Sie unbedingt die sichere Kommunikation aktivieren, bevor Sie den Cluster dem öffentlichen Netzwerk zugänglich machen. Diese Vorsichtsmaßnahme gewährleistet eine solide Grundlage für eine sichere Datenverarbeitung.
Infrastrukturkosten ‒ Eine Schätzung der Infrastrukturkosten finden Sie unter. AWS Pricing Calculator
Eine einfache Berechnung zeigt, dass die Kosten für die bereitgestellte Infrastruktur bis zu 162,92 USD € pro Monat betragen können.
Architektur
Die MVDS Architektur umfasst zwei virtuelle private Clouds (VPCs), eine für den Identitätsdienst Dynamic Attribute Provisioning System (DAPS) und eine für AmazonEKS.
DAPSArchitektur
Das folgende Diagramm zeigt die DAPS Ausführung auf EC2 Instances, die von einer Auto Scaling Scaling-Gruppe gesteuert werden. Ein Application Load Balancer und eine Routing-Tabelle machen die DAPS Server verfügbar. Amazon Elastic File System (AmazonEFS) synchronisiert die Daten zwischen den DAPS Instances.
EKSAmazon-Architektur
Datenräume sind als technologieunabhängige Lösungen konzipiert, und es gibt mehrere Implementierungen. Dieses Muster verwendet einen EKS Amazon-Cluster, um die technischen Komponenten des Datenraums bereitzustellen. Das folgende Diagramm zeigt die Bereitstellung des EKS Clusters. Worker-Knoten werden in privaten Subnetzen installiert. Die Kubernetes-Pods greifen auf die Amazon Relational Database Service (AmazonRDS) for SQL Postgre-Instance zu, die sich ebenfalls in den privaten Subnetzen befindet. Die Kubernetes-Pods speichern gemeinsam genutzte Daten in Amazon S3.
Tools
AWS Dienste
AWS CloudFormationhilft Ihnen dabei, AWS Ressourcen einzurichten, sie schnell und konsistent bereitzustellen und sie während ihres gesamten Lebenszyklus regionsübergreifend AWS-Konten zu verwalten.
Amazon Elastic Compute Cloud (AmazonEC2) bietet skalierbare Rechenkapazität in der AWS Cloud. Sie können so viele virtuelle Server wie nötig nutzen und sie schnell nach oben oder unten skalieren.
Amazon Elastic File System (AmazonEFS) hilft Ihnen bei der Erstellung und Konfiguration gemeinsam genutzter Dateisysteme in der AWS Cloud.
Mit Amazon Elastic Kubernetes Service (AmazonEKS) können Sie Kubernetes ausführen, AWS ohne dass Sie Ihre eigene Kubernetes-Steuerebene oder Knoten installieren oder verwalten müssen.
Amazon Simple Storage Service (Amazon S3) ist ein cloudbasierter Objektspeicherservice, der Sie beim Speichern, Schützen und Abrufen beliebiger Datenmengen unterstützt.
Elastic Load Balancing (ELB) verteilt eingehenden Anwendungs- oder Netzwerkverkehr auf mehrere Ziele. Sie können beispielsweise den Traffic auf EC2 Instances, Container und IP-Adressen in einer oder mehreren Availability Zones verteilen.
Andere Tools
eksctl ist ein Befehlszeilenprogramm zum Erstellen und Verwalten von Kubernetes-Clustern auf Amazon. EKS
Git
ist ein verteiltes Open-Source-Versionskontrollsystem. HashiCorp Vault
bietet sicheren Speicher mit kontrolliertem Zugriff auf Anmeldeinformationen und andere vertrauliche Informationen. Helm
ist ein Open-Source-Paketmanager für Kubernetes, der Sie bei der Installation und Verwaltung von Anwendungen auf Ihrem Kubernetes-Cluster unterstützt. kubectl
ist eine Befehlszeilenschnittstelle, mit der Sie Befehle für Kubernetes-Cluster ausführen können. APIPostman
ist eine Plattform.
Code-Repository
Die YAML Kubernetes-Konfigurationsdateien und Python-Skripte für dieses Muster sind im GitHub aws-patterns-edc
Bewährte Methoden
Amazon EKS und die Isolierung der Infrastrukturen der Teilnehmer
Namespaces in Kubernetes trennen nach diesem Muster die Infrastruktur des Unternehmens X-Anbieters von der Infrastruktur des Unternehmens Y-Konsumenten. Weitere Informationen finden Sie in den Best-Practices-Leitfäden. EKS
In einer realistischeren Situation hätte jeder Teilnehmer einen eigenen Kubernetes-Cluster, der in seinem eigenen Cluster läuft. AWS-Konto Die gemeinsame Infrastruktur (DAPSin diesem Muster) wäre für die Teilnehmer des Datenraums zugänglich und gleichzeitig vollständig von den Infrastrukturen der Teilnehmer getrennt.
Epen
Aufgabe | Beschreibung | Erforderliche Fähigkeiten |
---|---|---|
Klonen Sie das Repository | Führen Sie den folgenden Befehl aus, um das Repository auf Ihre Workstation zu klonen:
Die Workstation muss Zugriff auf Ihre haben AWS-Konto. | DevOps Ingenieur |
Stellen Sie den Kubernetes-Cluster bereit und richten Sie Namespaces ein. | Um einen vereinfachten EKS Standardcluster in Ihrem Konto bereitzustellen, führen Sie den folgenden
Der Befehl erstellt die privaten VPC und öffentlichen Subnetze, die sich über drei verschiedene Availability Zones erstrecken. Nachdem die Netzwerkschicht erstellt wurde, erstellt der Befehl zwei Weitere Informationen und Beispielausgaben finden Sie im eksctl-Handbuch Nachdem Sie den privaten Cluster bereitgestellt haben, fügen Sie den neuen EKS Cluster zu Ihrer lokalen Kubernetes-Konfiguration hinzu, indem Sie den folgenden Befehl ausführen:
Dieses Muster verwendet den Führen Sie den folgenden Befehl aus, um zu überprüfen, ob Ihre EKS Knoten laufen und sich im Bereitschaftszustand befinden:
| DevOps Ingenieur |
Richten Sie die Namespaces ein. | Führen Sie die folgenden Befehle aus, um Namespaces für den Anbieter und den Verbraucher zu erstellen:
In diesem Muster ist es wichtig, | DevOps Ingenieur |
Aufgabe | Beschreibung | Erforderliche Fähigkeiten |
---|---|---|
Bereitstellen DAPS mit AWS CloudFormation. | Um die Verwaltung von DAPS Vorgängen zu vereinfachen, ist der DAPS Server auf EC2 Instanzen installiert. Verwenden Sie zur Installation DAPS die AWS CloudFormation Vorlage
Sie können die AWS CloudFormation Vorlage bereitstellen, indem Sie sich bei der AWS CloudFormation Konsole
Der Name der Umgebung ist Ihre eigene Wahl. Wir empfehlen, einen aussagekräftigen Begriff zu verwenden Für dieses Muster Die Vorlage stellt die EC2 Instanzen in privaten Subnetzen bereit. Das bedeutet, dass auf die Instanzen nicht direkt über SSH (Secure Shell) aus dem Internet zugegriffen werden kann. Den Instanzen werden die IAM Rolle und der AWS Systems Manager Agent zugewiesen, die erforderlich sind, um den Zugriff auf die laufenden Instanzen über den Session Manager zu ermöglichen, eine Funktion von AWS Systems Manager. Wir empfehlen die Verwendung von Session Manager für den Zugriff. Alternativ könnten Sie einen Bastion-Host bereitstellen, der den SSH Zugriff über das Internet ermöglicht. Wenn Sie den Bastion-Host-Ansatz verwenden, kann es noch einige Minuten dauern, bis die EC2 Instanz ausgeführt wird. Nachdem die AWS CloudFormation Vorlage erfolgreich bereitgestellt wurde, verweisen Sie den DNS Namen auf Ihren Application Load Balancer DNS Balancer-Namen. Führen Sie zur Bestätigung den folgenden Befehl aus:
Die Ausgabe sollte folgendermaßen oder ähnlich aussehen:
| DevOps Ingenieur |
Registrieren Sie die Konnektoren der Teilnehmer für den DAPS Dienst. | Registrieren Sie die Teilnehmer von einer der bereitgestellten EC2 Instanzen ausDAPS:
Die Wahl der Namen hat keinen Einfluss auf die nächsten Schritte. Wir empfehlen, entweder Die Registrierungsbefehle konfigurieren den DAPS Dienst außerdem automatisch mit den erforderlichen Informationen, die aus den erstellten Zertifikaten und Schlüsseln abgerufen werden. Sammeln Sie die Informationen, die Sie für spätere Installationsschritte benötigen, während Sie bei einem DAPS Server angemeldet sind:
Wir empfehlen, den Text zu kopieren und in Dateien mit ähnlichem Namen Sie sollten den Client IDs für den Anbieter und den Verbraucher haben und vier Dateien in Ihrem Arbeitsverzeichnis auf Ihrer Workstation haben:
| DevOps Ingenieur |
Aufgabe | Beschreibung | Erforderliche Fähigkeiten |
---|---|---|
Klonen Sie das EDC Tractus-X-Repository und verwenden Sie die Version 0.4.1. | Für den Build des EDC Tractus-X-Connectors müssen die Dienste Postgre SQL (Asset-Datenbank) und HashiCorp Vault (Secrets Management) bereitgestellt und verfügbar sein. Es gibt viele verschiedene Versionen von Tractus-X Helm-Charts. EDC Dieses Muster spezifiziert Version 0.4.1, da es den Server verwendet. DAPS Die neuesten Versionen verwenden Managed Identity Wallet (MIW) mit einer verteilten Implementierung des Identitätsdienstes. Klonen Sie auf der Workstation, auf der Sie die beiden Kubernetes-Namespaces erstellt haben, das tractusx-edc-Repository
| DevOps Ingenieur |
Konfigurieren Sie das EDC Tractus-X-Helm-Diagramm. | Ändern Sie die Konfiguration der Tractus-X-Helm-Diagrammvorlage, damit beide Konnektoren miteinander interagieren können. Dazu würden Sie den Namespace dem DNS Namen des Dienstes hinzufügen, sodass er von anderen Diensten im Cluster aufgelöst werden kann. Diese Änderungen sollten an der Stellen Sie sicher, dass Sie alle DAPS Abhängigkeiten kommentieren in
| DevOps Ingenieur |
Konfigurieren Sie die Konnektoren für die Verwendung von Postgre bei SQL AmazonRDS. | (Optional) Die Amazon Relational Database Service (AmazonRDS) -Instance ist in diesem Muster nicht erforderlich. Wir empfehlen jedoch dringend, Amazon RDS oder Amazon Aurora zu verwenden, da sie Funktionen wie Hochverfügbarkeit sowie Sicherung und Wiederherstellung bieten. Gehen Sie wie folgt vor, um Postgre SQL auf Kubernetes durch Amazon RDS zu ersetzen:
| DevOps Ingenieur |
Konfigurieren und implementieren Sie den Provider-Connector und seine Dienste. | Gehen Sie wie folgt vor, um den Provider-Connector und seine Dienste zu konfigurieren:
| DevOps Ingenieur |
Fügen Sie das Zertifikat und die Schlüssel zum Provider-Tresor hinzu. | Um Verwirrung zu vermeiden, sollten Sie die folgenden Zertifikate außerhalb des Führen Sie beispielsweise den folgenden Befehl aus, um zu Ihrem Home-Verzeichnis zu wechseln:
Sie müssen jetzt die vom Anbieter benötigten Geheimnisse zum Tresor hinzufügen. Die Namen der Geheimnisse im Tresor entsprechen den Werten der Schlüssel im
Zunächst werden ein Advanced Encryption Standard (AES) -Schlüssel, ein privater Schlüssel, ein öffentlicher Schlüssel und ein selbstsigniertes Zertifikat generiert. Diese werden anschließend als Geheimnisse zum Tresor hinzugefügt. Außerdem sollte dieses Verzeichnis die
Sie sollten jetzt über Ihren Browser oder das auf den Tresor zugreifen könnenCLI. Browser
Tresor CLI Der verwendet CLI auch den Port Forward, den Sie konfiguriert haben.
| DevOps Ingenieur |
Konfigurieren und implementieren Sie den Consumer-Connector und seine Dienste. | Die Schritte zur Konfiguration und Bereitstellung des Consumer ähneln denen, die Sie für den Anbieter ausgeführt haben:
| |
Fügen Sie das Zertifikat und die Schlüssel zum Verbrauchertresor hinzu. | Aus Sicherheitsgründen empfehlen wir, die Zertifikate und Schlüssel für jeden Datenraum-Teilnehmer neu zu generieren. Dieses Muster generiert Zertifikate und Schlüssel für den Verbraucher neu. Die Schritte sind denen für den Anbieter sehr ähnlich. Sie können die geheimen Namen in der Die Namen der Geheimnisse im Tresor entsprechen den Werten der Schlüssel im
Die
Der lokale Port ist diesmal 8201, sodass Sie Portweiterleitungen sowohl für den Hersteller als auch für den Verbraucher einrichten können. Browser Sie können Ihren Browser verwenden, um eine Verbindung zu http://localhost:8201/ Die Geheimnisse und Dateien, die den Inhalt enthalten, sind die folgenden:
Tresor CLI Mit Vault können Sie die folgenden Befehle ausführenCLI, um sich beim Tresor anzumelden und die Secrets zu erstellen:
| DevOps Ingenieur |
Aufgabe | Beschreibung | Erforderliche Fähigkeiten |
---|---|---|
Richten Sie die Portweiterleitung ein. |
Der Cluster ist privat und nicht öffentlich zugänglich. Um mit den Konnektoren zu interagieren, verwenden Sie die Kubernetes-Port-Forwarding-Funktion, um den von Ihrem Computer generierten Datenverkehr an die Connector-Steuerebene weiterzuleiten.
| DevOps Ingenieur |
Erstellen Sie S3-Buckets für den Anbieter und den Verbraucher. | Der EDC Connector verwendet derzeit keine temporären AWS Anmeldeinformationen, wie sie beispielsweise bei der Übernahme einer Rolle bereitgestellt werden. Der EDC unterstützt nur die Verwendung einer Kombination aus IAM Zugriffsschlüssel-ID und geheimer Zugriffsschlüssel. Für spätere Schritte sind zwei S3-Buckets erforderlich. Ein S3-Bucket wird zum Speichern von Daten verwendet, die vom Anbieter zur Verfügung gestellt werden. Der andere S3-Bucket ist für Daten vorgesehen, die vom Verbraucher empfangen werden. Der IAM Benutzer sollte nur die Erlaubnis haben, Objekte in den beiden benannten Buckets zu lesen und zu schreiben. Eine Zugangsschlüssel-ID und ein geheimes Zugriffsschlüsselpaar müssen erstellt und sicher aufbewahrt werden. Nach der MVDS Außerbetriebnahme sollte der IAM Benutzer gelöscht werden. Der folgende Code ist eine IAM Beispielrichtlinie für den Benutzer:
| DevOps Ingenieur |
Richten Sie Postman so ein, dass es mit dem Konnektor interagiert. | Sie können jetzt über Ihre EC2 Instanz mit den Konnektoren interagieren. Verwenden Sie Postman als HTTP Client und stellen Sie Postman Collections sowohl für den Provider- als auch für den Consumer-Connector bereit. Importieren Sie die Sammlungen Dieses Muster verwendet Postman-Sammlungsvariablen, um Eingaben für Ihre Anfragen bereitzustellen. | App-Entwickler, Dateningenieur |
Aufgabe | Beschreibung | Erforderliche Fähigkeiten |
---|---|---|
Bereiten Sie die Daten zur Intensität der CO2-Emissionen für die gemeinsame Nutzung vor. | Zunächst müssen Sie entscheiden, welche Datenmenge gemeinsam genutzt werden soll. Die Daten von Unternehmen X stellen den CO2-Fußabdruck seiner Fahrzeugflotte dar. Das Gewicht ist das Bruttofahrzeuggewicht (GVW) in Tonnen, und die Emissionen werden gemäß der Messung () in Gramm CO2 pro Tonnenkilometer (g CO2 e/t-km) angegeben: Wheel-to-Well WTW
Die Beispieldaten befinden sich in der Unternehmen X verwendet Amazon S3 zum Speichern von Objekten. Erstellen Sie den S3-Bucket und speichern Sie dort das Beispieldatenobjekt. Die folgenden Befehle erstellen einen S3-Bucket mit Standardsicherheitseinstellungen. Wir empfehlen dringend, sich mit den bewährten Sicherheitsmethoden für Amazon S3 vertraut zu machen.
Der S3-Bucket-Name sollte weltweit eindeutig sein. Weitere Informationen zu Benennungsregeln finden Sie in der AWSDokumentation. | Dateningenieur, App-Entwickler |
Registrieren Sie das Datenobjekt mithilfe von Postman beim Connector des Anbieters. | Ein EDC Connector-Datenobjekt enthält den Namen der Daten und ihren Speicherort. In diesem Fall zeigt das EDC Connector-Datenobjekt auf das erstellte Objekt im S3-Bucket:
| App-Entwickler, Dateningenieur |
Definieren Sie die Nutzungsrichtlinie für das Asset. | Einem EDC Datenbestand müssen klare Nutzungsrichtlinien zugeordnet sein. Erstellen Sie zunächst die Richtliniendefinition im Provider-Connector. Die Richtlinie von Unternehmen X besteht darin, den Teilnehmern des Datenraums die Nutzung der Daten zum CO2-Fußabdruck zu ermöglichen.
| App-Entwickler, Dateningenieur |
Definieren Sie ein EDC Vertragsangebot für das Asset und seine Nutzungsrichtlinie. | Damit andere Teilnehmer Zugriff auf Ihre Daten beantragen können, bieten Sie diese in einem Vertrag an, der die Nutzungsbedingungen und Berechtigungen festlegt:
| App-Entwickler, Dateningenieur |
Aufgabe | Beschreibung | Erforderliche Fähigkeiten |
---|---|---|
Fordern Sie den von Unternehmen X gemeinsam genutzten Datenkatalog an. | Als Datenkonsument im Datenraum muss Unternehmen Y zunächst herausfinden, welche Daten von anderen Teilnehmern gemeinsam genutzt werden. In dieser Grundkonfiguration können Sie dazu den Consumer-Connector bitten, den Katalog der verfügbaren Ressourcen direkt vom Provider-Connector anzufordern.
| App-Entwickler, Dateningenieur |
Initiieren Sie eine Vertragsverhandlung für die Daten zur CO2-Emissionsintensität von Unternehmen X. | Nachdem Sie nun den Vermögenswert identifiziert haben, den Sie nutzen möchten, leiten Sie einen Vertragsverhandlungsprozess zwischen dem Verbraucher und dem Anbieter ein.
Der Vorgang kann einige Zeit dauern, bis der VERIFIED Status erreicht ist. Mithilfe der | App-Entwickler, Dateningenieur |
Aufgabe | Beschreibung | Erforderliche Fähigkeiten |
---|---|---|
Daten von HTTP Endpunkten konsumieren. | (Option 1) Um die HTTP Datenebene für die Nutzung von Daten im Datenraum zu verwenden, können Sie webhook.site
In diesem letzten Schritt müssen Sie die Anfrage an die Consumer-Datenebene senden (Ports ordnungsgemäß weiterleiten), wie in der Payload ( | App-Entwickler, Dateningenieur |
Daten aus S3-Buckets direkt konsumieren. | (Option 2) Verwenden Sie die Amazon S3 S3-Integration mit dem EDC Connector und verweisen Sie direkt auf den S3-Bucket in der Verbraucherinfrastruktur als Ziel:
| Dateningenieur, App-Entwickler |
Fehlerbehebung
Problem | Lösung |
---|---|
Der Connector könnte ein Problem mit dem PEM Zertifikatsformat aufwerfen. | Verketten Sie den Inhalt jeder Datei zu einer einzigen Zeile, indem Sie hinzufügen. |
Zugehörige Ressourcen
Zusätzliche Informationen
Spezifikationen für den Datenraum
Teilnehmer
Teilnehmer | Beschreibung des Unternehmens | Schwerpunkt des Unternehmens |
Firma X | Betreibt eine Fahrzeugflotte in ganz Europa und Südamerika, um verschiedene Güter zu transportieren. | Zielt darauf ab, datengestützte Entscheidungen zu treffen, um die Intensität seines CO2-Fußabdrucks zu reduzieren. |
Firma Y | Eine Umweltregulierungsbehörde | Setzt Umweltvorschriften und -richtlinien durch, die darauf abzielen, die Umweltauswirkungen von Unternehmen und Branchen, einschließlich der Intensität der CO2-Emissionen, zu überwachen und zu mindern. |
Geschäftsszenario
Unternehmen X nutzt Datenraumtechnologie, um Daten zum CO2-Fußabdruck an einen Compliance-Auditor, Unternehmen Y, weiterzugeben, um die Umweltauswirkungen der Logistikaktivitäten von Unternehmen X zu bewerten und zu berücksichtigen.
Behörde für den Datenraum
Die Data Space Authority ist ein Konsortium der Organisationen, die für den Datenraum zuständig sind. In diesem Muster bilden sowohl Unternehmen X als auch Unternehmen Y das Leitungsorgan und stellen eine föderierte Datenschutzbehörde dar.
Komponenten des Datenraums
Komponente | Gewählte Implementierung | Zusätzliche Informationen |
Protokoll für den Austausch von Datensätzen | Dataspace-Protokoll, Version 0.8 | |
Anschluss für den Datenraum | EDCTractus-X-Anschluss Version 0.4.1 | |
Richtlinien für den Datenaustausch | USEStandardrichtlinie |
Dienste im Bereich Datenraum
Service | Implementierung | Zusätzliche Informationen |
Identitätsdienst | „Ein System zur Bereitstellung dynamischer Attribute (DAPS) hat die Absicht, bestimmte Attribute für Organisationen und Konnektoren zu ermitteln. Daher müssen Dritte letzteren nicht vertrauen, vorausgesetzt, sie vertrauen den DAPS Behauptungen.“ — DAPS Um sich auf die Logik des Connectors zu konzentrieren, wird der Datenraum mithilfe von Docker Compose auf einem EC2 Amazon-Computer bereitgestellt. | |
Discovery Service | „Der Federated Catalogue stellt eine indexierte Sammlung von Gaia-X-Selbstbeschreibungen dar, die es ermöglichen, Anbieter und deren Serviceangebote zu finden und auszuwählen. Bei den Selbstbeschreibungen handelt es sich um Informationen, die von den Teilnehmern über sich selbst und ihre Dienstleistungen in Form von Eigenschaften und Ansprüchen bereitgestellt werden.“ — Kickstarter für das Gaia-X-Ökosystem |
Daten, die ausgetauscht werden sollen
Datenbestände | Beschreibung | Format |
Daten zu den CO2-Emissionen | Intensitätswerte für verschiedene Fahrzeugtypen in der angegebenen Region (Europa und Südamerika) aus der gesamten Fahrzeugflotte | JSONdatei |
Datenmodell
{ "region": "string", "vehicles": [ // Each vehicle type has its Gross Vehicle Weight (GVW) category and its emission intensity in grams of CO2 per Tonne-Kilometer (g CO2 e/t-km) according to the "Well-to-Wheel" (WTW) measurement. { "type": "string", "gross_vehicle_weight": "string", "emission_intensity": { "CO2": "number", "unit": "string" } } ] }
Tractus-X-Anschluss EDC
In der folgenden Tabelle sind alle Dienste zusammen mit ihren entsprechenden exponierten Ports und Endpunkten als Referenz aufgeführt.
Name des Dienstes | Port und Pfad |
Steuerebene | ● Verwaltung: ‒ Port: 8081 Pfad: ● Steuerung ‒ Port: 8083 Pfad: ● Protokoll-Port: 8084 Pfad: ● Metriken ‒ Port: 9090 Pfad: ● Beobachtbarkeit ‒ Port: 8085 Pfad: |
Datenebene | Standard ‒ Port: 8080 Pfad: public ‒ Port: 8081 Pfad: proxy ‒ Port: 8186 Pfad: Metriken ‒ Port: 9090 Pfad: Beobachtbarkeit ‒ Port: 8085 Pfad: |
Vault | Anschluss: 8200 |
Postfach SQL | Hafen: 5432 |
Manager verwenden AWS Secrets Manager
Es ist möglich, Secrets Manager anstelle von HashiCorp Vault als Secrets Manager zu verwenden. Dazu müssen Sie die AWS Secrets Manager EDC Erweiterung verwenden oder erstellen.
Sie sind für die Erstellung und Pflege Ihres eigenen Images verantwortlich, da Tractus-X keine Unterstützung für Secrets Manager bietet.
Um dies zu erreichen, müssen Sie die Build-Gradle-Dateien sowohl der Steuerungsebene als auch der Datenebene
Der Einfachheit halber vermeiden wir es, das Connector-Image nach diesem Muster neu zu erstellen und verwenden Vault. HashiCorp