Datenaufgliederung in Token - Amazon Redshift

Datenaufgliederung in Token

Aufgliederung in Token ist der Vorgang der Ersetzung tatsächlicher Werte durch nicht transparente Werte zu Datensicherheitszwecken. Sicherheitssensible Anwendungen verwenden eine Aufgliederung in Token, um sensible Daten wie persönlich identifizierbare Informationen (PII) oder geschützte Gesundheitsinformationen (PHI) durch Token zu ersetzen, um Sicherheitsrisiken zu mindern. Die Aufhebung der Aufgliederung in Token ersetzt Token für autorisierte Benutzer mit entsprechenden Sicherheitsrichtlinien wieder durch tatsächliche Werte.

Zur Integration mit Drittanbieterservices zur Aufgliederung in Token können Sie benutzerdefinierte Funktionen (User-Defined Functions, UDFs) von Amazon Redshift verwenden, die Sie mit erstellen AWS Lambda. Weitere Informationen finden Sie unter Benutzerdefinierte Lambda-Funktionen im Datenbankentwicklerhandbuch zu Amazon Redshift. Ein Beispiel finden Sie unter Protegrity.

Amazon Redshift sendet Anforderungen zur Aufgliederung in Token an einen Tokenisierungsserver, auf den über eine REST API oder einen vordefinierten Endpunkt zugegriffen wird. Zwei oder mehr ergänzende Lambda-Funktionen verarbeiten die Anforderungen zur Aufgliederung in Token und zur Aufhebung der Aufgliederung in Token. Für diese Verarbeitung können Sie Lambda Funktionen verwenden, die von einem Drittanbieter für Aufgliederung in Token bereitgestellt werden. Sie können auch Lambda Funktionen verwenden, die Sie als Lambda-UDFs in Amazon Redshift registrieren.

Angenommen, eine Abfrage wird gesendet, die eine UDF zur Aufgliederung in Token oder zur Aufhebung der Aufgliederung in Token für eine Spalte aufruft. Der Amazon-Redshift-Cluster spoolt die entsprechenden Argumentzeilen und sendet diese Zeilen parallel in Batches an die Lambda-Funktion. Die Daten zwischen den Amazon-Redshift-Rechenknoten und Lambda werden in einer separaten, isolierten Netzwerkverbindung übertragen, auf die Clients nicht zugreifen können. Die Lambda-Funktion übergibt die Daten an den Endpunkt des Tokenisierungsservers. Der Tokenisierungsserver gliedert die Daten nach Bedarf auf bzw. hebt ihre Aufgliederung auf und gibt sie zurück. Die Lambda-Funktionen übermitteln dann die Ergebnisse zur weiteren Verarbeitung an den Amazon-Redshift-Cluster, falls erforderlich, und geben dann die Abfrageergebnisse zurück.