Problembehebung AWS Clean Rooms - AWS Clean Rooms

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Problembehebung AWS Clean Rooms

In diesem Abschnitt werden einige häufig auftretende Probleme beschrieben, die bei der Verwendung auftreten können, AWS Clean Rooms und deren Behebung.

Auf eine oder mehrere Tabellen, auf die in der Abfrage verwiesen wird, kann über die zugehörige Dienstrolle nicht zugegriffen werden. Der table/role Besitzer muss der Servicerolle Zugriff auf die Tabelle gewähren.

  • Stellen Sie sicher, dass die Berechtigungen für die Servicerolle wie erforderlich eingerichtet sind. Weitere Informationen finden Sie unterEinrichten AWS Clean Rooms.

Einer der zugrunde liegenden Datensätze hat ein nicht unterstütztes Dateiformat.

  • Stellen Sie sicher, dass Ihr Datensatz in einem der unterstützten Dateiformate vorliegt:

    • Parquet

    • RCFile

    • TextFile

    • SequenceFile

    • RegexSerde

    • OpenCSV

    • AVRO

    • JSON

    Weitere Informationen finden Sie unter Datenformate für AWS Clean Rooms.

Die Abfrageergebnisse entsprechen nicht den Erwartungen, wenn Sie Cryptographic Computing for Clean Rooms verwenden.

Wenn Sie Cryptographic Computing for Clean Rooms (C3R) verwenden, stellen Sie sicher, dass Ihre Abfrage verschlüsselte Spalten korrekt verwendet:

  • Die sealed Spalten werden nur in SELECT Klauseln verwendet.

  • Die fingerprint Spalten werden nur in JOIN Klauseln (und GROUP BY Klauseln unter bestimmten Bedingungen) verwendet.

  • Dass Sie nur JOINing fingerprint Spalten mit demselben Namen sind, wenn die Einstellungen für die Zusammenarbeit dies erfordern.

Weitere Informationen erhalten Sie unter Kryptografisches Rechnen für Clean Rooms und Spaltentypen in Cryptographic Computing für Clean Rooms.

AWS Clean Rooms Spark SQL: Fehlende Partitionsdaten

Wenn Sie die AWS Clean Rooms Spark-SQL-Engine mit partitionierten Tabellen (S3-Tabellen) verwenden, AWS Glue Data Catalog müssen alle Partitionen in der auch Daten in S3 enthalten. Die Engine verwendet die Spark-Einstellung spark.sql.files.ignoreMissingFiles=False

Weitere Informationen finden Sie unter https://spark.apache.org/docs/latest/sql-data-sources-generic-options.html# ignore-missing-files.

Wenn Sie auf diesen Fehler stoßen, erhalten Sie die folgende Fehlermeldung: "Missing partition data: One of the configured tables is partitioned and one or more of the partitions does not have data".

Vergleichen Sie Ihre in Amazon S3 vorhandenen Daten mit den in der AWS Glue Data Catalog Tabelle aufgeführten Partitionen. Löschen Sie Partitionen, die keine entsprechenden Daten in S3 enthalten.