Sélectionner vos préférences de cookies

Nous utilisons des cookies essentiels et des outils similaires qui sont nécessaires au fonctionnement de notre site et à la fourniture de nos services. Nous utilisons des cookies de performance pour collecter des statistiques anonymes afin de comprendre comment les clients utilisent notre site et d’apporter des améliorations. Les cookies essentiels ne peuvent pas être désactivés, mais vous pouvez cliquer sur « Personnaliser » ou « Refuser » pour refuser les cookies de performance.

Si vous êtes d’accord, AWS et les tiers approuvés utiliseront également des cookies pour fournir des fonctionnalités utiles au site, mémoriser vos préférences et afficher du contenu pertinent, y compris des publicités pertinentes. Pour accepter ou refuser tous les cookies non essentiels, cliquez sur « Accepter » ou « Refuser ». Pour effectuer des choix plus détaillés, cliquez sur « Personnaliser ».

Activer le validateur EMRFS S3 pour Amazon EMR 5.19.0 - Amazon EMR

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Activer le validateur EMRFS S3 pour Amazon EMR 5.19.0

Si vous utilisez Amazon EMR 5.19.0, vous pouvez définir la propriété spark.sql.parquet.fs.optimized.committer.optimization-enabled sur true lorsque vous créez un cluster, ou depuis Spark si vous utilisez Amazon EMR.

Activation d'un valideur EMRFS optimisé pour S3 lors de la création d'un cluster

Utilisez la classification de configuration spark-defaults pour définir la propriété spark.sql.parquet.fs.optimized.committer.optimization-enabled sur true. Pour de plus amples informations, veuillez consulter Configuration des applications.

Activation d'un valideur EMRFS optimisé pour S3 depuis Spark

Vous pouvez définir spark.sql.parquet.fs.optimized.committer.optimization-enabled sur true en l'ancrant dans un SparkConf, en le passant comme paramètre --conf dans le shell Spark ou les outils spark-submit et spark-sql, ou dans conf/spark-defaults.conf. Pour plus d'informations, consultez Configuration Spark dans la documentation Apache Spark.

L'exemple suivant montre comment activer le valideur en exécutant une commande spark-sql.

spark-sql \ --conf spark.sql.parquet.fs.optimized.committer.optimization-enabled=true \ -e "INSERT OVERWRITE TABLE target_table SELECT * FROM source_table;"
ConfidentialitéConditions d'utilisation du sitePréférences de cookies
© 2025, Amazon Web Services, Inc. ou ses affiliés. Tous droits réservés.