API Visual Job - AWS Glue
  —  les types de données  —CodeGenConfigurationNodeJDBC ConnectorOptionsStreamingDataPreviewOptionsAthenaConnectorSourceJDBC ConnectorSourceSparkConnectorSourceCatalogSourceMySQL CatalogSourcePostgreSQL CatalogSourceOracle SQL CatalogSourceMicrosoft SQL ServerCatalogSourceCatalogKinesisSourceDirectKinesisSourceKinesisStreamingSourceOptionsCatalogKafkaSourceDirectKafkaSourceKafkaStreamingSourceOptionsRedshiftSourceAmazonRedshiftSourceAmazonRedshiftNodeDataAmazonRedshiftAdvancedOptionOptionS3 CatalogSourceS3 SourceAdditionalOptionsS3 CsvSourceDirectJDBCSourceS3 DirectSourceAdditionalOptionsS3 JsonSourceS3 ParquetSourceS3 DeltaSourceS3 CatalogDeltaSourceCatalogDeltaSourceS3 HudiSourceS3 CatalogHudiSourceCatalogHudiSourceDynamoDB CatalogSourceRelationalCatalogSourceJDBC ConnectorTargetSparkConnectorTargetBasicCatalogTargetMySQL CatalogTargetPostgreSQL CatalogTargetOracle SQL CatalogTargetMicrosoft SQL ServerCatalogTargetRedshiftTargetAmazonRedshiftTargetUpsertRedshiftTargetOptionsS3 CatalogTargetS3 GlueParquetTargetCatalogSchemaChangePolicyS3 DirectTargetS3 HudiCatalogTargetS3 HudiDirectTargetS3 DeltaCatalogTargetS3 DeltaDirectTargetDirectSchemaChangePolicyApplyMappingMappageSelectFieldsDropFieldsRenameFieldSpigotJoinJoinColumnSplitFieldsSelectFromCollectionFillMissingValuesFiltreFilterExpressionFilterValueCustomCodeSparkSQLSqlAliasDropNullFieldsNullCheckBoxListNullValueFieldDatatypeFusionnerUnionPIIDetectionRegrouperDropDuplicatesGovernedCatalogTargetGovernedCatalogSourceAggregateOperationGlueSchemaGlueStudioSchemaColumnGlueStudioColumnDynamicTransformTransformConfigParameterEvaluateDataQualityDQ ResultsPublishingOptionsDQ StopJobOnFailureOptionsEvaluateDataQualityMultiFrameRecipeRecipeReferenceSnowflakeNodeDataSnowflakeSourceSnowflakeTargetConnectorDataSourceConnectorDataTarget

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

API Visual Job

L'API Visual Job vous permet de créer des jobs d'intégration de données en utilisant l' AWS Glue API à partir d'un objet JSON qui représente une configuration visuelle d'un AWS Glue job.

Une liste est fournie à une API de CodeGenConfigurationNodes création ou de mise à jour de tâche afin d'enregistrer un DAG dans AWS Glue Studio pour la tâche créée et de générer le code associé.

Types de données

CodeGenConfigurationNode structure

CodeGenConfigurationNode Il énumère les différents types de nœuds valides. Une seule et unique de ses variables membres peut être renseignée.

Champs
  • AthenaConnectorSource – Un objet AthenaConnectorSource.

    Indique un connecteur à une source de données Amazon Athena.

  • JDBCConnectorSource – Un objet JDBC ConnectorSource.

    Indique un connecteur à une source de données JDBC.

  • SparkConnectorSource – Un objet SparkConnectorSource.

    Indique un connecteur à une source de données Apache Spark.

  • CatalogSource – Un objet CatalogSource.

    Spécifie un magasin de données dans le catalogue de AWS Glue données.

  • RedshiftSource – Un objet RedshiftSource.

    Indique un stocker de données Amazon Redshift.

  • S3CatalogSource – Un objet S3 CatalogSource.

    Spécifie un magasin de données Amazon S3 dans le catalogue de AWS Glue données.

  • S3CsvSource – Objet S3 CsvSource.

    Indique un stocker de données CSV (valeurs séparées par commande) stocké dans Amazon S3.

  • S3JsonSource – Un objet S3 JsonSource.

    Indique un stocker de données JSON stocké dans Amazon S3.

  • S3ParquetSource – Un objet S3 ParquetSource.

    Indique un stocker de données Apache Parquet stocké dans Amazon S3.

  • RelationalCatalogSource – Un objet RelationalCatalogSource.

    Spécifie un magasin de données de catalogue relationnel dans le catalogue de AWS Glue données.

  • DynamoDBCatalogSource – Un objet DynamoDB CatalogSource.

    Spécifie un magasin de données du catalogue DynamoDBC dans le catalogue de AWS Glue données.

  • JDBCConnectorTarget – Un objet JDBC ConnectorTarget.

    Indique une cible de données qui écrit sur Amazon S3 dans un stockage en colonnes Apache Parquet.

  • SparkConnectorTarget – Un objet SparkConnectorTarget.

    Indique une cible qui utilise un connecteur Apache Spark.

  • CatalogTarget – Un objet BasicCatalogTarget.

    Spécifie une cible qui utilise une table AWS Glue de catalogue de données.

  • RedshiftTarget – Un objet RedshiftTarget.

    Indique une cible qui utilise Amazon Redshift.

  • S3CatalogTarget – Un objet S3 CatalogTarget.

    Spécifie une cible de données qui écrit sur Amazon S3 à l'aide du catalogue de AWS Glue données.

  • S3GlueParquetTarget – Un objet S3 GlueParquetTarget.

    Indique une cible de données qui écrit sur Amazon S3 dans un stockage en colonnes Apache Parquet.

  • S3DirectTarget – Un objet S3 DirectTarget.

    Indique une cible de données qui écrit dans Amazon S3.

  • ApplyMapping – Un objet ApplyMapping.

    Indique une transformation qui mappe les clés de propriétés de données de la source de données aux clés de propriété de données de la cible de données. Vous pouvez renommer les clés, modifier leur type de données et choisir les clés à supprimer du jeu de données.

  • SelectFields – Un objet SelectFields.

    Indique une transformation qui choisit les clés de propriété de données que vous souhaitez conserver.

  • DropFields – Un objet DropFields.

    Indique une transformation qui choisit les clés de propriété de données que vous souhaitez supprimer.

  • RenameField – Un objet RenameField.

    Indique une transformation qui renomme une clé de propriété de données unique.

  • Spigot – Un objet Spigot.

    Indique une transformation qui écrit des échantillons de données dans un compartiment Amazon S3.

  • Join – Un objet Join.

    Indique une transformation qui joint deux jeux de données en un jeu de données à l'aide d'une phrase de comparaison sur les clés de propriété de données spécifiées. Vous pouvez utiliser des jointures internes (ou intérieures), externes (ou extérieures), gauche, droite, semi gauche et anti gauche.

  • SplitFields – Un objet SplitFields.

    Indique une transformation qui divise les clés de propriété de données en deux DynamicFrames. Le résultat est une collection de DynamicFrames : une avec les clés de propriété de données sélectionnées, et une autre avec les clés de propriété de données restantes.

  • SelectFromCollection – Un objet SelectFromCollection.

    Indique une transformation qui en choisit une DynamicFrame provenant d'une collection de DynamicFrames. Le résultat est le DynamicFrame sélectionné

  • FillMissingValues – Un objet FillMissingValues.

    Indique une transformation qui localise les registres dans le jeu de données dont les valeurs sont manquantes et ajoute un nouveau champ avec une valeur déterminée par imputation. Le jeu de données source est utilisé pour entraîner le modèle de machine learning (ML) qui détermine la valeur manquante.

  • Filter – Un objet Filtre.

    Indique une transformation qui divise un jeu de données en deux, en fonction d'une condition de filtre.

  • CustomCode – Un objet CustomCode.

    Indique une transformation qui utilise le code personnalisé que vous fournissez pour effectuer la transformation des données. La sortie est une collection de DynamicFrames.

  • SparkSQL – Un objet SparkSQL.

    Indique une transformation dans laquelle vous entrez une requête SQL à l'aide de la syntaxe Spark SQL pour transformer les données. Le résultat est un DynamicFrame unique.

  • DirectKinesisSource – Un objet DirectKinesisSource.

    Indique une source de données Amazon Kinesis directe.

  • DirectKafkaSource – Un objet DirectKafkaSource.

    Indique un stocker de données Apache Kafka.

  • CatalogKinesisSource – Un objet CatalogKinesisSource.

    Spécifie une source de données Kinesis dans le catalogue de AWS Glue données.

  • CatalogKafkaSource – Un objet CatalogKafkaSource.

    Indique un stocker de données Apache Kafka dans le catalogue de données.

  • DropNullFields – Un objet DropNullFields.

    Indique une transformation qui supprime les colonnes du jeu de données si toutes les valeurs de la colonne sont « nulles ». Par défaut, AWS Glue Studio reconnaît les objets nuls, mais certaines valeurs telles que les chaînes vides, les chaînes « nulles », les entiers -1 ou d'autres espaces réservés tels que les zéros ne sont pas automatiquement reconnues comme nulles.

  • Merge – Un objet Fusionner.

    Indique une transformation qui fusionne une DynamicFrame avec une DynamicFrame intermédiaire basée sur les clés primaires spécifiées pour identifier les registres. Les registres en double (registres avec les mêmes clés primaires) ne sont pas dédupliqués.

  • Union – Un objet Union.

    Indique une transformation qui combine les lignes de deux jeux de données ou plus en un seul résultat.

  • PIIDetection – Un objet PIIDetection.

    Indique une transformation qui identifie, supprime ou masque les données d'informations personnelles identifiables (PII).

  • Aggregate – Un objet Regrouper.

    Indique une transformation qui regroupe les lignes par champs choisis et calcule la valeur agrégée par fonction spécifiée.

  • DropDuplicates – Un objet DropDuplicates.

    Indique une transformation qui supprime des lignes de données répétitives d'un jeu de données.

  • GovernedCatalogTarget – Un objet GovernedCatalogTarget.

    Indique une cible de données qui écrit dans un catalogue gouverné.

  • GovernedCatalogSource – Un objet GovernedCatalogSource.

    Indique une source de données dans un catalogue de données gouverné.

  • MicrosoftSQLServerCatalogSource – Un objet Microsoft SQL ServerCatalogSource.

    Indique une source de données Microsoft SQL Server dans le catalogue de données AWS Glue .

  • MySQLCatalogSource – Un objet MySQL CatalogSource.

    Spécifie une source de données MySQL dans le catalogue de AWS Glue données.

  • OracleSQLCatalogSource – Un objet Oracle SQL CatalogSource.

    Spécifie une source de données Oracle dans le catalogue de AWS Glue données.

  • PostgreSQLCatalogSource – Un objet PostgreSQL CatalogSource.

    Spécifie une source de données PostgressQL dans le catalogue de données. AWS Glue

  • MicrosoftSQLServerCatalogTarget – Un objet Microsoft SQL ServerCatalogTarget.

    Indique une cible qui utilise Microsoft SQL.

  • MySQLCatalogTarget – Un objet MySQL CatalogTarget.

    Indique une cible qui utilise MySQL.

  • OracleSQLCatalogTarget – Un objet Oracle SQL CatalogTarget.

    Indique une cible qui utilise Oracle SQL.

  • PostgreSQLCatalogTarget – Un objet PostgreSQL CatalogTarget.

    Indique une cible qui utilise Postgre SQL.

  • DynamicTransform – Un objet DynamicTransform.

    Spécifie une transformation visuelle personnalisée créée par un utilisateur.

  • EvaluateDataQuality – Un objet EvaluateDataQuality.

    Spécifie vos critères d'évaluation de la qualité des données.

  • S3CatalogHudiSource – Un objet S3 CatalogHudiSource.

    Spécifie une source de données Hudi enregistrée dans le catalogue de AWS Glue données. La source de données doit être stockée dans Amazon S3.

  • CatalogHudiSource – Un objet CatalogHudiSource.

    Spécifie une source de données Hudi enregistrée dans le catalogue de AWS Glue données.

  • S3HudiSource – Un objet S3 HudiSource.

    Spécifie une source de données Hudi stockée dans. Amazon S3

  • S3HudiCatalogTarget – Un objet S3 HudiCatalogTarget.

    Spécifie une cible qui écrit dans une source de données Hudi du catalogue de AWS Glue données.

  • S3HudiDirectTarget – Un objet S3 HudiDirectTarget.

    Spécifie une cible qui écrit dans une source de données Hudi en Amazon S3.

  • S3CatalogDeltaSource – Un objet S3 CatalogDeltaSource.

    Spécifie une source de données Delta Lake enregistrée dans le catalogue de AWS Glue données. La source de données doit être stockée dans Amazon S3.

  • CatalogDeltaSource – Un objet CatalogDeltaSource.

    Spécifie une source de données Delta Lake enregistrée dans le catalogue de AWS Glue données.

  • S3DeltaSource – Un objet S3 DeltaSource.

    Spécifie une source de données Delta Lake stockée dans Amazon S3.

  • S3DeltaCatalogTarget – Un objet S3 DeltaCatalogTarget.

    Spécifie une cible qui écrit dans une source de données Delta Lake dans le catalogue de AWS Glue données.

  • S3DeltaDirectTarget – Un objet S3 DeltaDirectTarget.

    Spécifie une cible qui écrit dans une source de données de Delta Lake dans Amazon S3.

  • AmazonRedshiftSource – Un objet AmazonRedshiftSource.

    Indique une cible qui écrit dans une source de données dans Amazon Redshift.

  • AmazonRedshiftTarget – Un objet AmazonRedshiftTarget.

    Indique une cible qui écrit dans une cible de données dans Amazon Redshift.

  • EvaluateDataQualityMultiFrame – Un objet EvaluateDataQualityMultiFrame.

    Spécifie vos critères d'évaluation de la qualité des données. Autorise plusieurs données d'entrée et renvoie une collection de cadres dynamiques.

  • Recipe – Un objet Recipe.

    Spécifie un nœud de AWS Glue DataBrew recette.

  • SnowflakeSource – Un objet SnowflakeSource.

    Indique une source de données Snowflake.

  • SnowflakeTarget – Un objet SnowflakeTarget.

    Indique une cible qui écrit dans une source de données Snowflake.

  • ConnectorDataSource – Un objet ConnectorDataSource.

    Spécifie une source générée avec des options de connexion standard.

  • ConnectorDataTarget – Un objet ConnectorDataTarget.

    Spécifie une cible générée avec des options de connexion standard.

Structure JDBC ConnectorOptions

Options de connexion supplémentaires pour le connecteur.

Champs
  • FilterPredicate – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Clause de condition supplémentaire pour filtrer les données à partir de la source. Par exemple :

    BillingCity='Mountain View'

    Lorsque vous utilisez une requête au lieu d'un nom de tableau, vous devez vérifier que la requête fonctionne avec le filterPredicate spécifié.

  • PartitionColumn – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom d'une colonne entière utilisée pour le partitionnement. Cette option fonctionne uniquement lorsqu'elle est incluse dans lowerBound, upperBound et numPartitions. Cette option fonctionne de la même manière que dans le lecteur JDBC SQL Spark.

  • LowerBound – Nombre (long), pas plus qu'Aucun.

    La valeur minimale de partitionColumn qui est utilisée pour décider de la progression de la partition.

  • UpperBound – Nombre (long), pas plus qu'Aucun.

    La valeur maximale de partitionColumn qui est utilisée pour décider de la progression de la partition.

  • NumPartitions – Nombre (long), pas plus qu'Aucun.

    Nombre de partitions. Cette valeur, ainsi que lowerBound (inclusive) et upperBound (exclusive) forment les progressions de partition pour les expressions de clause WHERE générées qui sont utilisées pour diviser le fichier partitionColumn.

  • JobBookmarkKeys – Tableau de chaînes UTF-8.

    Le nom des clés de marque-page de tâches sur lesquelles effectuer le tri.

  • JobBookmarkKeysSortOrder – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique un ordre de tri croissant ou décroissant.

  • DataTypeMapping – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8 (valeurs valides :ARRAY | BIGINT | BINARY | BIT | BLOB | BOOLEAN | CHAR | CLOB | DATALINK | DATE | DECIMAL | DISTINCT | DOUBLE | FLOAT | INTEGER | JAVA_OBJECT | LONGNVARCHAR | LONGVARBINARY | LONGVARCHAR | NCHAR | NCLOB | NULL | NUMERIC | NVARCHAR | OTHER | REAL | REF | REF_CURSOR | ROWID | SMALLINT | SQLXML | STRUCT | TIME | TIME_WITH_TIMEZONE | TIMESTAMP | TIMESTAMP_WITH_TIMEZONE | TINYINT | VARBINARY | VARCHAR).

    Chaque valeur est une chaîne UTF-8 (valeurs valides : DATE | STRING | TIMESTAMP | INT | FLOAT | LONG | BIGDECIMAL | BYTE | SHORT | DOUBLE).

    Mappage de type de données personnalisé qui crée un mappage d'un type de données JDBC à un type de données AWS Glue . Par exemple, l'option "dataTypeMapping":{"FLOAT":"STRING"} mappe les champs de données de type JDBC FLOAT dans le String type Java en appelant la ResultSet.getString() méthode du pilote et l'utilise pour créer l' AWS Glue enregistrement. L'objet est ResultSet implémenté par chaque pilote, donc le comportement est spécifique au pilote que vous utilisez. Reportez-vous à la documentation de votre pilote JDBC pour comprendre comment le pilote effectue les conversions.

StreamingDataPreviewOptions structure

Indique les options liées à la prévisualisation des données pour visualiser un échantillon de vos données.

Champs
  • PollingTime : nombre (long), au moins égal à 10.

    Temps d'interrogation en millisecondes.

  • RecordPollingLimit : nombre (long), au moins égal à 1.

    Limite du nombre de registres interrogés.

AthenaConnectorSource structure

Indique un connecteur à une source de données Amazon Athena.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • ConnectionNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la connexion associée au connecteur.

  • ConnectorNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom d'un connecteur qui facilite l'accès au magasin de données dans AWS Glue Studio.

  • ConnectionTypeObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Type de connexion, tel que marketplace.athena ou custom.athena, désignant une connexion à un stocker de données Amazon Athena.

  • ConnectionTable – Chaîne UTF-8, correspondant au Custom string pattern #35.

    Le nom de la table dans la source de données.

  • SchemaNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom du groupe de journaux CloudWatch à partir duquel lire les données. Par exemple, /aws-glue/jobs/output.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source Athena personnalisée.

Structure JDBC ConnectorSource

Indique un connecteur à une source de données JDBC.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • ConnectionNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la connexion associée au connecteur.

  • ConnectorNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom d'un connecteur qui facilite l'accès au magasin de données dans AWS Glue Studio.

  • ConnectionTypeObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Type de connexion, tel que marketplace.jdbc ou custom.jdbc, désignant une connexion à un stocker de données JDBC.

  • AdditionalOptions – Un objet JDBC ConnectorOptions.

    Options de connexion supplémentaires pour le connecteur.

  • ConnectionTable – Chaîne UTF-8, correspondant au Custom string pattern #35.

    Le nom de la table dans la source de données.

  • Query – Chaîne UTF-8, correspondant au Custom string pattern #36.

    La table ou la requête SQL à partir de laquelle obtenir les données. Vous pouvez préciser ConnectionTable ou query, mais pas les deux.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source JDBC personnalisée.

SparkConnectorSource structure

Indique un connecteur à une source de données Apache Spark.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • ConnectionNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la connexion associée au connecteur.

  • ConnectorNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom d'un connecteur qui facilite l'accès au magasin de données dans AWS Glue Studio.

  • ConnectionTypeObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Type de connexion, tel que marketplace.spark ou custom.spark, désignant une connexion à un stocker de données Apache Spark.

  • AdditionalOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Options de connexion supplémentaires pour le connecteur.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source Spark personnalisée.

CatalogSource structure

Spécifie un magasin de données dans le catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du stocker de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

CatalogSource Structure de MySQL

Spécifie une source de données MySQL dans le catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

Structure de PostgreSQL CatalogSource

Spécifie une source de données PostgressQL dans le catalogue de données. AWS Glue

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

Structure d'Oracle SQL CatalogSource

Spécifie une source de données Oracle dans le catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

Structure de Microsoft SQL ServerCatalogSource

Indique une source de données Microsoft SQL Server dans le catalogue de données AWS Glue .

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

CatalogKinesisSource structure

Spécifie une source de données Kinesis dans le catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • WindowSize – Nombre (entier), pas plus qu'Aucun.

    Durée de traitement de chaque micro lot.

  • DetectSchema – Booléen.

    Indique s'il faut déterminer automatiquement le schéma à partir des données entrantes.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • StreamingOptions – Un objet KinesisStreamingSourceOptions.

    Options supplémentaires pour la source de données en streaming Kinesis.

  • DataPreviewOptions – Un objet StreamingDataPreviewOptions.

    Options supplémentaires pour la prévisualisation des données.

DirectKinesisSource structure

Indique une source de données Amazon Kinesis directe.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • WindowSize – Nombre (entier), pas plus qu'Aucun.

    Durée de traitement de chaque micro lot.

  • DetectSchema – Booléen.

    Indique s'il faut déterminer automatiquement le schéma à partir des données entrantes.

  • StreamingOptions – Un objet KinesisStreamingSourceOptions.

    Options supplémentaires pour la source de données en streaming Kinesis.

  • DataPreviewOptions – Un objet StreamingDataPreviewOptions.

    Options supplémentaires pour la prévisualisation des données.

KinesisStreamingSourceOptions structure

Options supplémentaires pour la source de données Amazon Kinesis streaming.

Champs
  • EndpointUrl – Chaîne UTF-8, correspondant au Custom string pattern #34.

    L'URL du point de terminaison de Kinesis.

  • StreamName – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom du flux de données Kinesis.

  • Classification – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Une classification facultative.

  • Delimiter – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique le caractère délimiteur.

  • StartingPosition – Chaîne UTF-8 (valeurs valides : latest="LATEST" | trim_horizon="TRIM_HORIZON" | earliest="EARLIEST" | timestamp="TIMESTAMP").

    La position de départ dans le flux de données Kinesis à partir duquel lire les données. Les valeurs possibles sont "latest", "trim_horizon", "earliest", ou une chaîne d'horodatage au format UTC dans le modèle yyyy-mm-ddTHH:MM:SSZ (où Z représente un décalage de fuseau horaire UTC avec un +/-. Par exemple : « 2023-04-04T08:00:00-04:00 »). La valeur par défaut est "latest".

    Remarque : L'utilisation d'une valeur qui est une chaîne d'horodatage au format UTC pour « StartingPosition » n'est prise en charge que pour la AWS Glue version 4.0 ou ultérieure.

  • MaxFetchTimeInMs – Nombre (long), pas plus qu'Aucun.

    Le temps maximal passé dans l'exécuteur de tâches pour extraire un enregistrement du flux de données Kinesis par partition, spécifié en millisecondes (ms). La valeur par défaut est 1000.

  • MaxFetchRecordsPerShard – Nombre (long), pas plus qu'Aucun.

    Le nombre maximum d'enregistrements à récupérer par partition dans le flux de données Kinesis par microbatch. Remarque : le client peut dépasser cette limite si la tâche de streaming a déjà lu des enregistrements supplémentaires provenant de Kinesis (lors du même appel get-records). Si elle MaxFetchRecordsPerShard doit être stricte, elle doit être un multiple deMaxRecordPerRead. La valeur par défaut est 100000.

  • MaxRecordPerRead – Nombre (long), pas plus qu'Aucun.

    Nombre maximal de registres à extraire du flux de données Kinesis dans chaque opération . La valeur par défaut est 10000.

  • AddIdleTimeBetweenReads – Booléen.

    Ajoute un délai entre deux opérations getRecords consécutives. La valeur par défaut est "False". Cette option n’est configurable que pour Glue version 2.0 et ultérieure.

  • IdleTimeBetweenReadsInMs – Nombre (long), pas plus qu'Aucun.

    Le délai minimum entre deux opérations getRecords consécutives, spécifié en ms. La valeur par défaut est 1000. Cette option n’est configurable que pour Glue version 2.0 et ultérieure.

  • DescribeShardInterval – Nombre (long), pas plus qu'Aucun.

    Intervalle de temps minimum entre deux appels ListShards d'API avant que votre script envisage le repartage. La valeur par défaut est 1s.

  • NumRetries – Nombre (entier), pas plus qu'Aucun.

    Le nombre maximal de nouvelles tentatives pour les demandes d'API Kinesis Data Streams. La valeur par défaut est 3.

  • RetryIntervalMs – Nombre (long), pas plus qu'Aucun.

    Le délai de réflexion (spécifié en ms) avant de réessayer l'appel d'API Kinesis Data Streams. La valeur par défaut est 1000.

  • MaxRetryIntervalMs – Nombre (long), pas plus qu'Aucun.

    Le délai d'attente maximal (spécifié en ms) entre deux tentatives d'appel d'API Kinesis Data Streams. La valeur par défaut est 10000.

  • AvoidEmptyBatches – Booléen.

    Évite de créer une tâche de micro-lot vide en vérifiant les données non lues dans le flux de données Kinesis avant le démarrage du lot. La valeur par défaut est "False".

  • StreamArn – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom Amazon Resource Name (ARN) du flux de données Kinesis.

  • RoleArn – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom Amazon Resource Name (ARN) du rôle à endosser à l'aide d'AWS Security Token Service (AWS STS). Ce rôle doit disposer des autorisations nécessaires pour décrire ou lire des registres pour le flux de données Kinesis. Vous devez utiliser ce paramètre lorsque vous accédez à un flux de données dans un autre compte. Utilisez conjointement avec "awsSTSSessionName".

  • RoleSessionName – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Un identifiant de la session endossant le rôle à l'aide d'AWS STS. Vous devez utiliser ce paramètre lorsque vous accédez à un flux de données dans un autre compte. Utilisez conjointement avec "awsSTSRoleARN".

  • AddRecordTimestamp – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Lorsque cette option est définie sur « true », la sortie de données contient une colonne supplémentaire nommée « __src_timestamp » qui indique l'heure à laquelle l'enregistrement correspondant est reçu par le flux. La valeur par défaut est « false ». Cette option est prise en charge dans AWS Glue la version 4.0 ou ultérieure.

  • EmitConsumerLagMetrics – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Lorsque cette option est définie sur « true », pour chaque lot, elle émet les métriques correspondant à la durée comprise entre le plus ancien enregistrement reçu par le flux et l'heure AWS Glue à laquelle il arrive CloudWatch. Le nom de la métrique est « glue.driver.streaming ». maxConsumerLagInMs». La valeur par défaut est « false ». Cette option est prise en charge dans AWS Glue version 4.0 ou ultérieure.

  • StartingTimestamp – Chaîne UTF-8.

    L'horodatage de l'enregistrement dans le flux de données Kinesis à partir duquel les données doivent être lues. Les valeurs possibles sont une chaîne d'horodatage au format UTC du modèle yyyy-mm-ddTHH:MM:SSZ (où Z représente un décalage de fuseau horaire UTC avec un +/-. Par exemple : « 2023-04-04T08:00:00+08:00 »).

CatalogKafkaSource structure

Indique un stocker de données Apache Kafka dans le catalogue de données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du stocker de données.

  • WindowSize – Nombre (entier), pas plus qu'Aucun.

    Durée de traitement de chaque micro lot.

  • DetectSchema – Booléen.

    Indique s'il faut déterminer automatiquement le schéma à partir des données entrantes.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • StreamingOptions – Un objet KafkaStreamingSourceOptions.

    Indique les options de streaming.

  • DataPreviewOptions – Un objet StreamingDataPreviewOptions.

    Indique les options liées à la prévisualisation des données pour visualiser un échantillon de vos données.

DirectKafkaSource structure

Indique un stocker de données Apache Kafka.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du stocker de données.

  • StreamingOptions – Un objet KafkaStreamingSourceOptions.

    Indique les options de streaming.

  • WindowSize – Nombre (entier), pas plus qu'Aucun.

    Durée de traitement de chaque micro lot.

  • DetectSchema – Booléen.

    Indique s'il faut déterminer automatiquement le schéma à partir des données entrantes.

  • DataPreviewOptions – Un objet StreamingDataPreviewOptions.

    Indique les options liées à la prévisualisation des données pour visualiser un échantillon de vos données.

KafkaStreamingSourceOptions structure

Options supplémentaires pour streaming.

Champs
  • BootstrapServers – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Une liste d'URL de serveur d'amorçage, par exemple, en tant que b-1.vpc-test-2.o4q88o.c6.kafka.us-east-1.amazonaws.com:9094. Cette option doit être spécifiée dans l'appel d'API ou définie dans les métadonnées de la table dans le catalogue de données.

  • SecurityProtocol – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le protocole utilisé pour communiquer avec les agents. Les valeurs possibles sont "SSL" ou "PLAINTEXT".

  • ConnectionName – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Nom de la connexion.

  • TopicName – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de rubrique tel que spécifié dans Apache Kafka. Vous devez Indiquer au moins un des éléments suivants : "topicName", "assign" ou "subscribePattern".

  • Assign – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Les TopicPartitions spécifiques à consommer. Vous devez Indiquer au moins un des éléments suivants : "topicName", "assign" ou "subscribePattern".

  • SubscribePattern – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Une chaîne d'expression rationnelle Java qui identifie la liste de rubriques à laquelle vous souhaitez vous abonner. Vous devez Indiquer au moins un des éléments suivants : "topicName", "assign" ou "subscribePattern".

  • Classification – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Une classification facultative.

  • Delimiter – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique le caractère délimiteur.

  • StartingOffsets – Chaîne UTF-8, correspondant au Custom string pattern #34.

    La position de départ dans la rubrique Kafka à partir de laquelle lire les données. Les valeurs possibles sont "earliest" ou "latest". La valeur par défaut est "latest".

  • EndingOffsets – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le point de fin lorsqu'une requête par lots est terminée. Les valeurs possibles sont "latest" ou une chaîne JSON qui Indique un décalage de fin pour chaque TopicPartition.

  • PollTimeoutMs – Nombre (long), pas plus qu'Aucun.

    Le délai d'attente en millisecondes pour interroger les données de Kafka dans les exécuteurs de tâches Spark. La valeur par défaut est 512.

  • NumRetries – Nombre (entier), pas plus qu'Aucun.

    Le nombre de nouvelles tentatives avant de ne pas récupérer les décalages Kafka. La valeur par défaut est 3.

  • RetryIntervalMs – Nombre (long), pas plus qu'Aucun.

    Temps d'attente en millisecondes avant d'essayer de récupérer les décalages Kafka. La valeur par défaut est 10.

  • MaxOffsetsPerTrigger – Nombre (long), pas plus qu'Aucun.

    La limite de taux sur le nombre maximal de décalages qui sont traités par intervalle de déclenchement. Le nombre total spécifié de décalages est réparti proportionnellement entre les topicPartitions des différents volumes. La valeur par défaut est null, ce qui signifie que le consommateur lit tous les décalages jusqu'au dernier décalage connu.

  • MinPartitions – Nombre (entier), pas plus qu'Aucun.

    Le nombre minimum de partitions à lire à partir de Kafka. La valeur par défaut est nulle, ce qui signifie que le nombre de partitions Spark est égal au nombre de partitions Kafka.

  • IncludeHeaders – Booléen.

    Indique s'il faut inclure les en-têtes Kafka. Lorsque l'option est définie sur « true » (vrai), la sortie de données contiendra une colonne supplémentaire nommée « glue_streaming_kafka_headers » avec le type Array[Struct(key: String, value: String)]. La valeur définie par défaut est « false ». Cette option n'est disponible que dans AWS Glue la version 3.0 ou ultérieure.

  • AddRecordTimestamp – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Lorsque cette option est définie sur « true », la sortie de données contient une colonne supplémentaire nommée « __src_timestamp » qui indique l'heure à laquelle l'enregistrement correspondant est reçu par la rubrique. La valeur par défaut est « false ». Cette option est prise en charge dans AWS Glue la version 4.0 ou ultérieure.

  • EmitConsumerLagMetrics – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Lorsque cette option est définie sur « vrai », pour chaque lot, elle émet les métriques correspondant à la durée comprise entre le plus ancien enregistrement reçu par le sujet et l'heure AWS Glue à laquelle il arrive CloudWatch. Le nom de la métrique est « glue.driver.streaming ». maxConsumerLagInMs». La valeur par défaut est « false ». Cette option est prise en charge dans AWS Glue version 4.0 ou ultérieure.

  • StartingTimestamp – Chaîne UTF-8.

    L'horodatage de l'enregistrement dans la rubrique Kafka à partir duquel les données doivent être lues. Les valeurs possibles sont une chaîne d'horodatage au format UTC du modèle yyyy-mm-ddTHH:MM:SSZ (où Z représente un décalage de fuseau horaire UTC avec un +/-. Par exemple : « 2023-04-04T08:00:00+08:00 »).

    Seul StartingTimestamp ou StartingOffsets doit être défini.

RedshiftSource structure

Indique un stocker de données Amazon Redshift.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom du stocker de données Amazon Redshift.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    La base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Table de base de données à lire.

  • RedshiftTmpDir – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Chemin Amazon S3 où les données temporaires peuvent être stockées lors de la copie à partir de la base de données.

  • TmpDirIAMRole – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le rôle IAM avec les autorisations.

AmazonRedshiftSource structure

Indique une source Amazon Redshift.

Champs

AmazonRedshiftNodeData structure

Indique un nœud Amazon Redshift.

Champs
  • AccessType – Chaîne UTF-8, correspondant au Custom string pattern #33.

    Le type d'accès pour la connexion Redshift. Il peut s'agir d'une connexion directe ou de connexions au catalogue.

  • SourceType – Chaîne UTF-8, correspondant au Custom string pattern #33.

    Le type de source pour spécifier si une table spécifique est la source ou une requête personnalisée.

  • Connection – Un objet Option.

    La AWS Glue connexion au cluster Redshift.

  • Schema – Un objet Option.

    Le nom du schéma Redshift lorsque vous travaillez avec une connexion directe.

  • Table – Un objet Option.

    Le nom de la table Redshift lorsque vous travaillez avec une connexion directe.

  • CatalogDatabase – Un objet Option.

    Nom de la base de AWS Glue données du catalogue de données lorsque vous travaillez avec un catalogue de données.

  • CatalogTable – Un objet Option.

    Le nom de la table du catalogue de AWS Glue données lorsque vous travaillez avec un catalogue de données.

  • CatalogRedshiftSchema – Chaîne UTF-8.

    Le nom du schéma Redshift lorsque vous travaillez avec un catalogue de données.

  • CatalogRedshiftTable – Chaîne UTF-8.

    Table de base de données à lire.

  • TempDir – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Chemin Amazon S3 où les données temporaires peuvent être stockées lors de la copie à partir de la base de données.

  • IamRole – Un objet Option.

    Facultatif. Le nom de rôle utilisé lors de la connexion à S3. Le rôle IAM sera remplacé par défaut par le rôle sur la tâche lorsque ce champ est laissé vide.

  • AdvancedOptions – Un tableau d'objets AmazonRedshiftAdvancedOption.

    Les valeurs facultatives lors de la connexion au cluster Redshift.

  • SampleQuery – Chaîne UTF-8.

    Le code SQL utilisé pour récupérer les données d'une source Redshift lorsqu'il SourceType s'agit d'une « requête ».

  • PreAction – Chaîne UTF-8.

    Le code SQL utilisé avant l'exécution d'une opération MERGE ou APPEND avec insertion.

  • PostAction – Chaîne UTF-8.

    Le code SQL utilisé avant l'exécution d'une opération MERGE ou APPEND avec insertion.

  • Action – Chaîne UTF-8.

    Indique comment l'écriture dans un cluster Redshift se fera.

  • TablePrefix – Chaîne UTF-8, correspondant au Custom string pattern #33.

    Indique le préfixe d'une table.

  • Upsert – Booléen.

    L'action utilisée sur les récepteurs Redshift lorsque vous effectuez une opération APPEND.

  • MergeAction – Chaîne UTF-8, correspondant au Custom string pattern #33.

    L'action utilisée pour déterminer comment une opération MERGE dans un récepteur Redshift sera traitée.

  • MergeWhenMatched – Chaîne UTF-8, correspondant au Custom string pattern #33.

    L'action utilisée pour déterminer comment une opération MERGE dans un récepteur Redshift sera traitée lorsqu'un enregistrement existant correspond à un nouvel enregistrement.

  • MergeWhenNotMatched – Chaîne UTF-8, correspondant au Custom string pattern #33.

    L'action utilisée pour déterminer comment une opération MERGE dans un récepteur Redshift sera traitée lorsqu'un enregistrement existant ne correspond pas à un nouvel enregistrement.

  • MergeClause – Chaîne UTF-8.

    Le code SQL utilisé dans une fusion personnalisée pour traiter les enregistrements correspondants.

  • CrawlerConnection – Chaîne UTF-8.

    Indique le nom de la connexion associée à la table de catalogue utilisée.

  • TableSchema – Un tableau d'objets Option.

    Le tableau de sortie du schéma pour un nœud donné.

  • StagingTable – Chaîne UTF-8.

    Le nom de la table intermédiaire temporaire utilisée lors d'une opération MERGE ou APPEND avec insertion.

  • SelectedColumns – Un tableau d'objets Option.

    La liste des noms de colonnes utilisée pour déterminer un enregistrement correspondant lors d'une opération MERGE ou APPEND avec insertion.

AmazonRedshiftAdvancedOption structure

Indique une valeur facultative lors de la connexion au cluster Redshift.

Champs
  • Key – Chaîne UTF-8.

    La clé de l'option de connexion supplémentaire.

  • Value – Chaîne UTF-8.

    La valeur de l'option de connexion supplémentaire.

Structure de l'option

Indique une valeur d'option.

Champs

CatalogSource Structure S3

Spécifie un magasin de données Amazon S3 dans le catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du stocker de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    La base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Table de base de données à lire.

  • PartitionPredicate – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Les partitions satisfaisant à ce prédicat sont supprimées. Les fichiers qui se situent dans la période de conservation pour ces partitions ne sont pas supprimés. Valeur définie sur "" – vide par défaut.

  • AdditionalOptions – Un objet S3 SourceAdditionalOptions.

    Indique des options de connexion supplémentaires.

SourceAdditionalOptions Structure S3

Indique des options de connexion supplémentaires pour le stocker de données Amazon S3.

Champs
  • BoundedSize – Nombre (long).

    Définit la limite supérieure de la dimension cible du jeu de données en octets à traiter.

  • BoundedFiles – Nombre (long).

    Définit la limite supérieure du nombre cible de fichiers à traiter.

CsvSource Structure S3

Indique un stocker de données CSV (valeurs séparées par commande) stocké dans Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du stocker de données.

  • PathsObligatoire : Tableau de chaînes UTF-8.

    Une liste de chemins Amazon S3 à lire.

  • CompressionType – Chaîne UTF-8 (valeurs valides : gzip="GZIP" | bzip2="BZIP2").

    Indique la manière dont les données sont comprimées. Ce n'est généralement pas nécessaire si le fichier de données a une extension standard. Les valeurs possibles sont "gzip" et "bzip").

  • Exclusions – Tableau de chaînes UTF-8.

    Une chaîne contenant une liste JSON des modèles glob de style Unix à exclure. Par exemple, [\"**.pdf\"] permet d'exclure tous les fichiers PDF.

  • GroupSize – Chaîne UTF-8, correspondant au Custom string pattern #34.

    La dimension du groupe cible, en octets. La valeur par défaut est calculée en fonction de la dimension des données en entrée et de la dimension de votre cluster. Lorsqu'il y a moins de 50 000 fichiers en entrée, "groupFiles" doit être défini sur "inPartition" pour que cela prenne effet.

  • GroupFiles – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le groupement de fichiers est activé par défaut lorsque l'entrée contient plus de 50 000 fichiers. Pour activer le groupement lorsqu'il y a moins de 50 000 fichiers, définissez ce paramètre sur « inPartition ». Pour désactiver le groupement lorsqu'il y a plus de 50 000 fichiers, définissez ce paramètre sur "none".

  • Recurse – Booléen.

    Si ce paramètre est défini sur « VRAI », les fichiers sont lus de manière récursive dans tous les sous-répertoires des chemins spécifiés.

  • MaxBand – Nombre (entier), pas plus qu'Aucun.

    Cette option permet de contrôler la durée, en millisecondes, au delà de laquelle la liste S3 est susceptible d'être cohérente. Les fichiers dont l'horodatage des modifications se situe dans les dernières millisecondes de MaxBand sont suivis, en particulier lors de leur utilisation, afin de tenir compte de la cohérence éventuelle JobBookmarks d'Amazon S3. La plupart des utilisateurs n'ont pas besoin de définir cette option. La valeur par défaut est 900 000 millisecondes, soit 15 minutes.

  • MaxFilesInBand – Nombre (entier), pas plus qu'Aucun.

    Cette option Indique le nombre maximal de fichiers à enregistrer à partir des dernières secondes maxBand. Si ce nombre est dépassé, les fichiers supplémentaires sont ignorés et traités dans l'exécution de tâche suivante.

  • AdditionalOptions – Un objet S3 DirectSourceAdditionalOptions.

    Indique des options de connexion supplémentaires.

  • SeparatorObligatoire : Chaîne UTF-8 (valeurs valides : comma="COMMA" | ctrla="CTRLA" | pipe="PIPE" | semicolon="SEMICOLON" | tab="TAB").

    Indique le caractère délimiteur. La valeur par défaut est une virgule : « , », mais tout autre caractère peut être spécifié.

  • Escaper – Chaîne UTF-8, correspondant au Custom string pattern #35.

    Indique le caractère à utiliser pour l'échappement. Cette option est utilisée uniquement lors de la lecture de fichiers CSV. La valeur par défaut est none. Si cette option est activée, le caractère suivant est immédiatement utilisé tel quel, sauf pour un petit ensemble d'échappements connus (\n, \r, \t et \0).

  • QuoteCharObligatoire :Chaîne UTF-8 (valeurs valides : quote="QUOTE" | quillemet="QUILLEMET" | single_quote="SINGLE_QUOTE" | disabled="DISABLED").

    Indique le caractère à utiliser pour les guillemets. La valeur par défaut est les guillemets doubles : '"'. Définissez ce champ sur -1 pour désactiver entièrement les guillemets.

  • Multiline – Booléen.

    Une valeur booléenne qui indique si un même registre peut couvrir plusieurs lignes. Cela peut se produire lorsqu'un champ contient un caractère de nouvelle ligne. Vous devez définir cette option sur « VRAI » si aucun registre ne s'étend sur plusieurs lignes. La valeur par défaut est False, qui permet un fractionnement en fichiers plus intense pendant l'analyse.

  • WithHeader – Booléen.

    Une valeur booléenne qui indique s'il convient de traiter la première ligne comme un en-tête. La valeur par défaut est False.

  • WriteHeader – Booléen.

    Une valeur booléenne qui indique s'il faut écrire l'en-tête dans la sortie. La valeur par défaut est True.

  • SkipFirst – Booléen.

    Une valeur booléenne qui indique s'il faut ignorer la première ligne de données. La valeur par défaut est False.

  • OptimizePerformance – Booléen.

    Une valeur booléenne qui indique s'il faut utiliser le lecteur CSV SIMD avancé avec les formats de mémoire en colonnes basés sur Apache Arrow. Disponible uniquement dans AWS Glue la version 3.0.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source S3 CSV.

Structure DirectJDBCSource

Indique la connexion directe à la source JDBC.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la connexion à la source JDBC.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Base de données de la connexion à la source JDBC.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Table de la connexion à la source JDBC.

  • ConnectionNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Nom de connexion de la source JDBC.

  • ConnectionTypeObligatoire : Chaîne UTF-8 (valeurs valides : sqlserver | mysql | oracle | postgresql | redshift).

    Type de connexion de la source JDBC.

  • RedshiftTmpDir – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Répertoire temporaire de la source JDBC Redshift.

DirectSourceAdditionalOptions Structure S3

Indique des options de connexion supplémentaires pour le stocker de données Amazon S3.

Champs
  • BoundedSize – Nombre (long).

    Définit la limite supérieure de la dimension cible du jeu de données en octets à traiter.

  • BoundedFiles – Nombre (long).

    Définit la limite supérieure du nombre cible de fichiers à traiter.

  • EnableSamplePath – Booléen.

    Définit l'option d'activation d'un exemple de chemin.

  • SamplePath – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Si cette option est activée, elle indique l'exemple de chemin.

JsonSource Structure S3

Indique un stocker de données JSON stocké dans Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du stocker de données.

  • PathsObligatoire : Tableau de chaînes UTF-8.

    Une liste de chemins Amazon S3 à lire.

  • CompressionType – Chaîne UTF-8 (valeurs valides : gzip="GZIP" | bzip2="BZIP2").

    Indique la manière dont les données sont comprimées. Ce n'est généralement pas nécessaire si le fichier de données a une extension standard. Les valeurs possibles sont "gzip" et "bzip").

  • Exclusions – Tableau de chaînes UTF-8.

    Une chaîne contenant une liste JSON des modèles glob de style Unix à exclure. Par exemple, [\"**.pdf\"] permet d'exclure tous les fichiers PDF.

  • GroupSize – Chaîne UTF-8, correspondant au Custom string pattern #34.

    La dimension du groupe cible, en octets. La valeur par défaut est calculée en fonction de la dimension des données en entrée et de la dimension de votre cluster. Lorsqu'il y a moins de 50 000 fichiers en entrée, "groupFiles" doit être défini sur "inPartition" pour que cela prenne effet.

  • GroupFiles – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le groupement de fichiers est activé par défaut lorsque l'entrée contient plus de 50 000 fichiers. Pour activer le groupement lorsqu'il y a moins de 50 000 fichiers, définissez ce paramètre sur « inPartition ». Pour désactiver le groupement lorsqu'il y a plus de 50 000 fichiers, définissez ce paramètre sur "none".

  • Recurse – Booléen.

    Si ce paramètre est défini sur « VRAI », les fichiers sont lus de manière récursive dans tous les sous-répertoires des chemins spécifiés.

  • MaxBand – Nombre (entier), pas plus qu'Aucun.

    Cette option permet de contrôler la durée, en millisecondes, au delà de laquelle la liste S3 est susceptible d'être cohérente. Les fichiers dont l'horodatage des modifications se situe dans les dernières millisecondes de MaxBand sont suivis, en particulier lors de leur utilisation, afin de tenir compte de la cohérence éventuelle JobBookmarks d'Amazon S3. La plupart des utilisateurs n'ont pas besoin de définir cette option. La valeur par défaut est 900 000 millisecondes, soit 15 minutes.

  • MaxFilesInBand – Nombre (entier), pas plus qu'Aucun.

    Cette option Indique le nombre maximal de fichiers à enregistrer à partir des dernières secondes maxBand. Si ce nombre est dépassé, les fichiers supplémentaires sont ignorés et traités dans l'exécution de tâche suivante.

  • AdditionalOptions – Un objet S3 DirectSourceAdditionalOptions.

    Indique des options de connexion supplémentaires.

  • JsonPath – Chaîne UTF-8, correspondant au Custom string pattern #34.

    JsonPath Chaîne définissant les données JSON.

  • Multiline – Booléen.

    Une valeur booléenne qui indique si un même registre peut couvrir plusieurs lignes. Cela peut se produire lorsqu'un champ contient un caractère de nouvelle ligne. Vous devez définir cette option sur « VRAI » si aucun registre ne s'étend sur plusieurs lignes. La valeur par défaut est False, qui permet un fractionnement en fichiers plus intense pendant l'analyse.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source S3 JSON.

ParquetSource Structure S3

Indique un stocker de données Apache Parquet stocké dans Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du stocker de données.

  • PathsObligatoire : Tableau de chaînes UTF-8.

    Une liste de chemins Amazon S3 à lire.

  • CompressionType – Chaîne UTF-8 (valeurs valides : snappy="SNAPPY" | lzo="LZO" | gzip="GZIP" | uncompressed="UNCOMPRESSED" | none="NONE").

    Indique la manière dont les données sont comprimées. Ce n'est généralement pas nécessaire si le fichier de données a une extension standard. Les valeurs possibles sont "gzip" et "bzip").

  • Exclusions – Tableau de chaînes UTF-8.

    Une chaîne contenant une liste JSON des modèles glob de style Unix à exclure. Par exemple, [\"**.pdf\"] permet d'exclure tous les fichiers PDF.

  • GroupSize – Chaîne UTF-8, correspondant au Custom string pattern #34.

    La dimension du groupe cible, en octets. La valeur par défaut est calculée en fonction de la dimension des données en entrée et de la dimension de votre cluster. Lorsqu'il y a moins de 50 000 fichiers en entrée, "groupFiles" doit être défini sur "inPartition" pour que cela prenne effet.

  • GroupFiles – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le groupement de fichiers est activé par défaut lorsque l'entrée contient plus de 50 000 fichiers. Pour activer le groupement lorsqu'il y a moins de 50 000 fichiers, définissez ce paramètre sur « inPartition ». Pour désactiver le groupement lorsqu'il y a plus de 50 000 fichiers, définissez ce paramètre sur "none".

  • Recurse – Booléen.

    Si ce paramètre est défini sur « VRAI », les fichiers sont lus de manière récursive dans tous les sous-répertoires des chemins spécifiés.

  • MaxBand – Nombre (entier), pas plus qu'Aucun.

    Cette option permet de contrôler la durée, en millisecondes, au delà de laquelle la liste S3 est susceptible d'être cohérente. Les fichiers dont l'horodatage des modifications se situe dans les dernières millisecondes de MaxBand sont suivis, en particulier lors de leur utilisation, afin de tenir compte de la cohérence éventuelle JobBookmarks d'Amazon S3. La plupart des utilisateurs n'ont pas besoin de définir cette option. La valeur par défaut est 900 000 millisecondes, soit 15 minutes.

  • MaxFilesInBand – Nombre (entier), pas plus qu'Aucun.

    Cette option Indique le nombre maximal de fichiers à enregistrer à partir des dernières secondes maxBand. Si ce nombre est dépassé, les fichiers supplémentaires sont ignorés et traités dans l'exécution de tâche suivante.

  • AdditionalOptions – Un objet S3 DirectSourceAdditionalOptions.

    Indique des options de connexion supplémentaires.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source S3 Parquet.

DeltaSource Structure S3

Spécifie une source de données Delta Lake stockée dans Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la source de Delta Lake.

  • PathsObligatoire : Tableau de chaînes UTF-8.

    Une liste de chemins Amazon S3 à lire.

  • AdditionalDeltaOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires.

  • AdditionalOptions – Un objet S3 DirectSourceAdditionalOptions.

    Indique les options supplémentaires du connecteur.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source Delta Lake.

CatalogDeltaSource Structure S3

Spécifie une source de données Delta Lake enregistrée dans le catalogue de AWS Glue données. La source de données doit être stockée dans Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la source de données Delta Lake.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

  • AdditionalDeltaOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source Delta Lake.

CatalogDeltaSource structure

Spécifie une source de données Delta Lake enregistrée dans le catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la source de données Delta Lake.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

  • AdditionalDeltaOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source Delta Lake.

HudiSource Structure S3

Spécifie une source de données Hudi stockée dans. Amazon S3

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source Hudi.

  • PathsObligatoire : Tableau de chaînes UTF-8.

    Une liste de chemins Amazon S3 à lire.

  • AdditionalHudiOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires.

  • AdditionalOptions – Un objet S3 DirectSourceAdditionalOptions.

    Indique les options supplémentaires du connecteur.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source Hudi.

CatalogHudiSource Structure S3

Spécifie une source de données Hudi enregistrée dans le catalogue de AWS Glue données. La source de données Hudi doit être stockée dans Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données Hudi.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

  • AdditionalHudiOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source Hudi.

CatalogHudiSource structure

Spécifie une source de données Hudi enregistrée dans le catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données Hudi.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

  • AdditionalHudiOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la source Hudi.

Structure DynamoDB CatalogSource

Spécifie une source de données DynamoDB dans AWS Glue le catalogue de données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

RelationalCatalogSource structure

Indique une source de données de base de données relationnelle dans le catalogue de données AWS Glue .

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de la source de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table dans la base de données à partir de laquelle lire les données.

Structure JDBC ConnectorTarget

Indique une cible de données qui écrit sur Amazon S3 dans un stockage en colonnes Apache Parquet.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • ConnectionNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la connexion associée au connecteur.

  • ConnectionTableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #35.

    Le nom de la table dans la cible de données.

  • ConnectorNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom d'un connecteur qui sera utilisé.

  • ConnectionTypeObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Type de connexion, tel que marketplace.jdbc ou custom.jdbc, désignant une connexion à une cible de données JDBC.

  • AdditionalOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Options de connexion supplémentaires pour le connecteur.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la cible JDBC.

SparkConnectorTarget structure

Indique une cible qui utilise un connecteur Apache Spark.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • ConnectionNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom d'une connexion pour un connecteur Apache Spark.

  • ConnectorNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom d'un connecteur Apache Spark.

  • ConnectionTypeObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Type de connexion, tel que marketplace.spark ou custom.spark, désignant une connexion à un stocker de données Apache Spark.

  • AdditionalOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Options de connexion supplémentaires pour le connecteur.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la cible Spark personnalisée.

BasicCatalogTarget structure

Spécifie une cible qui utilise une table AWS Glue de catalogue de données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de votre cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    La base de données où se trouve la table que vous souhaitez utiliser comme cible. Cette base de données doit déjà exister dans le catalogue de données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    La table qui définit le schéma de vos données de sortie. Cette table doit déjà exister dans le catalogue de données..

CatalogTarget Structure de MySQL

Indique une cible qui utilise MySQL.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

Structure de PostgreSQL CatalogTarget

Indique une cible qui utilise Postgre SQL.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

Structure d'Oracle SQL CatalogTarget

Indique une cible qui utilise Oracle SQL.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

Structure de Microsoft SQL ServerCatalogTarget

Indique une cible qui utilise Microsoft SQL.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

RedshiftTarget structure

Indique une cible qui utilise Amazon Redshift.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

  • RedshiftTmpDir – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Chemin Amazon S3 où les données temporaires peuvent être stockées lors de la copie à partir de la base de données.

  • TmpDirIAMRole – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le rôle IAM avec les autorisations.

  • UpsertRedshiftOptions – Un objet UpsertRedshiftTargetOptions.

    Jeu d'options permettant de configurer une opération de mise à jour/insertion lors de l'écriture vers une cible Redshift.

AmazonRedshiftTarget structure

Indique une cible Amazon Redshift.

Champs
  • Name – Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible Amazon Redshift.

  • Data – Un objet AmazonRedshiftNodeData.

    Indique les données du nœud cible Amazon Redshift.

  • Inputs : tableau de chaînes UTF-8, avec une chaîne minimum et une chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

UpsertRedshiftTargetOptions structure

Options permettant de configurer une opération de mise à jour/insertion lors de l'écriture vers une cible Redshift.

Champs
  • TableLocation – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Emplacement physique de la table Redshift.

  • ConnectionName – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Nom de la connexion à utiliser pour écrire dans Redshift.

  • UpsertKeys – Tableau de chaînes UTF-8.

    Clés utilisées pour déterminer si une opération de mise à jour ou d'insertion est nécessaire.

CatalogTarget Structure S3

Spécifie une cible de données qui écrit sur Amazon S3 à l'aide du catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • PartitionKeys – Tableau de chaînes UTF-8.

    Indique le partitionnement natif à l'aide d'une séquence de clés.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • SchemaChangePolicy – Un objet CatalogSchemaChangePolicy.

    Une politique qui indique les évolutions de mise à jour pour le crawler.

GlueParquetTarget Structure S3

Indique une cible de données qui écrit sur Amazon S3 dans un stockage en colonnes Apache Parquet.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • PartitionKeys – Tableau de chaînes UTF-8.

    Indique le partitionnement natif à l'aide d'une séquence de clés.

  • PathObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Un seul chemin Amazon S3 sur lequel écrire.

  • Compression – Chaîne UTF-8 (valeurs valides : snappy="SNAPPY" | lzo="LZO" | gzip="GZIP" | uncompressed="UNCOMPRESSED" | none="NONE").

    Indique la manière dont les données sont comprimées. Ce n'est généralement pas nécessaire si le fichier de données a une extension standard. Les valeurs possibles sont "gzip" et "bzip").

  • SchemaChangePolicy – Un objet DirectSchemaChangePolicy.

    Une politique qui indique les évolutions de mise à jour pour le crawler.

CatalogSchemaChangePolicy structure

Une politique qui indique des comportements de mise à jour pour l'crawler.

Champs
  • EnableUpdateCatalog – Booléen.

    S'il faut utiliser ou non le comportement de mise à jour spécifié lorsque l'crawler détecte un schéma modifié.

  • UpdateBehavior – Chaîne UTF-8 (valeurs valides : UPDATE_IN_DATABASE | LOG).

    Comportement de mise à jour lorsque le crawler détecte un schéma modifié.

DirectTarget Structure S3

Indique une cible de données qui écrit dans Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • PartitionKeys – Tableau de chaînes UTF-8.

    Indique le partitionnement natif à l'aide d'une séquence de clés.

  • PathObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Un seul chemin Amazon S3 sur lequel écrire.

  • Compression – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique la manière dont les données sont comprimées. Ce n'est généralement pas nécessaire si le fichier de données a une extension standard. Les valeurs possibles sont "gzip" et "bzip").

  • Format Obligatoire : Chaîne UTF-8 (valeurs valides : json="JSON" | csv="CSV" | avro="AVRO" | orc="ORC" | parquet="PARQUET" | hudi="HUDI" | delta="DELTA").

    Définit le format de sortie des données pour la cible.

  • SchemaChangePolicy – Un objet DirectSchemaChangePolicy.

    Une politique qui indique les évolutions de mise à jour pour le crawler.

HudiCatalogTarget Structure S3

Spécifie une cible qui écrit dans une source de données Hudi du catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • PartitionKeys – Tableau de chaînes UTF-8.

    Indique le partitionnement natif à l'aide d'une séquence de clés.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • AdditionalOptionsobligatoire : tableau de mappage de paires clé-valeur.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires pour le connecteur.

  • SchemaChangePolicy – Un objet CatalogSchemaChangePolicy.

    Une politique qui indique les évolutions de mise à jour pour le crawler.

HudiDirectTarget Structure S3

Spécifie une cible qui écrit dans une source de données Hudi en Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • PathObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le chemin d'accès Amazon S3 de votre source de données Hudi sur laquelle écrire.

  • CompressionObligatoire :Chaîne UTF-8 (valeurs valides : gzip="GZIP" | lzo="LZO" | uncompressed="UNCOMPRESSED" | snappy="SNAPPY").

    Indique la manière dont les données sont comprimées. Ce n'est généralement pas nécessaire si le fichier de données a une extension standard. Les valeurs possibles sont "gzip" et "bzip").

  • PartitionKeys – Tableau de chaînes UTF-8.

    Indique le partitionnement natif à l'aide d'une séquence de clés.

  • Format Obligatoire : Chaîne UTF-8 (valeurs valides : json="JSON" | csv="CSV" | avro="AVRO" | orc="ORC" | parquet="PARQUET" | hudi="HUDI" | delta="DELTA").

    Définit le format de sortie des données pour la cible.

  • AdditionalOptionsobligatoire : tableau de mappage de paires clé-valeur.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires pour le connecteur.

  • SchemaChangePolicy – Un objet DirectSchemaChangePolicy.

    Une politique qui indique les évolutions de mise à jour pour le crawler.

DeltaCatalogTarget Structure S3

Spécifie une cible qui écrit dans une source de données Delta Lake dans le catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • PartitionKeys – Tableau de chaînes UTF-8.

    Indique le partitionnement natif à l'aide d'une séquence de clés.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • AdditionalOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires pour le connecteur.

  • SchemaChangePolicy – Un objet CatalogSchemaChangePolicy.

    Une politique qui indique les évolutions de mise à jour pour le crawler.

DeltaDirectTarget Structure S3

Spécifie une cible qui écrit dans une source de données de Delta Lake dans Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • PartitionKeys – Tableau de chaînes UTF-8.

    Indique le partitionnement natif à l'aide d'une séquence de clés.

  • PathObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le chemin d'accès Amazon S3 de votre source de données Delta Lake sur laquelle écrire.

  • CompressionObligatoire : Chaîne UTF-8 (valeurs valides : uncompressed="UNCOMPRESSED" | snappy="SNAPPY").

    Indique la manière dont les données sont comprimées. Ce n'est généralement pas nécessaire si le fichier de données a une extension standard. Les valeurs possibles sont "gzip" et "bzip").

  • Format Obligatoire : Chaîne UTF-8 (valeurs valides : json="JSON" | csv="CSV" | avro="AVRO" | orc="ORC" | parquet="PARQUET" | hudi="HUDI" | delta="DELTA").

    Définit le format de sortie des données pour la cible.

  • AdditionalOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique des options de connexion supplémentaires pour le connecteur.

  • SchemaChangePolicy – Un objet DirectSchemaChangePolicy.

    Une politique qui indique les évolutions de mise à jour pour le crawler.

DirectSchemaChangePolicy structure

Une politique qui indique des comportements de mise à jour pour l'crawler.

Champs
  • EnableUpdateCatalog – Booléen.

    S'il faut utiliser ou non le comportement de mise à jour spécifié lorsque l'crawler détecte un schéma modifié.

  • UpdateBehavior – Chaîne UTF-8 (valeurs valides : UPDATE_IN_DATABASE | LOG).

    Comportement de mise à jour lorsque l'crawler détecte un schéma modifié.

  • Table – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique la table de la base de données à laquelle s'applique la politique de modification du schéma.

  • Database – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique la base de données à laquelle s'applique la politique de modification du schéma.

ApplyMapping structure

Indique une transformation qui mappe les clés de propriétés de données de la source de données aux clés de propriété de données de la cible de données. Vous pouvez renommer les clés, modifier leur type de données et choisir les clés à supprimer du jeu de données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • MappingObligatoire : Un tableau d'objets Mappage.

    Indique le mappage des clés de propriétés de données de la source de données avec les clés de propriétés de données de la cible de données.

Structure de mappage

Indique le mappage des clés de propriété de données.

Champs
  • ToKey – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Après le mappage d'application, quel nom donner à la colonne. Peut être similaire à FromPath.

  • FromPath – Tableau de chaînes UTF-8.

    La table ou la colonne à modifier.

  • FromType – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le type des données à modifier.

  • ToType – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le type de données sous lequel les données doivent être modifiées.

  • Dropped – Booléen.

    Si ce paramètre est défini sur « VRAI », la colonne est supprimée.

  • Children – Un tableau d'objets Mappage.

    S'applique uniquement aux structures de données imbriquées. Si vous souhaitez modifier la structure parente, mais également l'un de ses enfants, vous pouvez remplir cette structure de données. C'est aussi Mapping, mais son FromPath sera le FromPath du parent plus le FromPath provenant de cette structure.

    Pour la partie enfants, supposons que vous ayez la structure suivante :

    { "FromPath": "OuterStructure", "ToKey": "OuterStructure", "ToType": "Struct", "Dropped": false, "Chidlren": [{ "FromPath": "inner", "ToKey": "inner", "ToType": "Double", "Dropped": false, }] }

    Vous pouvez Indiquer un Mapping qui se présente sous la forme suivante :

    { "FromPath": "OuterStructure", "ToKey": "OuterStructure", "ToType": "Struct", "Dropped": false, "Chidlren": [{ "FromPath": "inner", "ToKey": "inner", "ToType": "Double", "Dropped": false, }] }

SelectFields structure

Indique une transformation qui choisit les clés de propriété de données que vous souhaitez conserver.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • PathsObligatoire : Tableau de chaînes UTF-8.

    Un chemin JSON vers une variable de la structure de données.

DropFields structure

Indique une transformation qui choisit les clés de propriété de données que vous souhaitez supprimer.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • PathsObligatoire : Tableau de chaînes UTF-8.

    Un chemin JSON vers une variable de la structure de données.

RenameField structure

Indique une transformation qui renomme une clé de propriété de données unique.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • SourcePathObligatoire : Tableau de chaînes UTF-8.

    Un chemin JSON vers une variable de la structure de données pour les données source.

  • TargetPathObligatoire : Tableau de chaînes UTF-8.

    Un chemin JSON vers une variable de la structure de données pour les données cibles.

Structure Spigot

Indique une transformation qui écrit des échantillons de données dans un compartiment Amazon S3.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • PathObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Un chemin dans Amazon S3 où la transformation écrira un sous-ensemble de registres à partir du jeu de données dans un fichier JSON situé dans un compartiment Amazon S3.

  • Topk – Nombre (entier), 100 au maximum.

    Indique un certain nombre de registres à écrire à partir du début du jeu de données.

  • Prob – Nombre (double), 1 au maximum.

    La probabilité (valeur décimale ayant une valeur maximale de 1) de prélèvement d'un registre donné. La valeur 1 indique que chaque ligne lue à partir du jeu de données doit être incluse dans l'exemple de sortie.

Structure Join

Indique une transformation qui joint deux jeux de données en un jeu de données à l'aide d'une phrase de comparaison sur les clés de propriété de données spécifiées. Vous pouvez utiliser des jointures internes (ou intérieures), externes (ou extérieures), gauche, droite, semi gauche et anti gauche.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 2 chaînes minimum et 2 chaînes maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • JoinTypeObligatoire : Chaîne UTF-8 (valeurs valides : equijoin="EQUIJOIN" | left="LEFT" | right="RIGHT" | outer="OUTER" | leftsemi="LEFT_SEMI" | leftanti="LEFT_ANTI").

    Indique le type de jointure à effectuer sur les jeux de données.

  • ColumnsObligatoire : Tableau d'objets JoinColumn, 2 structures minimum et 2 structures maximum.

    Liste des deux colonnes à joindre.

JoinColumn structure

Indique une colonne à joindre.

Champs
  • FromObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    La colonne à joindre.

  • KeysObligatoire : Tableau de chaînes UTF-8.

    La clé de la colonne à joindre.

SplitFields structure

Indique une transformation qui divise les clés de propriété de données en deux DynamicFrames. Le résultat est une collection de DynamicFrames : une avec les clés de propriété de données sélectionnées, et une autre avec les clés de propriété de données restantes.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • PathsObligatoire : Tableau de chaînes UTF-8.

    Un chemin JSON vers une variable de la structure de données.

SelectFromCollection structure

Indique une transformation qui en choisit une DynamicFrame provenant d'une collection de DynamicFrames. Le résultat est le DynamicFrame sélectionné

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • IndexObligatoire : Nombre (entier), pas plus qu'Aucun.

    L'index du DynamicFrame à sélectionner.

FillMissingValues structure

Précise une transformation qui localise les registres dans le jeu de données dont les valeurs sont manquantes et ajoute un nouveau champ avec une valeur déterminée par imputation. Le jeu de données source est utilisé pour entraîner le modèle de machine learning (ML) qui détermine la valeur manquante.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • ImputedPathObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Un chemin JSON vers une variable de la structure de données pour le jeu de données attribué.

  • FilledPath – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Un chemin JSON vers une variable de la structure de données pour le jeu de données rempli.

Structure Filtre

Indique une transformation qui divise un jeu de données en deux, en fonction d'une condition de filtre.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • LogicalOperatorObligatoire : Chaîne UTF-8 (valeurs valides : AND | OR).

    L'opérateur utilisé pour filtrer les lignes en comparant la valeur clé à une valeur spécifiée.

  • FiltersObligatoire : Un tableau d'objets FilterExpression.

    Indique une expression de filtre.

FilterExpression structure

Indique une expression de filtre.

Champs
  • Operation Obligatoire : Chaîne UTF-8 (valeurs valides : EQ | LT | GT | LTE | GTE | REGEX | ISNULL).

    Le type d'opération à effectuer dans l'expression.

  • Negated – Booléen.

    Indique si l'expression doit être annulée.

  • ValuesObligatoire : Un tableau d'objets FilterValue.

    Une liste de valeurs de filtre.

FilterValue structure

Représente une entrée unique dans la liste de valeurs de FilterExpression.

Champs
  • TypeObligatoire : Chaîne UTF-8 (valeurs valides : COLUMNEXTRACTED | CONSTANT).

    Le type de valeur de filtre.

  • ValueObligatoire : Tableau de chaînes UTF-8.

    La valeur à associer.

CustomCode structure

Indique une transformation qui utilise le code personnalisé que vous fournissez pour effectuer la transformation des données. La sortie est une collection de DynamicFrames.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, au moins 1 chaîne.

    Les entrées de données identifiées par leurs noms de nœuds.

  • CodeObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #29.

    Le code personnalisé utilisé pour effectuer la transformation des données.

  • ClassNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom défini pour la classe de nœuds de code personnalisée.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la transformation du code personnalisé.

Structure SparkSQL

Indique une transformation dans laquelle vous saisissez une requête SQL à l'aide de la syntaxe Spark SQL pour transformer les données. Le résultat est un DynamicFrame unique.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, au moins 1 chaîne.

    Les entrées de données identifiées par leurs noms de nœuds. Vous pouvez associer un nom de table à chaque nœud d'entrée à utiliser dans la requête SQL. Le nom que vous choisissez doit respecter les restrictions de dénomination Spark SQL.

  • SqlQueryObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #36.

    Une requête SQL qui doit utiliser la syntaxe Spark SQL et renvoyer un jeu de données unique.

  • SqlAliasesObligatoire : Un tableau d'objets SqlAlias.

    Liste d’alias Un alias vous autorise de spécifier le nom à utiliser dans SQL pour une entrée donnée. Par exemple, vous avez une source de données nommée « MyDataSource ». Si vous spécifiez From as MyDataSource et Alias as SqlName, alors dans votre code SQL, vous pouvez faire :

    select * from SqlName

    et qui obtient des données de MyDataSource.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la transformation SparkSQL.

SqlAlias structure

Représente une entrée unique dans la liste de valeurs de SqlAliases.

Champs
  • FromObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #33.

    Une table ou une colonne d'une table.

  • AliasObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #35.

    Un nom temporaire donné à une table ou à une colonne d'une table.

DropNullFields structure

Indique une transformation qui supprime les colonnes du jeu de données si toutes les valeurs de la colonne sont « nulles ». Par défaut, AWS Glue Studio reconnaît les objets nuls, mais certaines valeurs telles que les chaînes vides, les chaînes « nulles », les entiers -1 ou d'autres espaces réservés tels que les zéros ne sont pas automatiquement reconnues comme nulles.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • NullCheckBoxList – Un objet NullCheckBoxList.

    Une structure qui indique si certaines valeurs sont reconnues comme des valeurs null en vue de la suppression.

  • NullTextList – Un tableau d'objets NullValueField, 50 structures maximum.

    Structure qui spécifie une liste de NullValueField structures représentant une valeur nulle personnalisée telle que zéro ou une autre valeur utilisée comme espace réservé nul propre à l'ensemble de données.

    La transformation DropNullFields supprime les valeurs nulles personnalisées uniquement, si la valeur de l'espace réservé nul et du type de données correspondent aux données.

NullCheckBoxList structure

Indique si certaines valeurs sont reconnues comme des valeurs null en vue de la suppression.

Champs
  • IsEmpty – Booléen.

    Indique qu'une chaîne vide est considérée comme une valeur null.

  • IsNullString – Booléen.

    Indique qu'une valeur révélant le mot « null » est considérée comme une valeur null.

  • IsNegOne – Booléen.

    Indique qu'une valeur entière de -1 est considérée comme une valeur null.

NullValueField structure

Représente une valeur null personnalisée telle qu'un zéro ou une autre valeur utilisée comme espace réservé null unique pour le jeu de données.

Champs
  • ValueObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    La valeur de l'espace réservé null.

  • DatatypeObligatoire : un objet Datatype.

    Le type de données de la valeur.

Structure Datatype

Une structure représentant le type de données de la valeur.

Champs

Structure Fusion

Indique une transformation qui fusionne une DynamicFrame avec une DynamicFrame intermédiaire basée sur les clés primaires spécifiées pour identifier les registres. Les registres en double (registres avec les mêmes clés primaires) ne sont pas dédupliqués.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 2 chaînes minimum et 2 chaînes maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • SourceObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #33.

    La source DynamicFrame qui sera fusionnée avec une DynamicFrame intermédiaire.

  • PrimaryKeysObligatoire : Tableau de chaînes UTF-8.

    La liste des champs de clé primaire permettant de faire correspondre les registres des trames dynamiques source et intermédiaire.

Structure Union

Indique une transformation qui combine les lignes de deux jeux de données ou plus en un seul résultat.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 2 chaîne minimum et 2 chaîne maximum.

    Les entrées de l'ID du nœud dans la transformation.

  • UnionTypeObligatoire : Chaîne UTF-8 (valeurs valides : ALL | DISTINCT).

    Indique le type de transformation Union.

    Spécifiez ALL de joindre toutes les lignes des sources de données au résultat DynamicFrame. L'union qui en résulte ne supprime pas les lignes en double.

    Spécifiez DISTINCT de supprimer les lignes dupliquées dans le résultat DynamicFrame.

Structure PIIDetection

Indique une transformation qui identifie, supprime ou masque les données d'informations personnelles identifiables (PII).

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de l'ID du nœud dans la transformation.

  • PiiTypeObligatoire :Chaîne UTF-8 (valeurs valides : RowAudit | RowMasking | ColumnAudit | ColumnMasking).

    Indique le type de transformation PIIDetection.

  • EntityTypesToDetectObligatoire : Tableau de chaînes UTF-8.

    Indique les types d'entités que la transformation PIIDetection identifiera en tant que données PII.

    Les entités de type PII comprennent : PERSON_NAME, DATE, USA_SNN, EMAIL, USA_ITIN, USA_PASSPORT_NUMBER, PHONE_NUMBER, BANK_ACCOUNT, IP_ADDRESS, MAC_ADDRESS, USA_CPT_CODE, USA_HCPCS_CODE, USA_NATIONAL_DRUG_CODE, USA_MEDICARE_BENEFICIARY_IDENTIFIER, USA_HEALTH_INSURANCE_CLAIM_NUMBER, CREDIT_CARD, USA_NATIONAL_PROVIDER_IDENTIFIER, USA_DEA_NUMBER, USA_DRIVING_LICENSE

  • OutputColumnName – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique le nom de la colonne de sortie qui contiendra tout type d'entité détecté dans cette ligne.

  • SampleFraction – Nombre (double), 1 au maximum.

    Indique la fraction des données à échantillonner lors de la recherche d'entités PII.

  • ThresholdFraction – Nombre (double), 1 au maximum.

    Indique la fraction des données qui doit être satisfaite pour qu'une colonne soit identifiée comme données PII.

  • MaskValue – chaîne UTF-8, d'une longueur ne dépassant pas 256 octets, correspondant au Custom string pattern #31.

    Indique la valeur qui remplacera l'entité détectée.

Structure Aggregate

Indique une transformation qui regroupe les lignes par champs choisis et calcule la valeur agrégée par fonction spécifiée.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Indique les champs et les lignes à utiliser comme entrées pour la transformation agrégée.

  • GroupsObligatoire : Tableau de chaînes UTF-8.

    Indique les champs à regrouper.

  • Aggs – Obligatoire : tableau d'objets AggregateOperation, 1 structure minimum et 30 structures maximum.

    Indique les fonctions d'agrégation à exécuter sur des champs spécifiés.

DropDuplicates structure

Indique une transformation qui supprime des lignes de données répétitives d'un jeu de données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud de transformation.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les entrées de données identifiées par leurs noms de nœuds.

  • Columns – Tableau de chaînes UTF-8.

    Nom des colonnes à fusionner ou à supprimer en cas de répétition.

GovernedCatalogTarget structure

Spécifie une cible de données qui écrit sur Amazon S3 à l'aide du catalogue de AWS Glue données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible de données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

  • PartitionKeys – Tableau de chaînes UTF-8.

    Indique le partitionnement natif à l'aide d'une séquence de clés.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la table de la base de données dans laquelle écrire les données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Le nom de la base de données dans laquelle écrire les données.

  • SchemaChangePolicy – Un objet CatalogSchemaChangePolicy.

    Politique qui indique des comportements de mise à jour pour le catalogue gouverné.

GovernedCatalogSource structure

Spécifie le magasin de données dans le catalogue de AWS Glue données régi.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du stocker de données.

  • DatabaseObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    La base de données à partir de laquelle lire les données.

  • TableObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Table de base de données à lire.

  • PartitionPredicate – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Les partitions satisfaisant à ce prédicat sont supprimées. Les fichiers qui se situent dans la période de conservation pour ces partitions ne sont pas supprimés. Valeur définie sur "" – vide par défaut.

  • AdditionalOptions – Un objet S3 SourceAdditionalOptions.

    Indique des options de connexion supplémentaires.

AggregateOperation structure

Indique l'ensemble de paramètres permettant d'effectuer l'agrégation de la transformation agrégée.

Champs
  • ColumnObligatoire : Tableau de chaînes UTF-8.

    Indique la colonne du jeu de données sur lequel la fonction d'agrégation sera appliquée.

  • AggFunc – Obligatoire :chaîne UTF-8 (valeurs valides : avg | countDistinct | count | first | last | kurtosis | max | min | skewness | stddev_samp | stddev_pop | sum | sumDistinct | var_samp | var_pop).

    Indique la fonction d'agrégation à appliquer.

    Les fonctions d'agrégation possibles incluent : avg countDistinct, count, first, last, kurtosis, max, min, skewness, stddev_samp, stddev_pop, sum, sumDistinct, var_samp, var_pop

GlueSchema structure

Indique un schéma défini par l'utilisateur lorsqu'un schéma ne peut pas être déterminé par AWS Glue.

Champs
  • Columns – Un tableau d'objets GlueStudioSchemaColumn.

    Spécifie les définitions de colonnes qui constituent un AWS Glue schéma.

GlueStudioSchemaColumn structure

Spécifie une seule colonne dans une définition de AWS Glue schéma.

Champs
  • Name : Requis : chaîne UTF-8, d'une longueur maximale de 1 024 octets, correspondant au Single-line string pattern.

    Nom de la colonne dans le schéma AWS Glue Studio.

  • Type – Chaîne UTF-8, d'une longueur maximale de 131 072 octets, correspondant au Single-line string pattern.

    Type de ruche pour cette colonne dans le schéma AWS Glue Studio.

GlueStudioColumn structure

Spécifie une seule colonne dans AWS GlueStudio.

Champs
  • KeyObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #35.

    La clé de la colonne dans AWS Glue Studio.

  • FullPathObligatoire : Tableau de chaînes UTF-8.

    URL complète de la colonne dans AWS Glue Studio.

  • Type : requis : chaîne UTF-8 (valeurs valides : array="ARRAY" | bigint="BIGINT" | bigint array="BIGINT_ARRAY" | binary="BINARY" | binary array="BINARY_ARRAY" | boolean="BOOLEAN" | boolean array="BOOLEAN_ARRAY" | byte="BYTE" | byte array="BYTE_ARRAY" | char="CHAR" | char array="CHAR_ARRAY" | choice="CHOICE" | choice array="CHOICE_ARRAY" | date="DATE" | date array="DATE_ARRAY" | decimal="DECIMAL" | decimal array="DECIMAL_ARRAY" | double="DOUBLE" | double array="DOUBLE_ARRAY" | enum="ENUM" | enum array="ENUM_ARRAY" | float="FLOAT" | float array="FLOAT_ARRAY" | int="INT" | int array="INT_ARRAY" | interval="INTERVAL" | interval array="INTERVAL_ARRAY" | long="LONG" | long array="LONG_ARRAY" | object="OBJECT" | short="SHORT" | short array="SHORT_ARRAY" | smallint="SMALLINT" | smallint array="SMALLINT_ARRAY" | string="STRING" | string array="STRING_ARRAY" | timestamp="TIMESTAMP" | timestamp array="TIMESTAMP_ARRAY" | tinyint="TINYINT" | tinyint array="TINYINT_ARRAY" | varchar="VARCHAR" | varchar array="VARCHAR_ARRAY" | null="NULL" | unknown="UNKNOWN" | unknown array="UNKNOWN_ARRAY").

    Type de colonne dans AWS Glue Studio.

  • Children : tableau d'une structure.

    Les enfants de la colonne parent dans AWS Glue Studio.

DynamicTransform structure

Spécifie l'ensemble de paramètres permettant d'effectuer la transformation dynamique.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Spécifie le nom de la transformation dynamique.

  • TransformNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Spécifie le nom de la transformation dynamique tel qu'il apparaît dans l'éditeur visuel de AWS Glue Studio.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Spécifie les entrées requises pour la transformation dynamique.

  • Parameters – Un tableau d'objets TransformConfigParameter.

    Spécifie les paramètres de la transformation dynamique.

  • FunctionNameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Spécifie le nom de la fonction de la transformation dynamique.

  • PathObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Spécifie le chemin de la source de transformation dynamique et des fichiers de configuration.

  • Version – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Ce champ n'est pas utilisé et sera obsolète dans une version ultérieure.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique le schéma de données de la transformation dynamique.

TransformConfigParameter structure

Spécifie les paramètres du fichier de configuration de la transformation dynamique.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    Spécifie le nom du paramètre dans le fichier de configuration de la transformation dynamique.

  • Type Obligatoire : Chaîne UTF-8 (valeurs valides : str="STR" | int="INT" | float="FLOAT" | complex="COMPLEX" | bool="BOOL" | list="LIST" | null="NULL").

    Spécifie le type de paramètre dans le fichier de configuration de la transformation dynamique.

  • ValidationRule – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Spécifie la règle de validation dans le fichier de configuration de la transformation dynamique.

  • ValidationMessage – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Spécifie le message de validation dans le fichier de configuration de la transformation dynamique.

  • Value – Tableau de chaînes UTF-8.

    Spécifie la valeur du paramètre dans le fichier de configuration de la transformation dynamique.

  • ListType – Chaîne UTF-8 (valeurs valides: str="STR" | int="INT" | float="FLOAT" | complex="COMPLEX" | bool="BOOL" | list="LIST" | null="NULL").

    Spécifie le type de liste du paramètre dans le fichier de configuration de la transformation dynamique.

  • IsOptional – Booléen.

    Spécifie si le paramètre est facultatif ou non dans le fichier de configuration de la transformation dynamique.

EvaluateDataQuality structure

Spécifie vos critères d'évaluation de la qualité des données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de l'évaluation de la qualité des données.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Entrées de votre évaluation de la qualité des données.

  • RulesetObligatoire : Chaîne UTF-8, d'une longueur comprise entre 1 et 65536 octets, correspondant au Custom string pattern #32.

    Ensemble de règles pour l'évaluation de la qualité de vos données.

  • Output – Chaîne UTF-8 (valeurs valides : PrimaryInput | EvaluationResults).

    Résultat de votre évaluation de la qualité des données.

  • PublishingOptions – Un objet DQ ResultsPublishingOptions.

    Options permettant de configurer le mode de publication de vos résultats.

  • StopJobOnFailureOptions – Un objet DQ StopJobOnFailureOptions.

    Options permettant de configurer le mode d'interruption de votre tâche en cas d'échec de l'évaluation de la qualité des données.

Structure du DQ ResultsPublishingOptions

Options permettant de configurer le mode de publication des résultats de votre évaluation de la qualité des données.

Champs
  • EvaluationContext – Chaîne UTF-8, correspondant au Custom string pattern #33.

    Contexte de l'évaluation.

  • ResultsS3Prefix – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Préfixe Amazon S3 ajouté aux résultats.

  • CloudWatchMetricsEnabled – Booléen.

    Activez les métriques pour vos résultats de qualité des données.

  • ResultsPublishingEnabled – Booléen.

    Activez la publication pour vos résultats de qualité des données.

Structure du DQ StopJobOnFailureOptions

Options permettant de configurer le mode d'interruption de votre tâche en cas d'échec de l'évaluation de la qualité des données.

Champs
  • StopJobOnFailureTiming – Chaîne UTF-8 (valeurs valides : Immediate | AfterDataLoad).

    Quand arrêter la tâche en cas d'échec de votre évaluation de la qualité des données. Les options sont immédiates ou AfterDataLoad.

EvaluateDataQualityMultiFrame structure

Spécifie vos critères d'évaluation de la qualité des données.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de l'évaluation de la qualité des données.

  • InputsObligatoire : Tableau de chaînes UTF-8, au moins 1 chaîne.

    Entrées de votre évaluation de la qualité des données. La première entrée de cette liste est la source de données principale.

  • AdditionalDataSources – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #37.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Les alias de toutes les sources de données, à l'exception de la source principale.

  • RulesetObligatoire : Chaîne UTF-8, d'une longueur comprise entre 1 et 65536 octets, correspondant au Custom string pattern #32.

    Ensemble de règles pour l'évaluation de la qualité de vos données.

  • PublishingOptions – Un objet DQ ResultsPublishingOptions.

    Options permettant de configurer le mode de publication de vos résultats.

  • AdditionalOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8 (valeurs valides : performanceTuning.caching="CacheOption" | observations.scope="ObservationsOption").

    Chaque valeur est une chaîne UTF-8.

    Options permettant de configurer le comportement d'exécution de la transformation.

  • StopJobOnFailureOptions – Un objet DQ StopJobOnFailureOptions.

    Options permettant de configurer le mode d'interruption de votre tâche en cas d'échec de l'évaluation de la qualité des données.

Structure de la recette

Un nœud AWS Glue Studio qui utilise une AWS Glue DataBrew recette dans les AWS Glue tâches.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom du nœud AWS Glue Studio.

  • InputsObligatoire : Tableau de chaînes UTF-8, avec 1 chaîne minimum et 1 chaîne maximum.

    Les nœuds qui sont des entrées du nœud de recette, identifiés par un identifiant.

  • RecipeReferenceObligatoire : un objet RecipeReference.

    Référence à la DataBrew recette utilisée par le nœud.

RecipeReference structure

Référence à une AWS Glue DataBrew recette.

Champs
  • RecipeArnObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    L'ARN de la DataBrew recette.

  • RecipeVersionobligatoire : chaîne UTF-8, d'une longueur comprise entre 1 et 16 octets.

    Celui RecipeVersion de la DataBrew recette.

SnowflakeNodeData structure

Spécifie la configuration des nœuds Snowflake dans Studio. AWS Glue

Champs
  • SourceType – Chaîne UTF-8, correspondant au Custom string pattern #33.

    Indique la manière dont les données extraites sont spécifiées. Valeurs valides : "table", "query".

  • Connection – Un objet Option.

    Spécifie une connexion au catalogue de AWS Glue données à un point de terminaison Snowflake.

  • Schema – Chaîne UTF-8.

    Indique un schéma de base de données Snowflake que votre nœud doit utiliser.

  • Table – Chaîne UTF-8.

    Indique une table Snowflake que votre nœud doit utiliser.

  • Database – Chaîne UTF-8.

    Indique une base de données Snowflake que votre nœud doit utiliser.

  • TempDir – Chaîne UTF-8, correspondant au Custom string pattern #34.

    Non utilisé actuellement.

  • IamRole – Un objet Option.

    Non utilisé actuellement.

  • AdditionalOptions – Tableau de mappage de paires valeur-clé.

    Chaque clé est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Chaque valeur est une chaîne UTF-8, correspondant au Custom string pattern #34.

    Indique les options supplémentaires transmises au connecteur Snowflake. Si des options sont spécifiées ailleurs dans ce nœud, elles seront prioritaires.

  • SampleQuery – Chaîne UTF-8.

    Une chaîne SQL utilisée pour récupérer des données avec le type source query.

  • PreAction – Chaîne UTF-8.

    Une chaîne SQL exécutée avant que le connecteur Snowflake n'exécute ses actions standard.

  • PostAction – Chaîne UTF-8.

    Une chaîne SQL exécutée après que le connecteur Snowflake a exécuté ses actions standard.

  • Action – Chaîne UTF-8.

    Indique l'action à effectuer lors de l'écriture dans une table contenant des données préexistantes. Valeurs valides: append, merge, truncate, drop.

  • Upsert – Booléen.

    Utilisé lorsque action est append. Indique le comportement de résolution lorsqu'une ligne existe déjà. Si la valeur est vraie, les lignes préexistantes seront mises à jour. Si la valeur est fausse, ces lignes seront insérées.

  • MergeAction – Chaîne UTF-8, correspondant au Custom string pattern #33.

    Indique une action de fusion. Valeurs valides : simple, custom. S'il la valeur est simple, le comportement de fusion est défini par MergeWhenMatched et MergeWhenNotMatched. Si la valeur est personnalisée, il est défini par MergeClause.

  • MergeWhenMatched – Chaîne UTF-8, correspondant au Custom string pattern #33.

    Indique comment résoudre les enregistrements qui correspondent à des données préexistantes lors de la fusion. Valeurs valides : update, delete.

  • MergeWhenNotMatched – Chaîne UTF-8, correspondant au Custom string pattern #33.

    Indique comment traiter les enregistrements qui ne correspondent pas aux données préexistantes lors de la fusion. Valeurs valides : insert, none.

  • MergeClause – Chaîne UTF-8.

    Une instruction SQL qui spécifie un comportement de fusion personnalisé.

  • StagingTable – Chaîne UTF-8.

    Le nom d'une table intermédiaire utilisée lors de l'exécution de l'action merge ou d'actions d'insertion append. Les données sont écrites dans cette table, puis déplacées vers table par une postaction générée.

  • SelectedColumns – Un tableau d'objets Option.

    Indique les colonnes combinées pour identifier un enregistrement lors de la détection des correspondances pour les fusions et les insertions. Une liste de structures avec des clés value, label et description. Chaque structure décrit une colonne.

  • AutoPushdown – Booléen.

    Indique si le pushdown automatique des requêtes est activée. Lorsque l'option pushdown est activée, si une partie de la requête peut être « poussée vers le bas » sur le serveur Snowflake, elle est poussée vers le bas au moment de l'exécution de la requête sur Spark. Cela améliore les performances de certaines requêtes.

  • TableSchema – Un tableau d'objets Option.

    Définit manuellement le schéma cible du nœud. Une liste de structures avec des clés value, label et description. Chaque structure définit une colonne.

SnowflakeSource structure

Indique une source de données Snowflake.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la source de données Snowflake.

  • DataObligatoire : un objet SnowflakeNodeData.

    Configuration de la source de données Snowflake.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Indique les schémas définis par l'utilisateur pour vos données de sortie.

SnowflakeTarget structure

Indique une cible Snowflake.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Le nom de la cible Snowflake.

  • DataObligatoire : un objet SnowflakeNodeData.

    Indique les données du nœud cible Snowflake.

  • Inputs : tableau de chaînes UTF-8, avec une chaîne minimum et une chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.

ConnectorDataSource structure

Spécifie une source générée avec des options de connexion standard.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de ce nœud source.

  • ConnectionTypeObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    LeconnectionType, tel que fourni à la AWS Glue bibliothèque sous-jacente. Ce type de nœud prend en charge les types de connexion suivants :

    • opensearch

    • azuresql

    • azurecosmos

    • bigquery

    • saphana

    • teradata

    • vertica

  • Dataobligatoire : tableau de mappage de paires clé-valeur.

    Chaque clé est une chaîne UTF-8.

    Chaque valeur est une chaîne UTF-8.

    Carte indiquant des options de connexion pour le nœud. Vous trouverez les options de connexion standard pour le type de connexion correspondant dans la section Paramètres de connexion de la AWS Glue documentation.

  • OutputSchemas – Un tableau d'objets GlueSchema.

    Spécifie le schéma de données pour cette source.

ConnectorDataTarget structure

Spécifie une cible générée avec des options de connexion standard.

Champs
  • NameObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #37.

    Nom de ce nœud cible.

  • ConnectionTypeObligatoire : Chaîne UTF-8, correspondant au Custom string pattern #34.

    LeconnectionType, tel que fourni à la AWS Glue bibliothèque sous-jacente. Ce type de nœud prend en charge les types de connexion suivants :

    • opensearch

    • azuresql

    • azurecosmos

    • bigquery

    • saphana

    • teradata

    • vertica

  • Dataobligatoire : tableau de mappage de paires clé-valeur.

    Chaque clé est une chaîne UTF-8.

    Chaque valeur est une chaîne UTF-8.

    Carte indiquant des options de connexion pour le nœud. Vous trouverez les options de connexion standard pour le type de connexion correspondant dans la section Paramètres de connexion de la AWS Glue documentation.

  • Inputs : tableau de chaînes UTF-8, avec une chaîne minimum et une chaîne maximum.

    Les nœuds qui constituent des entrées pour la cible de données.