Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Connecteur Amazon Athena pour Hortonworks
Le connecteur Amazon Athena pour Hortonworks permet à Amazon Athena d'exécuter des requêtes SQL sur la plateforme de données Cloudera Hortonworks
Prérequis
Déployez le connecteur sur votre Compte AWS à l’aide de la console Athena ou du AWS Serverless Application Repository. Pour plus d’informations, consultez Déployer un connecteur de source de données ou Utilisez le AWS Serverless Application Repository pour déployer un connecteur de source de données.
Limites
-
Les opérations DDL d’écriture ne sont pas prises en charge.
-
Dans une configuration de multiplexeur, le compartiment de déversement et le préfixe sont partagés entre toutes les instances de base de données.
-
Toutes les limites Lambda pertinentes. Pour plus d'informations, consultez la section Quotas Lambda du Guide du développeur AWS Lambda .
Conditions
Les termes suivants se rapportent au connecteur Hortonworks Hive.
-
Base de données – Toute instance de base de données déployée sur site, sur Amazon EC2 ou sur Amazon RDS.
-
Gestionnaire – Un gestionnaire Lambda qui accède à votre instance de base de données. Un gestionnaire peut être destiné aux métadonnées ou aux enregistrements de données.
-
Gestionnaire de métadonnées – Un gestionnaire Lambda qui extrait les métadonnées de votre instance de base de données.
-
Gestionnaire d’enregistrements – Un gestionnaire Lambda qui extrait les enregistrements de données de votre instance de base de données.
-
Gestionnaire de composites – Un gestionnaire Lambda qui extrait les métadonnées et les enregistrements de données de votre instance de base de données.
-
Propriété ou paramètre – Propriété de base de données utilisée par les gestionnaires pour extraire des informations de base de données. Vous configurez ces propriétés en tant que variables d’environnement Lambda.
-
Chaîne de connexion – Chaîne de texte utilisée pour établir une connexion à une instance de base de données.
-
Catalogue — Un AWS Glue non-catalogue enregistré auprès d'Athena qui est un préfixe obligatoire pour la propriété.
connection_string
-
Gestionnaire de multiplexage – Un gestionnaire Lambda qui peut accepter et utiliser plusieurs connexions de base de données.
Paramètres
Utilisez les variables d’environnement Lambda de cette section pour configurer le connecteur Hortonworks Hive.
Chaîne de connexion
Utilisez une chaîne de connexion JDBC au format suivant pour vous connecter à une instance de base de données.
hive://${
jdbc_connection_string
}
Utilisation d’un gestionnaire de multiplexage
Vous pouvez utiliser un multiplexeur pour vous connecter à plusieurs instances de base de données à l’aide d’une seule fonction Lambda. Les demandes sont acheminées par nom de catalogue. Utilisez les classes suivantes dans Lambda.
Handler (Gestionnaire) | Classe |
---|---|
Gestionnaire de composites | HiveMuxCompositeHandler |
Gestionnaire de métadonnées | HiveMuxMetadataHandler |
Gestionnaire d’enregistrements | HiveMuxRecordHandler |
Paramètres du gestionnaire de multiplexage
Paramètre | Description |
---|---|
$ |
Obligatoire. Chaîne de connexion d’instance de base de données. Préfixez la variable d'environnement avec le nom du catalogue utilisé dans Athena. Par exemple, si le catalogue enregistré auprès d’Athena est myhivecatalog , le nom de la variable d’environnement est alors myhivecatalog_connection_string . |
default |
Obligatoire. Chaîne de connexion par défaut. Cette chaîne est utilisée lorsque le catalogue est lambda:${ AWS_LAMBDA_FUNCTION_NAME } . |
Les exemples de propriétés suivants concernent une fonction Hive MUX Lambda qui prend en charge deux instances de base de données :hive1
(par défaut) et hive2
.
Propriété | Valeur |
---|---|
default |
hive://jdbc:hive2://hive1:10000/default?${Test/RDS/hive1} |
hive_catalog1_connection_string |
hive://jdbc:hive2://hive1:10000/default?${Test/RDS/hive1} |
hive_catalog2_connection_string |
hive://jdbc:hive2://hive2:10000/default?UID=sample&PWD=sample |
Fourniture des informations d’identification
Pour fournir un nom d’utilisateur et un mot de passe pour votre base de données dans votre chaîne de connexion JDBC, vous pouvez utiliser les propriétés de la chaîne de connexion ou AWS Secrets Manager.
-
Chaîne de connexion – Un nom d'utilisateur et un mot de passe peuvent être spécifiés en tant que propriétés dans la chaîne de connexion JDBC.
Important
Afin de vous aider à optimiser la sécurité, n'utilisez pas d'informations d'identification codées en dur dans vos variables d'environnement ou vos chaînes de connexion. Pour plus d'informations sur le transfert de vos secrets codés en dur vers AWS Secrets Manager, voir Déplacer les secrets codés en dur vers AWS Secrets Manager dans le Guide de l'AWS Secrets Manager utilisateur.
-
AWS Secrets Manager— Pour utiliser la fonctionnalité Athena Federated Query, AWS Secrets Manager le VPC connecté à votre fonction Lambda doit disposer d'un accès Internet ou
d'un point de terminaison VPC pour se connecter à Secrets Manager. Vous pouvez insérer le nom d'un secret AWS Secrets Manager dans votre chaîne de connexion JDBC. Le connecteur remplace le nom secret par les valeurs
username
etpassword
de Secrets Manager.Pour les instances de base de données Amazon RDS, cette prise en charge est étroitement intégrée. Si vous utilisez Amazon RDS, nous vous recommandons vivement d'utiliser une AWS Secrets Manager rotation des identifiants. Si votre base de données n’utilise pas Amazon RDS, stockez les informations d’identification au format JSON au format suivant :
{"username": "${username}", "password": "${password}"}
Exemple de chaîne de connexion avec un nom secret
La chaîne suivante porte le nom secret ${Test/RDS/hive1host}
.
hive://jdbc:hive2://hive1host:10000/default?...&${Test/RDS/hive1host}&...
Le connecteur utilise le nom secret pour récupérer les secrets et fournir le nom d’utilisateur et le mot de passe, comme dans l’exemple suivant.
hive://jdbc:hive2://hive1host:10000/default?...&UID=sample2&PWD=sample2&...
Actuellement, le connecteur Hortonworks Hive reconnaît les propriétés JDBC UID
et PWD
.
Utilisation d’un gestionnaire de connexion unique
Vous pouvez utiliser les métadonnées de connexion unique et les gestionnaires d’enregistrements suivants pour vous connecter à une seule instance Hortonworks Hive.
Type de gestionnaire | Classe |
---|---|
Gestionnaire de composites | HiveCompositeHandler |
Gestionnaire de métadonnées | HiveMetadataHandler |
Gestionnaire d’enregistrements | HiveRecordHandler |
Paramètres du gestionnaire de connexion unique
Paramètre | Description |
---|---|
default |
Obligatoire. Chaîne de connexion par défaut. |
Les gestionnaires de connexion unique prennent en charge une instance de base de données et doivent fournir un paramètre de connexion default
. Toutes les autres chaînes de connexion sont ignorées.
L’exemple de propriété suivant concerne une instance Hortonworks Hive unique prise en charge par une fonction Lambda.
Propriété | Valeur |
---|---|
default |
hive://jdbc:hive2://hive1host:10000/default?secret=${Test/RDS/hive1host} |
Paramètres de déversement
Le kit SDK Lambda peut déverser des données vers Amazon S3. Toutes les instances de base de données accessibles par la même fonction Lambda déversent au même emplacement.
Paramètre | Description |
---|---|
spill_bucket |
Obligatoire. Nom du compartiment de déversement. |
spill_prefix |
Obligatoire. Préfixe de la clé du compartiment de déversement. |
spill_put_request_headers |
(Facultatif) Une carte codée au format JSON des en-têtes et des valeurs des demandes pour la demande putObject Amazon S3 utilisée pour le déversement (par exemple, {"x-amz-server-side-encryption" :
"AES256"} ). Pour les autres en-têtes possibles, consultez le PutObjectmanuel Amazon Simple Storage Service API Reference. |
Prise en charge du type de données
Le tableau suivant montre les types de données correspondants pour JDBC, Hortonworks Hive et Arrow.
JDBC | Hortonworks Hive | Flèche |
---|---|---|
Booléen | Booléen | Bit |
Entier | TINYINT | Tiny |
Court | SMALLINT | Smallint |
Entier | INT | Int |
Long | BIGINT | Bigint |
float | float4 | Float4 |
Double | float8 | Float8 |
Date | date | DateDay |
Horodatage | timestamp | DateMilli |
Chaîne | VARCHAR | Varchar |
Octets | octets | Varbinary |
BigDecimal | Décimal | Décimal |
ARRAY | N/A (voir la remarque) | Liste |
Note
Hortonworks Hive ne prend actuellement pas en charge les types d’agrégat ARRAY
, MAP
, STRUCT
ou UNIONTYPE
. Les colonnes de types d’agrégats sont traitées comme des colonnes VARCHAR
dans SQL.
Partitions et déversements
Les partitions sont utilisées pour déterminer comment générer des divisions pour le connecteur. Athena construit une colonne synthétique de type varchar
qui représente le schéma de partitionnement de la table afin d’aider le connecteur à générer des divisions. Le connecteur ne modifie pas la définition réelle de la table.
Performance
Hortonworks Hive prend en charge les partitions statiques. Le connecteur Athena Hortonworks Hive peut récupérer les données de ces partitions en parallèle. Si vous souhaitez interroger des jeux de données très volumineux avec une distribution de partition uniforme, le partitionnement statique est fortement recommandé. La sélection d'un sous-ensemble de colonnes accélère considérablement l'exécution des requêtes et réduit le nombre de données analysées. Le connecteur Hortonworks Hive résiste à la limitation due à la simultanéité.
Le connecteur Athena Hortonworkds Hive effectue une poussée vers le bas des prédicats pour réduire les données analysées par la requête. Les clauses LIMIT
, les prédicats simples et les expressions complexes sont poussés vers le connecteur afin de réduire la quantité de données analysées et le délai d'exécution des requêtes.
Clauses LIMIT
Une instruction LIMIT N
réduit les données analysées par la requête. Grâce à la poussée vers le bas LIMIT N
, le connecteur renvoie uniquement des lignes N
à Athena.
Prédicats
Un prédicat est une expression contenue dans la clause WHERE
d'une requête SQL qui prend une valeur booléenne et filtre les lignes en fonction de plusieurs conditions. Le connecteur Athena Hortonworks Hive peut combiner ces expressions et les pousser directement vers Cloudera Hive pour améliorer la fonctionnalité et réduire la quantité de données analysées.
Les opérateurs du connecteur Athena Hortonworks Hive suivants prennent en charge la poussée vers le bas de prédicats :
-
Booléen : AND, OR, NOT
-
Égalité : EQUAL, NOT_EQUAL, LESS_THAN, LESS_THAN_OR_EQUAL, GREATER_THAN, GREATER_THAN_OR_EQUAL, IS_NULL
-
Arithmétique : ADD, SUBTRACT, MULTIPLY, DIVIDE, MODULUS, NEGATE
-
Autres : LIKE_PATTERN, IN
Exemple de poussée combinée vers le bas
Pour améliorer les capacités de requête, combinez les types de poussée vers le bas, comme dans l'exemple suivant :
SELECT * FROM my_table WHERE col_a > 10 AND ((col_a + col_b) > (col_c % col_d)) AND (col_e IN ('val1', 'val2', 'val3') OR col_f LIKE '%pattern%') LIMIT 10;
Requêtes directes
Le connecteur Hortonworks Hive prend en charge les requêtes directes. Les requêtes passthrough utilisent une fonction de table pour transférer votre requête complète vers la source de données pour exécution.
Pour utiliser des requêtes directes avec Hortonworks Hive, vous pouvez utiliser la syntaxe suivante :
SELECT * FROM TABLE( system.query( query => '
query string
' ))
L'exemple de requête suivant envoie une requête vers une source de données dans Hortonworks Hive. La requête sélectionne toutes les colonnes de la customer
table, limitant les résultats à 10.
SELECT * FROM TABLE( system.query( query => 'SELECT * FROM customer LIMIT 10' ))
Informations de licence
En utilisant ce connecteur, vous reconnaissez l'inclusion de composants tiers, dont la liste se trouve dans le fichier pom.xml
Ressources supplémentaires
Pour obtenir les informations les plus récentes sur la version du pilote JDBC, consultez le fichier pom.xml
Pour plus d'informations sur ce connecteur, rendez-vous sur le site correspondant