Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Tutorial: Utilizzo di Amazon DynamoDB e Apache Hive
In questo tutorial, viene avviato un cluster Amazon EMR e quindi si utilizza Apache Hive per elaborare i dati archiviati in una tabella DynamoDB.
Hive è un'applicazione di data warehouse per Hadoop che consente di elaborare e analizzare i dati da più origini. Hive fornisce un linguaggio simile a SQL, HiveQL, che consente di lavorare con i dati archiviati in locale nel cluster Amazon EMR o in un'origine dati esterna (ad esempio Amazon DynamoDB).
Per maggiori informazioni, vedi il tutorial Hive
Argomenti
- Prima di iniziare
- Fase 1: Creazione di una coppia di chiavi di Amazon EC2
- Fase 2: avvio di un cluster Amazon EMR
- Fase 3: connessione al nodo principale
- Fase 4: caricamento di dati in HDFS
- Fase 5: copia dei dati in DynamoDB
- Fase 6: esecuzione di query sui dati nella tabella DynamoDB
- Fase 7: pulizia (opzionale)
Prima di iniziare
Per questo tutorial hai bisogno dei seguenti elementi:
-
Un AWS account. Se non lo hai, consulta Iscrizione a AWS.
-
Un client SSH (Secure Shell). È possibile utilizzare il client SSH per connettersi al nodo principale del cluster Amazon EMR ed eseguire comandi interattivi. I client SSH sono disponibili per impostazione predefinita nella maggior parte delle installazioni Linux, Unix e Mac OS X. Gli utenti Windows possono scaricare e installare il client PuTTY
, che ha il supporto SSH.
Approfondimenti
Fase 1: Creazione di una coppia di chiavi di Amazon EC2