Panoramica dell'importazione di dati dai dati di Amazon S3 - Amazon Aurora

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Panoramica dell'importazione di dati dai dati di Amazon S3

Raccogli innanzitutto i dettagli che devi fornire alla funzione. Questi includono il nome della tabella sull'istanza del cluster Aurora Postgre SQL DB, l'istanza RDS per Postgre SQL DB e il nome del il percorso del file, il tipo di file e Regione AWS dove sono archiviati i dati di Amazon S3. Per ulteriori informazioni, consulta Visualizzazione di un oggetto nella Guida per l'utente di Servizio di archiviazione semplice Amazon.

Nota

L'importazione in più parti da Amazon S3 non è attualmente supportata.

  1. Otteni il nome della tabella in cui la funzione aws_s3.table_import_from_s3 deve importare dati. Il seguente comando, ad esempio, crea una tabella t1 che può essere utilizzata in fasi successive.

    postgres=> CREATE TABLE t1 (col1 varchar(80), col2 varchar(80), col3 varchar(80));
  2. Ottieni i dettagli relativi al bucket Amazon S3 e i dati da importare. A tale scopo, apri la console Amazon S3 all'indirizzo e scegli https://console.aws.amazon.com/s3/Bucket. Individua il bucket contenente i dati nell'elenco. Scegli il bucket, apri la pagina Object overview (Panoramica degli oggetti) e quindi scegli Properties (Proprietà).

    Prendi nota del nome del bucket, del percorso, del Regione AWS e tipo di file. Avrai bisogno di Amazon Resource Name (ARN) in un secondo momento, per configurare l'accesso ad Amazon S3 tramite un IAM ruolo. Per ulteriori informazioni, consulta Configurazione dell'accesso a un bucket Simple Storage Service (Amazon S3). Un esempio è illustrato nell'immagine seguente.

    Immagine di un oggetto file in un bucket Amazon S3.
  3. Puoi verificare il percorso dei dati nel bucket Amazon S3 utilizzando AWS CLI comando. aws s3 cp Se le informazioni sono corrette, questo comando scarica una copia del file Amazon S3.

    aws s3 cp s3://amzn-s3-demo-bucket/sample_file_path ./
  4. Configura le autorizzazioni sul tuo consentire l'accesso al file nel bucket Amazon S3. A tale scopo, puoi utilizzare uno dei AWS Identity and Access Management (IAM) ruolo o credenziali di sicurezza. Per ulteriori informazioni, consulta Configurazione dell'accesso a un bucket Simple Storage Service (Amazon S3).

  5. Fornisci il percorso e altri dettagli dell'oggetto Amazon S3 raccolti (vedi passaggio 2) alla create_s3_uri funzione per costruire un oggetto Amazon S3. URI Per ulteriori informazioni su questa funzione, consulta aws_commons.create_s3_uri. Di seguito è riportato un esempio di costruzione dell'oggetto durante una sessione psql.

    postgres=> SELECT aws_commons.create_s3_uri( 'docs-lab-store-for-rpg', 'versions_and_jdks_listing.csv', 'us-west-1' ) AS s3_uri \gset

    Nella fase seguente, si passa questo oggetto (aws_commons._s3_uri_1) alla funzione aws_s3.table_import_from_s3 per importare i dati nella tabella.

  6. Invoca la funzione aws_s3.table_import_from_s3 per importare dati da Amazon S3 nella tabella. Per informazioni di riferimento, consulta aws_s3.table_import_from_s3. Per alcuni esempi, consulta .