Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Con questo approccio di migrazione, per prima cosa salvi i dati da una singola tabella in un file di dati da inserire in un bucket Amazon S3. Quindi, usi il LOADcomando
Salvataggio dei dati su Amazon S3
Per salvare i dati da una singola tabella in Amazon S3, utilizza un'utilità di database per estrarre i dati dal sistema di gestione del database (DBMS) in un CSV file. Quindi, carica il file di dati su Amazon S3.
Per archiviare file di dati su Amazon S3, sono necessari i seguenti componenti: AWS
-
Un bucket Amazon S3 per archiviare i file di backup: se disponi già di un bucket S3, puoi utilizzare quel bucket. Se non disponi di un bucket S3, consulta Creazione di un bucket nella Amazon S3 User Guide.
-
Un IAM ruolo per accedere al bucket S3: se hai già un IAM ruolo, puoi usare quel ruolo. Se non hai un ruolo, vedi. Fase 2: Crea un IAM ruolo e allega la tua IAM policy
-
Una IAM politica con relazioni di fiducia e autorizzazioni associate al tuo IAM ruolo: per ulteriori informazioni, consultaFase 1: creare una policy IAM.
-
Il IAM ruolo aggiunto alla tua istanza DB RDS for Db2: per ulteriori informazioni, consulta. Passaggio 3: aggiungi il tuo IAM ruolo alla tua istanza DB RDS for Db2
Caricamento dei dati nelle tabelle RDS for Db2
Dopo aver salvato i file di dati su Amazon S3, puoi caricare i dati da questi file in singole tabelle sulla tua istanza DB RDS for Db2.
Per caricare i dati della tabella Db2 nella tabella del database RDS per Db2 DB
-
Connect al
rdsadmin
database utilizzando il nome utente principale e la password principale per l'istanza database RDS for Db2. Nell'esempio seguente, sostituiscimaster_username
emaster_password
con le tue informazioni.db2 connect to rdsadmin user
master_username
usingmaster_password
-
Cataloga un alias di accesso allo storage che punti al bucket Amazon S3 in cui sono archiviati i file salvati. Prendi nota del nome di questo alias da utilizzare nel passaggio successivo. È necessario eseguire questo passaggio una sola volta se si prevede di caricare più tabelle da file di dati archiviati nello stesso bucket Amazon S3.
L'esempio seguente cataloga un alias denominato
my_s3_alias
che concede a un utente denominatojorge_souza
accesso a un bucket denominatoamzn-s3-demo-bucket
.db2 "call rdsadmin.catalog_storage_access(?, '
my_s3_alias
', 'amzn-s3-demo-bucket
', 'USER', 'jorge_souza
')"Per ulteriori informazioni su questa procedura memorizzata, vedererdsadmin.catalog_storage_access.
-
Esegui il
LOAD
comando utilizzando l'alias di accesso allo storage che punta al tuo bucket Amazon S3.Nota
Se il
LOAD
comando restituisce un errore, potrebbe essere necessario creare un endpoint VPC gateway per Amazon S3 e aggiungere regole in uscita al gruppo di sicurezza. Per ulteriori informazioni, consulta Errore di I/O del file.L'esempio seguente carica i dati da un file di dati denominato
my_s3_datafile.csv
in una tabella denominatamy_db2_table
. L'esempio presuppone che il file di dati si trovi nel bucket Amazon S3 denominato dall'alias.my_s3_alias
punti a.db2 "load from db2remote://
my_s3_alias
//my_s3_datafile.csv
of DEL insert intomy_db2_table
";L'esempio seguente viene caricato LOBs da un file di dati denominato
my_table1_export.ixf
in una tabella denominatamy_db2_table
. L'esempio presuppone che il file di dati si trovi nel bucket Amazon S3 denominato dall'alias.my_s3_alias
punti a.db2 "call sysproc.admin_cmd('load from "db2remote://
my_s3_alias
//my_table1_export.ixf
" of ixf lobs from "db2remote://my_s3_alias
//" xml from "db2remote://my_s3_alias
//" modified by lobsinfile implicitlyhiddeninclude identityoverride generatedoverride periodoverride transactionidoverride messages on server replace into "my_schema
"."my_db2_table
" nonrecoverable indexing mode incremental allow no access')"Ripeti questo passaggio per ogni file di dati nel bucket Amazon S3 che desideri caricare in una tabella nell'istanza DB RDS for Db2.
Per ulteriori informazioni sul
LOAD
comando, consulta command. LOAD