Compressione dei file di dati - Amazon Redshift

Amazon Redshift non supporterà più la creazione di nuovi Python a UDFs partire dal 1° novembre 2025. Se vuoi usare Python UDFs, crea la UDFs data precedente a quella data. Python esistente UDFs continuerà a funzionare normalmente. Per ulteriori informazioni, consulta il post del blog.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Compressione dei file di dati

Si consiglia di comprimere file di caricamento di grandi dimensioni utilizzando gzip, lzop, bzip2 o Zstandard per comprimerli e dividere i dati in più file di dimensioni minori.

Specificate l'opzione GZIP, LZOP o ZSTD con il comando COPY. BZIP2 Questo esempio carica la tabella TIME da un file Izop delimitato da pipe.

copy time from 's3://amzn-s3-demo-bucket/data/timerows.lzo' iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole' lzop delimiter '|';

Esistono casi in cui non è necessario dividere i file di dati non compressi. Per ulteriori informazioni sulla suddivisione dei dati e per esempi sull'utilizzo di COPY per caricare i dati, consultare Caricamento di dati da Amazon S3.