Compresión de los archivos de datos - Amazon Redshift

Amazon Redshift dejará de admitir la creación de nuevas UDF de Python a partir del 1 de noviembre de 2025. Si desea utilizar las UDF de Python, créelas antes de esa fecha. Las UDF de Python existentes seguirán funcionando con normalidad. Para obtener más información, consulte la publicación del blog.

Compresión de los archivos de datos

Recomendamos que, cuando desee comprimir archivos de carga grandes, utilice gzip, lzop, bzip2 o Zstandard para comprimirlos y divida los datos en varios archivos más pequeños.

Especifique la opción GZIP, LZOP, BZIP2 o ZSTD con el comando COPY. En este ejemplo, se carga la tabla TIME desde un archivo lzop delimitado por la barra vertical.

copy time from 's3://amzn-s3-demo-bucket/data/timerows.lzo' iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole' lzop delimiter '|';

Hay instancias en las que no necesita dividir los archivos de datos sin comprimir. Para obtener más información sobre cómo dividir los datos y ejemplos de uso del comando COPY para cargar datos, consulte Carga de datos desde Amazon S3.