Amazon Redshift non supporterà più la creazione di nuovi Python a UDFs partire dal 1° novembre 2025. Se vuoi usare Python UDFs, crea la UDFs data precedente a quella data. Python esistente UDFs continuerà a funzionare normalmente. Per ulteriori informazioni, consulta il post del blog
Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Compressione dei file di dati
Si consiglia di comprimere file di caricamento di grandi dimensioni utilizzando gzip, lzop, bzip2 o Zstandard per comprimerli e dividere i dati in più file di dimensioni minori.
Specificate l'opzione GZIP, LZOP o ZSTD con il comando COPY. BZIP2 Questo esempio carica la tabella TIME da un file Izop delimitato da pipe.
copy time from 's3://amzn-s3-demo-bucket/data/timerows.lzo' iam_role 'arn:aws:iam::0123456789012:role/MyRedshiftRole' lzop delimiter '|';
Esistono casi in cui non è necessario dividere i file di dati non compressi. Per ulteriori informazioni sulla suddivisione dei dati e per esempi sull'utilizzo di COPY per caricare i dati, consultare Caricamento di dati da Amazon S3.