S3DistCp (s3-dist-cp) - Amazon EMR

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

S3DistCp (s3-dist-cp)

Apache DistCp es una herramienta de código abierto que puedes usar para copiar grandes cantidades de datos. S3DistCp es similar a Amazon S3 DistCp, pero está optimizado para funcionar conAWS él. El comando para S3DistCp en la versión 4.0 y posteriores de Amazon EMR ess3-dist-cp el que se agrega como un paso en un clúster o en la línea de comandos. Con S3DistCp, puede copiar de manera eficiente grandes cantidades de datos de Amazon S3 a HDFS, donde se pueden procesar en los siguientes pasos en su clúster de Amazon EMR. También puede usar S3DistCp para copiar datos entre buckets de Amazon S3 o de HDFS a Amazon S3. S3DistCp es más escalable y eficiente para copiar en parallel grandes cantidades de objetos en cubos yAWS cuentas.

Para ver los comandos específicos que demuestran la flexibilidad de S3DistCP en situaciones del mundo real, consulte Siete consejos para usar S3DistCp en el blog deAWS Big Data.

Por ejemplo DistCp, S3DistCp suele MapReduce copiar de forma distribuida. Comparte las tareas de copia, tratamiento de errores, recuperación y elaboración de informes entre varios servidores. Para obtener más información sobre el proyecto de código DistCp abierto de Apache, consulte la DistCp guía de la documentación de Apache Hadoop.

Si S3 no puede copiar algunos o todos los archivos especificados,DistCp se produce un error en el paso del clúster y devuelve un código de error distinto de cero. Si esto ocurre, S3DistCp no limpia los archivos parcialmente copiados.

importante

S3DistCp no admite nombres de bucket de Amazon S3 que contengan el carácter de subrayado.

S3DistCp no admite la concatenación de archivos Parquet. Utilice PySpark en su lugar. Para obtener más información, consulte Concatenación de archivos de parquet en Amazon EMR.

Para evitar errores de copia al utilizar S3DistCP para copiar un solo archivo (en lugar de un directorio) de S3 a HDFS, utilice Amazon EMR versión 5.33.0 o posterior, o Amazon EMR versión 6.3.0 o posterior.

DistCp Opciones S3

Aunque es similar a DistCp, S3DistCp admite un conjunto diferente de opciones para cambiar la forma en que copia y comprime los datos.

Al llamar a S3DistCp, puede especificar las opciones que se describen en la tabla siguiente. Las opciones se añaden al paso utilizando la lista de argumentos. En la tabla a continuación se muestran ejemplos de losDistCp argumentos S3.

Opción Descripción Obligatorio
--src=LOCATION

Ubicación de los datos que copiar. Puede ser una ubicación de HDFS o Amazon S3.

Ejemplo: --src=s3://DOC-EXAMPLE-BUCKET1/logs/j-3GYXXXXXX9IOJ/node

importante

S3DistCp no admite nombres de bucket de Amazon S3 que contengan el carácter de subrayado.

--dest=LOCATION

Destino de los datos. Puede ser una ubicación de HDFS o Amazon S3.

Ejemplo: --dest=hdfs:///output

importante

S3DistCp no admite nombres de bucket de Amazon S3 que contengan el carácter de subrayado.

--srcPattern=PATTERN

Una expresión regular que filtra la operación de copia para un subconjunto de los datos de --src. Si no se especifica --srcPattern ni --groupBy, todos los datos de --src se copian en --dest.

Si el argumento de expresión regular contiene caracteres especiales, como un asterisco (*), la expresión regular o toda la cadena --args debe estar escrita entre comillas (').

Ejemplo: --srcPattern=.*daemons.*-hadoop-.*

No
--groupBy=PATTERN

Expresión regular que haceDistCp que S3 concatene archivos que coinciden con la expresión. Por ejemplo, podría utilizar esta opción para combinar todos los archivos de registro escritos en una hora en un solo archivo. El nombre de archivo concatenado es el valor asignado por la expresión regular para la agrupación.

Los paréntesis indican cómo deberían agruparse los archivos, todos los elementos que coincidan con la instrucción parentética se combinan en un único archivo de salida. Si la expresión regular no incluye una sentencia entre paréntesis, el clúster falla en elDistCp paso S3 y devuelve un error.

Si el argumento de expresión regular contiene caracteres especiales, como un asterisco (*), la expresión regular o toda la cadena --args debe estar escrita entre comillas (').

Cuando se especifica --groupBy, solo se copian los archivos que coinciden con el patrón especificado. No tiene que especificar --groupBy y --srcPattern al mismo tiempo.

Ejemplo: --groupBy=.*subnetid.*([0-9]+-[0-9]+-[0-9]+-[0-9]+).*

No
--targetSize=SIZE

El tamaño, en mebibytes (MiB), de los archivos a crear en función de la opción --groupBy. Este valor debe ser un número entero. Cuando--targetSize está configurado, S3DistCp intenta hacer coincidir este tamaño; el tamaño real de los archivos copiados puede ser mayor o menor que este valor. Los trabajos se agregan en función del tamaño del archivo de datos, por lo que es posible que el tamaño del archivo de destino coincida con el tamaño del archivo de datos de origen.

Si los archivos concatenados por --groupBy son mayores que el valor de --targetSize, se dividen en archivos parciales y se nombran de forma secuencial con un valor numérico junto al final. Por ejemplo, un archivo concatenado en myfile.gz se desglosaría en partes como: myfile0.gz, myfile1.gz, etc.

Ejemplo: --targetSize=2

No
--appendToLastFile

Especifica el comportamiento de S3DistCp al copiar archivos de Amazon S3 a HDFS que ya están presentes. Añade los nuevos datos de archivo a archivos existentes. Si utiliza --appendToLastFile con --groupBy, se añaden nuevos datos a los archivos que coincidirán con los mismos grupos. Esta opción también respeta el comportamiento --targetSize cuando se utiliza con --groupBy.

No
--outputCodec=CODEC

Especifica el códec de compresión que utilizar para los archivos copiados. Esto puede tomar los valores: gzip, gz, lzo, snappy o bien none. Puede utilizar esta opción, por ejemplo, para convertir archivos de entrada comprimidos con Gzip en archivos de salida con compresión LZO o para descomprimir los archivos como parte de la operación de copia. Si elige un códec de salida, el nombre de archivo se agregará con la extensión adecuada (por ejemplo, gz y gzip, la extensión es .gz). Si no especifica un valor para --outputCodec, los archivos se copian sin cambios en su compresión.

Ejemplo: --outputCodec=lzo

No
--s3ServerSideEncryption

Garantiza que los datos de destino se transfieran mediante SSL y se cifren automáticamente en Amazon S3 mediante una claveAWS del lado del servicio. Al recuperar datos mediante S3DistCp, los objetos se descifran automáticamente. Si intenta copiar un objeto no cifrado a un bucket de Amazon S3 que requiere cifrado, la operación dará error. Para obtener más información, consulte Uso del cifrado de datos.

Ejemplo: --s3ServerSideEncryption

No
--deleteOnSuccess

Si la operación de copia se realiza correctamente, esta opción haceDistCp que S3 elimine los archivos copiados de la ubicación de origen. Esto resulta útil si está copiando archivos de salida, como archivos de registro, desde una ubicación a otra como una tarea programada y no desea copiar los mismos archivos dos veces.

Ejemplo: --deleteOnSuccess

No
--disableMultipartUpload

Deshabilita el uso de la carga multiparte.

Ejemplo: --disableMultipartUpload

No
--multipartUploadChunkSize=SIZE

El tamaño, en MiB, del tamaño de parte de la carga multiparte. De forma predeterminada, utiliza la carga multiparte al escribir en Amazon S3. El tamaño de fragmento predeterminado es de 16 MiB.

Ejemplo: --multipartUploadChunkSize=32

No
--numberFiles

Añade archivos de salida con los números secuenciales. El recuento comienza en 0 a menos que se especifique un valor diferente mediante --startingIndex.

Ejemplo: --numberFiles

No
--startingIndex=INDEX

Utilizado con --numberFiles para especificar el primer número de la secuencia.

Ejemplo: --startingIndex=1

No
--outputManifest=FILENAME

Crea un archivo de texto, comprimido con Gzip, que contiene una lista de todos los archivos copiados por S3DistCp.

Ejemplo: --outputManifest=manifest-1.gz

No
--previousManifest=PATH

Lee un archivo de manifiesto que se creó durante una llamada anterior a S3DistCp con la--outputManifest bandera. Cuando se establece el--previousManifest indicador, S3DistCp excluye los archivos que figuran en el manifiesto de la operación de copia. Si se especifica --outputManifest junto con los archivos --previousManifest, incluidos en el manifiesto anterior también aparecen en el nuevo archivo de manifiesto, aunque los archivos no se copiarán.

Ejemplo: --previousManifest=/usr/bin/manifest-1.gz

No
--requirePreviousManifest

Requiere un manifiesto previo creado durante una llamada anterior a S3DistCp. Si se define como false, no se genera ningún error cuando no se especifica un manifiesto anterior. El valor predeterminado es true.

No
--copyFromManifest

Invierte el comportamiento de--previousManifest para hacer que S3DistCp utilice el archivo de manifiesto especificado como una lista de archivos para copiar, en lugar de una lista de archivos para excluirlos de la copia.

Ejemplo: --copyFromManifest --previousManifest=/usr/bin/manifest-1.gz

No
--s3Endpoint=ENDPOINT

Especifica el punto de enlace de Amazon S3 que se utilizará al cargar un archivo. Esta opción establece el punto de enlace para el origen y el destino. Si no se define, el punto de enlace predeterminado es s3.amazonaws.com. Para ver una lista de los puntos de enlace de Amazon S3, consulte Regiones y puntos de enlace.

Ejemplo: --s3Endpoint=s3.eu-west-1.amazonaws.com

No
--storageClass=CLASS

La clase de almacenamiento que se debe utilizar cuando el destino es Amazon S3. Los valores válidos son STANDARD y REDUCED_REDUNDANCY. Si no se especifica esta opción, S3DistCp intenta conservar la clase de almacenamiento.

Ejemplo: --storageClass=STANDARD

No
--srcPrefixesFile=PATH

un archivo de texto en Amazon S3 (s3://), HDFS (hdfs:///) o un sistema de archivos local (file:/) que contiene una lista desrc prefijos, un prefijo por línea.

SisrcPrefixesFile se proporciona, S3 noDistCp mostrará la ruta src. En lugar de ello, genera una lista de origen como resultado combinado de enumerar todos los prefijos especificados en este archivo. La ruta relativa en comparación con la ruta src, en lugar de estos prefijos, se utilizará para generar las rutas de destino. Si también se especifica srcPattern, se aplicará a los resultados de lista combinada de los prefijos de origen para filtrar aún más la entrada. Si se utiliza copyFromManifest, lo objetos en el manifiesto se copiarán y no se tendrá en cuenta srcPrefixesFile.

Ejemplo: --srcPrefixesFile=PATH

No

Además de las opciones anteriores, S3DistCp implementa la interfaz Tool, lo que significa que admite las opciones genéricas.

Agregar S3DistCp como un paso en un clúster

Puede llamar a S3DistCp agregándolo como un paso en su clúster. Los pasos se pueden añadir a un clúster en el momento de su lanzamiento o a un clúster en ejecución mediante la consola, la CLI o la API. Los siguientes ejemplos muestran cómo agregar unDistCp paso de S3 a un clúster en ejecución. Para obtener más información sobre cómo añadir pasos a un clúster, consulte Enviar trabajo a un clúster en la Guía de administración de Amazon EMR.

Para añadir unDistCp paso de S3 a un clúster en ejecución mediante elAWS CLI

Para obtener más información sobre el uso de los comandos de Amazon EMR enAWS CLI, consulte la Referencia deAWS CLI comandos.

  • Para agregar un paso a un clúster que llama a S3DistCp, pase los parámetros que especifican cómo S3DistCp debe realizar la operación de copia como argumentos.

    El siguiente ejemplo copia los registros de daemon de Amazon S3 ahdfs:///output. En el comando siguiente:

    • --cluster-id especifica el clúster

    • Jares la ubicación del archivoDistCp JAR S3. Para ver un ejemplo de cómo ejecutar un comando en un clúster mediante command-runner.jar, consulte Enviar un paso JAR personalizado para ejecutar un script o un comando.

    • Argses una lista separada por comas de los pares nombre-valor de las opciones para pasarlos a S3DistCp. Para ver una lista completa de las opciones disponibles, consulte DistCp Opciones S3.

    Para añadir un paso deDistCp copia de S3 a un clúster en ejecución, coloque lo siguiente en un archivo JSON guardado en Amazon S3 o en su sistema de archivos local, como en estemyStep.json ejemplo. Sustituya J-3GYxxxxxx9iok por su ID de clúster y sustituya mybucket por el nombre de su bucket de Amazon S3.

    [ { "Name":"S3DistCp step", "Args":["s3-dist-cp","--s3Endpoint=s3.amazonaws.com","--src=s3://mybucket/logs/j-3GYXXXXXX9IOJ/node/","--dest=hdfs:///output","--srcPattern=.*[a-zA-Z,]+"], "ActionOnFailure":"CONTINUE", "Type":"CUSTOM_JAR", "Jar":"command-runner.jar" } ]
    aws emr add-steps --cluster-id j-3GYXXXXXX9IOK --steps file://./myStep.json
ejemplo Copie los archivos de registros de Amazon S3 a HDFS

Este ejemplo también ilustra cómo copiar los archivos de registros almacenados en un bucket de Amazon S3 a HDFS añadiendo un paso a un clúster en ejecución. En este ejemplo, la opción --srcPattern se utiliza para limitar los datos copiados en los registros del demonio.

Para copiar los archivos de registro de Amazon S3 a HDFS mediante--srcPattern esta opción, coloque lo siguiente en un archivo JSON guardado en Amazon S3 o en su sistema de archivos local, como en estemyStep.json ejemplo. Sustituya J-3GYxxxxxx9iok por su ID de clúster y sustituya mybucket por el nombre de su bucket de Amazon S3.

[ { "Name":"S3DistCp step", "Args":["s3-dist-cp","--s3Endpoint=s3.amazonaws.com","--src=s3://mybucket/logs/j-3GYXXXXXX9IOJ/node/","--dest=hdfs:///output","--srcPattern=.*daemons.*-hadoop-.*"], "ActionOnFailure":"CONTINUE", "Type":"CUSTOM_JAR", "Jar":"command-runner.jar" } ]