Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
S3DistCp (s3-dist-cp)
Apache DistCp es una herramienta de código abierto que puedes usar para copiar grandes cantidades de datos. S3DistCp es similar a Amazon S3 DistCp, pero está optimizado para funcionar conAWS él. El comando para S3DistCp en la versión 4.0 y posteriores de Amazon EMR ess3-dist-cp
el que se agrega como un paso en un clúster o en la línea de comandos. Con S3DistCp, puede copiar de manera eficiente grandes cantidades de datos de Amazon S3 a HDFS, donde se pueden procesar en los siguientes pasos en su clúster de Amazon EMR. También puede usar S3DistCp para copiar datos entre buckets de Amazon S3 o de HDFS a Amazon S3. S3DistCp es más escalable y eficiente para copiar en parallel grandes cantidades de objetos en cubos yAWS cuentas.
Para ver los comandos específicos que demuestran la flexibilidad de S3DistCP en situaciones del mundo real, consulte Siete consejos para usar S3DistCp
Por ejemplo DistCp, S3DistCp suele MapReduce copiar de forma distribuida. Comparte las tareas de copia, tratamiento de errores, recuperación y elaboración de informes entre varios servidores. Para obtener más información sobre el proyecto de código DistCp abierto de Apache, consulte la DistCp guía
Si S3 no puede copiar algunos o todos los archivos especificados,DistCp se produce un error en el paso del clúster y devuelve un código de error distinto de cero. Si esto ocurre, S3DistCp no limpia los archivos parcialmente copiados.
S3DistCp no admite nombres de bucket de Amazon S3 que contengan el carácter de subrayado.
S3DistCp no admite la concatenación de archivos Parquet. Utilice PySpark en su lugar. Para obtener más información, consulte Concatenación de archivos de parquet en Amazon EMR
Para evitar errores de copia al utilizar S3DistCP para copiar un solo archivo (en lugar de un directorio) de S3 a HDFS, utilice Amazon EMR versión 5.33.0 o posterior, o Amazon EMR versión 6.3.0 o posterior.
DistCp Opciones S3
Aunque es similar a DistCp, S3DistCp admite un conjunto diferente de opciones para cambiar la forma en que copia y comprime los datos.
Al llamar a S3DistCp, puede especificar las opciones que se describen en la tabla siguiente. Las opciones se añaden al paso utilizando la lista de argumentos. En la tabla a continuación se muestran ejemplos de losDistCp argumentos S3.
Opción | Descripción | Obligatorio |
---|---|---|
--src=LOCATION
|
Ubicación de los datos que copiar. Puede ser una ubicación de HDFS o Amazon S3. Ejemplo: S3DistCp no admite nombres de bucket de Amazon S3 que contengan el carácter de subrayado. |
Sí |
--dest=LOCATION
|
Destino de los datos. Puede ser una ubicación de HDFS o Amazon S3. Ejemplo: S3DistCp no admite nombres de bucket de Amazon S3 que contengan el carácter de subrayado. |
Sí |
--srcPattern=PATTERN
|
Una expresión regular Si el argumento de expresión regular contiene caracteres especiales, como un asterisco (*), la expresión regular o toda la cadena Ejemplo: |
No |
--groupBy=PATTERN
|
Expresión regular Los paréntesis indican cómo deberían agruparse los archivos, todos los elementos que coincidan con la instrucción parentética se combinan en un único archivo de salida. Si la expresión regular no incluye una sentencia entre paréntesis, el clúster falla en elDistCp paso S3 y devuelve un error. Si el argumento de expresión regular contiene caracteres especiales, como un asterisco (*), la expresión regular o toda la cadena Cuando se especifica Ejemplo: |
No |
--targetSize=SIZE
|
El tamaño, en mebibytes (MiB), de los archivos a crear en función de la opción Si los archivos concatenados por Ejemplo: |
No |
--appendToLastFile |
Especifica el comportamiento de S3DistCp al copiar archivos de Amazon S3 a HDFS que ya están presentes. Añade los nuevos datos de archivo a archivos existentes. Si utiliza |
No |
--outputCodec=CODEC
|
Especifica el códec de compresión que utilizar para los archivos copiados. Esto puede tomar los valores: Ejemplo: |
No |
--s3ServerSideEncryption |
Garantiza que los datos de destino se transfieran mediante SSL y se cifren automáticamente en Amazon S3 mediante una claveAWS del lado del servicio. Al recuperar datos mediante S3DistCp, los objetos se descifran automáticamente. Si intenta copiar un objeto no cifrado a un bucket de Amazon S3 que requiere cifrado, la operación dará error. Para obtener más información, consulte Uso del cifrado de datos. Ejemplo: |
No |
--deleteOnSuccess |
Si la operación de copia se realiza correctamente, esta opción haceDistCp que S3 elimine los archivos copiados de la ubicación de origen. Esto resulta útil si está copiando archivos de salida, como archivos de registro, desde una ubicación a otra como una tarea programada y no desea copiar los mismos archivos dos veces. Ejemplo: |
No |
--disableMultipartUpload |
Deshabilita el uso de la carga multiparte. Ejemplo: |
No |
--multipartUploadChunkSize=SIZE
|
El tamaño, en MiB, del tamaño de parte de la carga multiparte. De forma predeterminada, utiliza la carga multiparte al escribir en Amazon S3. El tamaño de fragmento predeterminado es de 16 MiB. Ejemplo: |
No |
--numberFiles |
Añade archivos de salida con los números secuenciales. El recuento comienza en 0 a menos que se especifique un valor diferente mediante Ejemplo: |
No |
--startingIndex=INDEX
|
Utilizado con Ejemplo: |
No |
--outputManifest=FILENAME
|
Crea un archivo de texto, comprimido con Gzip, que contiene una lista de todos los archivos copiados por S3DistCp. Ejemplo: |
No |
--previousManifest=PATH
|
Lee un archivo de manifiesto que se creó durante una llamada anterior a S3DistCp con la Ejemplo: |
No |
--requirePreviousManifest |
Requiere un manifiesto previo creado durante una llamada anterior a S3DistCp. Si se define como false, no se genera ningún error cuando no se especifica un manifiesto anterior. El valor predeterminado es true. |
No |
--copyFromManifest |
Invierte el comportamiento de Ejemplo: |
No |
--s3Endpoint=ENDPOINT |
Especifica el punto de enlace de Amazon S3 que se utilizará al cargar un archivo. Esta opción establece el punto de enlace para el origen y el destino. Si no se define, el punto de enlace predeterminado es Ejemplo: |
No |
--storageClass=CLASS |
La clase de almacenamiento que se debe utilizar cuando el destino es Amazon S3. Los valores válidos son STANDARD y REDUCED_REDUNDANCY. Si no se especifica esta opción, S3DistCp intenta conservar la clase de almacenamiento. Ejemplo: |
No |
--srcPrefixesFile=PATH |
un archivo de texto en Amazon S3 (s3://), HDFS (hdfs:///) o un sistema de archivos local (file:/) que contiene una lista de Si Ejemplo: |
No |
Además de las opciones anteriores, S3DistCp implementa la interfaz Tool
Agregar S3DistCp como un paso en un clúster
Puede llamar a S3DistCp agregándolo como un paso en su clúster. Los pasos se pueden añadir a un clúster en el momento de su lanzamiento o a un clúster en ejecución mediante la consola, la CLI o la API. Los siguientes ejemplos muestran cómo agregar unDistCp paso de S3 a un clúster en ejecución. Para obtener más información sobre cómo añadir pasos a un clúster, consulte Enviar trabajo a un clúster en la Guía de administración de Amazon EMR.
Para añadir unDistCp paso de S3 a un clúster en ejecución mediante elAWS CLI
Para obtener más información sobre el uso de los comandos de Amazon EMR enAWS CLI, consulte la Referencia deAWS CLI comandos.
-
Para agregar un paso a un clúster que llama a S3DistCp, pase los parámetros que especifican cómo S3DistCp debe realizar la operación de copia como argumentos.
El siguiente ejemplo copia los registros de daemon de Amazon S3 a
hdfs:///output
. En el comando siguiente:-
--cluster-id
especifica el clúster -
Jar
es la ubicación del archivoDistCp JAR S3. Para ver un ejemplo de cómo ejecutar un comando en un clúster mediante command-runner.jar, consulte Enviar un paso JAR personalizado para ejecutar un script o un comando. -
Args
es una lista separada por comas de los pares nombre-valor de las opciones para pasarlos a S3DistCp. Para ver una lista completa de las opciones disponibles, consulte DistCp Opciones S3.
Para añadir un paso deDistCp copia de S3 a un clúster en ejecución, coloque lo siguiente en un archivo JSON guardado en Amazon S3 o en su sistema de archivos local, como en este
ejemplo. SustituyamyStep.json
J-3GYxxxxxx9iok
por su ID de clúster y sustituyamybucket
por el nombre de su bucket de Amazon S3.[ { "Name":"S3DistCp step", "Args":["s3-dist-cp","--s3Endpoint=s3.amazonaws.com","--src=s3://mybucket/logs/j-3GYXXXXXX9IOJ/node/","--dest=hdfs:///output","--srcPattern=.*[a-zA-Z,]+"], "ActionOnFailure":"CONTINUE", "Type":"CUSTOM_JAR", "Jar":"command-runner.jar" } ]
aws emr add-steps --cluster-id
j-3GYXXXXXX9IOK
--steps file://./myStep.json -
ejemplo Copie los archivos de registros de Amazon S3 a HDFS
Este ejemplo también ilustra cómo copiar los archivos de registros almacenados en un bucket de Amazon S3 a HDFS añadiendo un paso a un clúster en ejecución. En este ejemplo, la opción --srcPattern
se utiliza para limitar los datos copiados en los registros del demonio.
Para copiar los archivos de registro de Amazon S3 a HDFS mediante--srcPattern
esta opción, coloque lo siguiente en un archivo JSON guardado en Amazon S3 o en su sistema de archivos local, como en este
ejemplo. Sustituya myStep.json
J-3GYxxxxxx9iok
por su ID de clúster y sustituya mybucket
por el nombre de su bucket de Amazon S3.
[ { "Name":"S3DistCp step", "Args":["s3-dist-cp","--s3Endpoint=s3.amazonaws.com","--src=s3://mybucket/logs/j-3GYXXXXXX9IOJ/node/","--dest=hdfs:///output","--srcPattern=.*daemons.*-hadoop-.*"], "ActionOnFailure":"CONTINUE", "Type":"CUSTOM_JAR", "Jar":"command-runner.jar" } ]