As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Envio de uma execução de trabalho com StartJobRun
Para enviar um job, execute com um JSON arquivo com parâmetros especificados
-
Crie um
start-job-run-request.json
arquivo e especifique os parâmetros necessários para a execução do seu trabalho, conforme demonstra o JSON arquivo de exemplo a seguir. Para obter mais informações sobre os parâmetros, consulte Opções para a configuração de uma execução de trabalho.{ "name": "
myjob
", "virtualClusterId": "123456
", "executionRoleArn": "iam_role_name_for_job_execution
", "releaseLabel": "emr-6.2.0-latest
", "jobDriver": { "sparkSubmitJobDriver": { "entryPoint": "entryPoint_location
", "entryPointArguments": ["argument1
", "argument2
", ...], "sparkSubmitParameters": "--class <main_class> --conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1" } }, "configurationOverrides": { "applicationConfiguration": [ { "classification": "spark-defaults", "properties": { "spark.driver.memory":"2G" } } ], "monitoringConfiguration": { "persistentAppUI": "ENABLED", "cloudWatchMonitoringConfiguration": { "logGroupName": "my_log_group
", "logStreamNamePrefix": "log_stream_prefix
" }, "s3MonitoringConfiguration": { "logUri": "s3://my_s3_log_location
" } } } } -
Use o comando
start-job-run
com um caminho para o arquivostart-job-run-request.json
armazenado localmente.aws emr-containers start-job-run \ --cli-input-json
file://./start-job-run-request.json
Iniciar uma execução de trabalho usando o comando start-job-run
-
Forneça todos os parâmetros especificados no comando
StartJobRun
, como demonstrado pelo exemplo a seguir.aws emr-containers start-job-run \ --virtual-cluster-id
123456
\ --namemyjob
\ --execution-role-arnexecution-role-arn
\ --release-labelemr-6.2.0-latest
\ --job-driver '{"sparkSubmitJobDriver": {"entryPoint": "entryPoint_location
", "entryPointArguments": ["argument1
", "argument2
", ...], "sparkSubmitParameters": "--class <main_class> --conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1"}}' \ --configuration-overrides '{"applicationConfiguration": [{"classification": "spark-defaults", "properties": {"spark.driver.memory": "2G"}}], "monitoringConfiguration": {"cloudWatchMonitoringConfiguration": {"logGroupName": "log_group_name
", "logStreamNamePrefix": "log_stream_prefix
"}, "persistentAppUI":"ENABLED", "s3MonitoringConfiguration": {"logUri": "s3://my_s3_log_location
" }}}' -
Para o SparkSQL, forneça todos os parâmetros especificados no
StartJobRun
comando, conforme demonstrado no exemplo a seguir.aws emr-containers start-job-run \ --virtual-cluster-id
123456
\ --namemyjob
\ --execution-role-arnexecution-role-arn
\ --release-labelemr-6.7.0-latest
\ --job-driver '{"sparkSqlJobDriver": {"entryPoint": "entryPoint_location
", "sparkSqlParameters": "--conf spark.executor.instances=2 --conf spark.executor.memory=2G --conf spark.executor.cores=2 --conf spark.driver.cores=1"}}' \ --configuration-overrides '{"applicationConfiguration": [{"classification": "spark-defaults", "properties": {"spark.driver.memory": "2G"}}], "monitoringConfiguration": {"cloudWatchMonitoringConfiguration": {"logGroupName": "log_group_name
", "logStreamNamePrefix": "log_stream_prefix
"}, "persistentAppUI":"ENABLED", "s3MonitoringConfiguration": {"logUri": "s3://my_s3_log_location
" }}}'