Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Solución de problemas: errores de CloudWatch Logs y CloudTrail
Los temas de esta página contienen soluciones a errores de Amazon CloudWatch Logs y AWS CloudTrail que puede encontrar en un entorno de Amazon Managed Workflows para Apache Airflow.
Contenido
- Registros
- No puedo ver mis registros de tareas o recibí el mensaje de error ‘Reading remote log from Cloudwatch log_group’
- Las tareas dan error sin ningún registro
- Aparece el error «ResourceAlreadyExistsException» en CloudTrail
- Aparece el error ‘Invalid request’ en CloudTrail
- En los registros de Apache Airflow aparece el mensaje ‘Cannot locate a 64-bit Oracle Client library: "libclntsh.so: cannot open shared object file: No such file or directory’
- Con respecto a psycopg2, me aparece ‘server closed the connection unexpectedly’ en mis registros de programador
- En los registros de procesamiento de DAG aparece el mensaje ‘Executor reports task instance %s finished (%s) although the task says its %s’
- Aparece el mensaje ‘Could not read remote logs from log_group: airflow-*{*environmentName}-Task log_stream:* {*DAG_ID}/*{*TASK_ID}/*{*time}/*{*n}.log.’ en mis registros de tareas
Registros
En el siguiente tema se describen los errores que pueden aparecer cuando vea registros de Apache Airflow.
No puedo ver mis registros de tareas o recibí el mensaje de error ‘Reading remote log from Cloudwatch log_group’
Amazon MWAA ha configurado Apache Airflow para que lea y escriba registros directamente desde y hacia Amazon CloudWatch Logs. Si un trabajador no puede iniciar una tarea o no puede escribir ningún registro, aparecerá el siguiente error:
*** Reading remote log from Cloudwatch log_group: airflow-
environmentName
-Task log_stream:DAG_ID
/TASK_ID
/timestamp
/n
.log.Could not read remote logs from log_group: airflow-environmentName
-Task log_stream:DAG_ID
/TASK_ID
/time
/n
.log.
-
Recomendamos los siguientes pasos:
-
Compruebe que han habilitado los registros de tareas en el nivel
INFO
de su entorno. Para obtener más información, consulte Visualización de los registros de flujo de aire en Amazon CloudWatch. -
Compruebe que el rol de ejecución del entorno tenga las políticas de permisos correctas.
-
Compruebe que el operador o la tarea funcionen correctamente, que cuenten con recursos suficientes para analizar el DAG y que tengan las bibliotecas de Python adecuadas para cargarse. Para comprobar si tiene las dependencias correctas, intente eliminar las importaciones hasta que encuentre la que está causando el problema. Le recomendamos que pruebe sus dependencias de Python con la herramienta Amazon MWAA local-runner
.
-
Las tareas dan error sin ningún registro
Si las tareas están dando errores en un flujo de trabajo y no encuentra ningún registro de las tareas que generan errores, compruebe si el parámetro queue
está configurado en sus argumentos predeterminados, como se muestra a continuación.
from airflow import DAG from airflow.operators.bash_operator import BashOperator from airflow.utils.dates import days_ago # Setting queue argument to default. default_args = { "start_date": days_ago(1), "queue": "default" } with DAG(dag_id="any_command_dag", schedule_interval=None, catchup=False, default_args=default_args) as dag: cli_command = BashOperator( task_id="bash_command", bash_command="{{ dag_run.conf['command'] }}" )
Para resolver el problema, elimine queue
del código y vuelva a invocar el DAG.
Aparece el error «ResourceAlreadyExistsException» en CloudTrail
"errorCode": "ResourceAlreadyExistsException", "errorMessage": "The specified log stream already exists", "requestParameters": { "logGroupName": "airflow-MyAirflowEnvironment-DAGProcessing", "logStreamName": "scheduler_cross-account-eks.py.log" }
Algunos requisitos de Python, como apache-airflow-backport-providers-amazon
, revierten la biblioteca watchtower
que Amazon MWAA utiliza para comunicarse con CloudWatch a una versión anterior. Recomendamos los siguientes pasos:
-
Añada lo siguiente a su archivo
requirements.txt
watchtower==1.0.6
Aparece el error ‘Invalid request’ en CloudTrail
Invalid request provided: Provided role does not have sufficient permissions for s3 location airflow-xxx-xxx/dags
Si va a crear un entorno de Amazon MWAA y un bucket de Amazon S3 con la misma plantilla de AWS CloudFormation, tendrá que añadir una sección DependsOn
dentro de la plantilla de AWS CloudFormation. Los dos recursos (el entorno de MWAA y la política de ejecución de MWAA) dependen de AWS CloudFormation. Recomendamos los siguientes pasos:
-
Añada la siguiente declaración
DependsOn
a su plantilla de AWS CloudFormation.... MaxWorkers: 5 NetworkConfiguration: SecurityGroupIds: - !GetAtt SecurityGroup.GroupId SubnetIds: !Ref subnetIds WebserverAccessMode: PUBLIC_ONLY
DependsOn: MwaaExecutionPolicy
MwaaExecutionPolicy: Type: AWS::IAM::ManagedPolicy Properties: Roles: - !Ref MwaaExecutionRole PolicyDocument: Version: 2012-10-17 Statement: - Effect: Allow Action: airflow:PublishMetrics Resource: ...Para ver un ejemplo, consulte Tutorial de inicio rápido de Amazon Managed Workflows para Apache Airflow.
En los registros de Apache Airflow aparece el mensaje ‘Cannot locate a 64-bit Oracle Client library: "libclntsh.so: cannot open shared object file: No such file or directory’
-
Recomendamos los siguientes pasos:
-
Si utiliza Apache Airflow v2, agregue
core.lazy_load_plugins : False
como opción de configuración de Apache Airflow. Para obtener más información, consulte Uso de las opciones de configuración para cargar complementos en la versión 2.
-
Con respecto a psycopg2, me aparece ‘server closed the connection unexpectedly’ en mis registros de programador
Si aparece un error similar al siguiente, es posible que su programador de Apache Airflow se haya quedado sin recursos.
2021-06-14T10:20:24.581-05:00 sqlalchemy.exc.OperationalError: (psycopg2.OperationalError) server closed the connection unexpectedly 2021-06-14T10:20:24.633-05:00 This probably means the server terminated abnormally 2021-06-14T10:20:24.686-05:00 before or while processing the request.
Recomendamos los siguientes pasos:
-
Valore la posibilidad de actualizar a Apache Airflow v2.0.2, donde podrá especificar hasta 5 programadores.
En los registros de procesamiento de DAG aparece el mensaje ‘Executor reports task instance %s finished (%s) although the task says its %s’
Si le sale un error similar al siguiente, es posible que sus tareas de larga ejecución hayan alcanzado el límite de tiempo de tareas en Amazon MWAA. Amazon MWAA tiene un límite de 12 horas para cada tarea de Airflow, a fin de evitar que las tareas se queden atascadas en la cola y bloqueen actividades como el escalado automático.
Executor reports task instance %s finished (%s) although the task says its %s. (Info: %s) Was the task killed externally
Recomendamos los siguientes pasos:
-
Valore la posibilidad de dividir la tarea en varias tareas de ejecución más cortas. Airflow suele tener un modelo en el que los operadores son asíncronos. Invoca actividades en sistemas externos y los sensores de Apache Airflow llevan a cabo un sondeo para ver cuándo se han completado. Si un sensor falla, se puede volver a probar de forma segura sin que hacerlo afecte a la funcionalidad del operador.
Aparece el mensaje ‘Could not read remote logs from log_group: airflow-*{*environmentName}-Task log_stream:* {*DAG_ID}/*{*TASK_ID}/*{*time}/*{*n}.log.’ en mis registros de tareas
Si aparece un error similar al siguiente, es posible que el rol de ejecución de su entorno no contenga una política de permisos para crear flujos de registro para los registros de tareas.
Could not read remote logs from log_group: airflow-*{*environmentName}-Task log_stream:* {*DAG_ID}/*{*TASK_ID}/*{*time}/*{*n}.log.
Recomendamos los siguientes pasos:
-
Modifique el rol de ejecución de su entorno mediante una de las políticas de ejemplo que se muestran en Función de MWAA ejecución de Amazon.
Es posible que también haya especificado un paquete de proveedores en su archivo requirements.txt
que no sea compatible con su versión de Apache Airflow. Por ejemplo, si utiliza Apache Airflow v2.0.2, es posible que haya especificado un paquete, por ejemplo, apache-airflow-providers-databricks
Recomendamos los siguientes pasos:
-
Si utiliza Apache Airflow v2.0.2, modifique el archivo
requirements.txt
y añadaapache-airflow[databricks]
. Así se instala la versión correcta del paquete de Databricks compatible con Apache Airflow v2.0.2. -
Pruebe sus DAG, complementos personalizados y dependencias de Python de forma local con aws-mwaa-local-runner
en GitHub.