Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Amazon Managed Workflows for Apache Airflow
In diesem Thema werden häufig auftretende Probleme und Fehler beschrieben, die bei der Verwendung von Apache Airflow in Amazon Managed Workflows for Apache Airflow auftreten können, sowie empfohlene Schritte zur Behebung dieser Fehler.
Inhalt
- Fehlerbehebung: DAGs, Operatoren, Verbindungen und andere Probleme in Apache Airflow v2
- Verbindungen
- Ich kann keine Verbindung zu Secrets Manager herstellen
- Wie konfiguriere ich die Bedingungen für densecretsmanager:ResourceTag/<tag-key> Secrets Manager oder eine Ressourcenbeschränkung in meiner Ausführungsrollenrichtlinie?
- Ich kann keine Verbindung zu Snowflake herstellen
- Ich kann meine Verbindung in der Airflow-Benutzeroberfläche nicht sehen
- Webserver
- Aufgaben
- CLI
- Operatoren
- Verbindungen
- Fehlerbehebung: DAGs, Operatoren, Verbindungen und andere Probleme in Apache Airflow v1
- requirements.txt wird aktualisiert
- Defekte DAG
- Ich habe bei der Verwendung von Amazon DynamoDB DynamoDB-Operatoren die Fehlermeldung „Broken DAG“ erhalten
- Ich habe den Fehler „Broken DAG: Kein Modul namens psycopg2“ erhalten
- Ich habe bei der Verwendung der Slack-Operatoren die Fehlermeldung „Broken DAG“ erhalten
- Ich habe verschiedene Fehler bei der Installation von Google/GCP/ erhaltenBigQuery
- Ich habe den Fehler „Broken DAG: Kein Modul namens Cython“ erhalten
- Operatoren
- Verbindungen
- Webserver
- Aufgaben
- CLI
- Problembehandlung: Erstellen und Aktualisieren einer Amazon MWAA-Umgebung
- Aktualisieren von requirements.txt
- Plug-ins
- Unterstützt Amazon MWAA die Implementierung einer benutzerdefinierten Benutzeroberfläche?
- Ich kann benutzerdefinierte UI-Änderungen auf dem Amazon MWAA Local Runner über Plugins implementieren, aber wenn ich versuche, dasselbe auf Amazon MWAA zu tun, sehe ich weder meine Änderungen noch irgendwelche Fehler. Warum passiert das?
- Erstellen Buckets
- Erstellen der -Umgebung
- Ich habe versucht, eine Umgebung zu erstellen, und sie steckt im Status „Creating“ fest
- Ich habe versucht, eine Umgebung zu erstellen, aber der Status wird als „Erstellen fehlgeschlagen“ angezeigt
- Ich habe versucht, eine VPC auszuwählen, und habe den Fehler „Netzwerkfehler“ erhalten
- Ich habe versucht, eine Umgebung zu erstellen, und habe den Fehler „Muss übergeben werden“ für den Dienst, die Partition oder die Ressource erhalten
- Ich habe versucht, eine Umgebung zu erstellen, und der Status wird als „Verfügbar“ angezeigt, aber wenn ich versuche, auf die Airflow-Benutzeroberfläche zuzugreifen, wird der Fehler „Empty Reply from Server“ oder „502 Bad Gateway“ angezeigt
- Ich habe versucht, eine Umgebung zu erstellen, und mein Benutzername besteht aus einer Reihe zufälliger Charakternamen
- Umgebung aktualisieren
- Zugangsumgebung
- Problembehandlung: CloudWatch Protokolle und CloudTrail Fehler
- Logs (Protokolle)
- Ich kann meine Aufgabenprotokolle nicht sehen, oder ich habe die Fehlermeldung „Remote-Protokoll aus Cloudwatch log_group lesen“ erhalten
- Aufgaben schlagen fehl, wenn keine Protokolle vorhanden sind
- Ich sehe einen Fehler '' in ResourceAlreadyExistsException CloudTrail
- Ich sehe den Fehler „Ungültige Anfrage“ in CloudTrail
- In den Apache Airflow-Protokollen wird die Meldung „Eine 64-Bit-Oracle-Client-Bibliothek kann nicht gefunden werden: „libclntsh.so: cannot open shared object file: No such file or directory“ angezeigt
- Ich sehe in meinen Scheduler-Protokollen die Meldung psycopg2, dass der Server die Verbindung unerwartet geschlossen hat
- Ich sehe in meinen DAG-Verarbeitungsprotokollen die Meldung „Der Executor meldet die Aufgabeninstanz %s als abgeschlossen (%s), obwohl für die Aufgabe angegeben ist, dass sie %s ist“
- Ich erhalte die Meldung „Konnten keine Remote-Protokolle von log_group lesen: airflow-* {*environmentName} -Task log_stream: * {*DAG_ID} /* {*TASK_ID} /* {*time} /* {*n} .log.“ in meinen Aufgabenprotokollen
- Logs (Protokolle)