Supervise Amazon Data Firehose mediante registros CloudWatch - Amazon Data Firehose

La entrega de transmisiones de Amazon Data Firehose a Apache Iceberg Tables en Amazon S3 está en versión preliminar y está sujeta a cambios.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Supervise Amazon Data Firehose mediante registros CloudWatch

Amazon Data Firehose se integra con Amazon CloudWatch Logs para que pueda ver los registros de errores específicos cuando se produzca un error en la invocación de Lambda para la transformación o la entrega de datos. Puedes activar el registro de errores de Amazon Data Firehose al crear tu transmisión de Firehose.

Si habilita el registro de errores de Amazon Data Firehose en la consola de Amazon Data Firehose, se crean un grupo de registros y los flujos de registros correspondientes para la transmisión de Firehose en su nombre. El formato del nombre del grupo de registros es/aws/kinesisfirehose/delivery-stream-name, donde delivery-stream-name es el nombre de la transmisión Firehose correspondiente. DestinationDeliveryes el flujo de registro que se crea y se utiliza para registrar cualquier error relacionado con la entrega al destino principal. Otro flujo de registro denominado BackupDelivery se crea solo si la copia de seguridad de S3 está habilitada para el destino. El flujo de registro BackupDelivery se utiliza para registrar cualquier error relacionado con la entrega en la copia de seguridad de S3.

Por ejemplo, si crea una transmisión de Firehose «MyStream» con Amazon Redshift como destino y habilita el registro de errores de Amazon Data Firehose, se crea lo siguiente en su nombre: un grupo de registros denominado y dos secuencias de registros aws/kinesisfirehose/MyStream denominadas y. DestinationDelivery BackupDelivery En este ejemplo, se utilizará DestinationDelivery para registrar cualquier error relacionado con la entrega en el destino de Amazon Redshift y también en el destino intermedio de S3. BackupDelivery, en caso de que la copia de seguridad de S3 esté habilitada, se utilizará para registrar cualquier error relacionado con la entrega en el bucket de copias de seguridad de S3.

Puede activar el registro de errores de Amazon Data Firehose a través de AWS CLI API, la o AWS CloudFormation mediante la CloudWatchLoggingOptions configuración. Para ello, cree previamente un grupo de registro y un flujo de registro. Recomendamos reservar ese grupo de registros y ese flujo de registros exclusivamente para el registro de errores de Amazon Data Firehose. Asegúrese también de que la IAM política asociada cuente con el permiso correspondiente. "logs:putLogEvents" Para obtener más información, consulte Control del acceso con Amazon Data Firehose.

Tenga en cuenta que Amazon Data Firehose no garantiza que todos los registros de errores de entrega se envíen a CloudWatch Logs. En circunstancias en las que la tasa de errores en la entrega es alta, Amazon Data Firehose toma muestras de los registros de errores de entrega antes de enviarlos a CloudWatch Logs.

Hay un cargo nominal por los registros de errores enviados a CloudWatch Logs. Para obtener más información, consulta los CloudWatch precios de Amazon.

Errores en la entrega de datos

La siguiente es una lista de mensajes y códigos de error en la entrega de datos para cada destino de Amazon Data Firehose. Cada mensaje de error también describe qué debe hacerse para solucionar el problema.

Errores en la entrega de datos de Amazon S3

Amazon Data Firehose puede enviar los siguientes errores relacionados con Amazon S3 a Logs. CloudWatch

Código de error Mensaje de error e información
S3.KMS.NotFoundException

«No se encontró la AWS KMS clave proporcionada. Si está utilizando lo que cree que es una AWS KMS clave válida con la función correcta, compruebe si hay algún problema con la cuenta a la que está asociada la AWS KMS clave».

S3.KMS.RequestLimitExceeded

«Se superó el límite de KMS solicitudes por segundo al intentar cifrar objetos de S3. Aumente el límite de solicitudes por segundo."

Para obtener más información, consulte Límites en la Guía para desarrolladores de AWS Key Management Service .

S3.AccessDenied "Acceso denegado. Asegúrese de que la política de confianza del IAM rol proporcionado permita a Amazon Data Firehose asumir el rol y que la política de acceso permita el acceso al bucket de S3».
S3.AccountProblem «Hay un problema con su AWS cuenta que impide que la operación se complete correctamente. Contact AWS Support.”
S3.AllAccessDisabled "El acceso a la cuenta proporcionada se ha deshabilitado. Póngase en contacto con AWS Support».
S3.InvalidPayer "El acceso a la cuenta proporcionada se ha deshabilitado. Póngase en contacto con AWS Support».
S3.NotSignedUp “The account is not signed up for Amazon S3. Inscríbase o utilice otra cuenta."
S3.NoSuchBucket "El bucket especificado no existe. Créelo o utilice otro que exista."
S3.MethodNotAllowed "Este recurso no admite el método especificado. Modify the bucket’s policy to allow the correct Amazon S3 operation permissions.”
InternalError "Se ha producido un error interno al intentar entregar los datos. Se volverá a intentar la entrega; si el error persiste, se informará al respecto AWS para su resolución».
S3.KMS.KeyDisabled «La KMS clave proporcionada está desactivada. Enable the key or use a different key.”
S3.KMS.InvalidStateException «La KMS clave proporcionada está en un estado no válido. Please use a different key.”
KMS.InvalidStateException «La KMS clave proporcionada está en un estado no válido. Please use a different key.”
KMS.DisabledException «La KMS clave proporcionada está deshabilitada. Please fix the key or use a different key.”
S3.SlowDown “The rate of put request to the specified bucket was too high. Aumente el tamaño del búfer de flujo Firehose o reduzca las solicitudes de venta de otras aplicaciones».
S3.SubscriptionRequired “Access was denied when calling S3. Asegúrese de que el IAM rol y la KMS clave (si se proporciona) transferidos tengan una suscripción a Amazon S3».
S3.InvalidToken “The provided token is malformed or otherwise invalid. Please check the credentials provided.”
S3.KMS.KeyNotConfigured «KMSla clave no está configurada. Configure KMSMasterKeyID o desactive el cifrado de su bucket de S3».
S3.KMS.AsymmetricCMKNotSupported «Amazon S3 solo es compatible con sistemas simétricosCMKs. No puede utilizar un sistema asimétrico CMK para cifrar los datos en Amazon S3. Para obtener su tipoCMK, utilice la KMS DescribeKey operación».
S3.IllegalLocationConstraintException “Firehose currently uses s3 global endpoint for data delivery to the configured s3 bucket. The region of the configured s3 bucket doesn't support s3 global endpoint. Cree una transmisión de Firehose en la misma región que el depósito s3 o utilice el depósito s3 en la región que admite el punto final global».
S3.InvalidPrefixConfigurationException “The custom s3 prefix used for the timestamp evaluation is invalid. Check your s3 prefix contains valid expressions for the current date and time of the year.”
DataFormatConversion.MalformedData “Illegal character found between tokens.”

Apache Iceberg muestra los errores de entrega de datos

Para ver los errores de entrega de datos de Apache Iceberg Tables, consulte. Entregue datos a Apache Iceberg Tables con Amazon Data Firehose

Errores en la entrega de datos de Amazon Redshift

Amazon Data Firehose puede enviar los siguientes errores relacionados con Amazon Redshift a Logs. CloudWatch

Código de error Mensaje de error e información
Redshift.TableNotFound

"La tabla a la que cargar datos no se ha encontrado. Asegúrese de que la tabla especificada exista."

The destination table in Amazon Redshift to which data should be copied from S3 was not found. Tenga en cuenta que Amazon Data Firehose no crea la tabla de Amazon Redshift si no existe.

Redshift.SyntaxError «El COPY comando contiene un error de sintaxis. Reintente el comando."
Redshift.AuthenticationFailed "Error de autenticación del nombre de usuario y la contraseña. Proporcione un nombre de usuario y contraseña válidos."
Redshift.AccessDenied "Acceso denegado. Asegúrese de que la política de confianza del IAM rol proporcionado permita a Amazon Data Firehose asumir el rol».
Redshift.S3BucketAccessDenied «El COPY comando no pudo acceder al bucket de S3. Asegúrese de que la política de acceso del IAM rol proporcionado permita el acceso al bucket de S3».
Redshift.DataLoadFailed "Se ha producido un error al cargar los datos en la tabla. Consulte la tabla ERRORS del sistema STL LOAD _ _ para obtener más información».
Redshift.ColumnNotFound «No existe una columna del COPY comando en la tabla. Especifique un nombre de columna válido."
Redshift.DatabaseNotFound «No se encontró la base de datos especificada en la configuración de destino de Amazon Redshift o no JDBC URL se encontró. Especifique un nombre de base de datos válido."
Redshift.IncorrectCopyOptions

«Se proporcionaron COPY opciones conflictivas o redundantes. Algunas opciones no son compatibles en determinadas combinaciones. Consulta la referencia de COPY comandos para obtener más información».

Para obtener más información, consulte el COPYcomando Amazon Redshift en la Guía para desarrolladores de bases de datos Amazon Redshift.

Redshift.MissingColumn «Hay una columna definida en el esquema de la tabla como si no tuviera NOT NULL un DEFAULT valor y no estuviera incluida en la lista de columnas. Exclude this column, ensure that the loaded data always provides a value for this column, or add a default value to the Amazon Redshift schema for this table.”
Redshift.ConnectionFailed “The connection to the specified Amazon Redshift cluster failed. Asegúrese de que la configuración de seguridad permita las conexiones de Amazon Data Firehose, de que el clúster o la base de datos especificados en la configuración JDBC URL de destino de Amazon Redshift sean correctos y de que el clúster esté disponible».
Redshift.ColumnMismatch «El número de jsonpaths del COPY comando y el número de columnas de la tabla de destino deben coincidir. Reintente el comando."
Redshift.IncorrectOrMissingRegion “Amazon Redshift attempted to use the wrong region endpoint for accessing the S3 bucket. Especifique un valor de región correcto en las opciones de COPY comando o asegúrese de que el bucket de S3 esté en la misma región que la base de datos de Amazon Redshift».
Redshift.IncorrectJsonPathsFile «El archivo jsonpaths proporcionado no tiene un formato compatible. JSON Reintente el comando."
Redshift.MissingS3File “One or more S3 files required by Amazon Redshift have been removed from the S3 bucket. Revise las políticas del bucket de S3 para borrar cualquier eliminación automática de archivos de S3."
Redshift.InsufficientPrivilege "El usuario no tiene permisos para cargar datos en la tabla. Compruebe los permisos de usuario de Amazon Redshift para ver el INSERT privilegio».
Redshift.ReadOnlyCluster "La consulta no se puede ejecutar porque el sistema está en modo de cambio de tamaño. Intente ejecutar la consulta de nuevo más tarde."
Redshift.DiskFull "No se han podido cargar los datos ya que el disco está lleno. Increase the capacity of the Amazon Redshift cluster or delete unused data to free disk space.”
InternalError "Se ha producido un error interno al intentar entregar los datos. Se volverá a intentar la entrega; si el error persiste, se informará al respecto AWS para que se resuelva».
Redshift.ArgumentNotSupported «El COPY comando contiene opciones no compatibles».
Redshift.AnalyzeTableAccessDenied “Access denied. Copy from S3 to Redshift is failing because analyze table can only be done by table or database owner.”
Redshift.SchemaNotFound «No se encontró el esquema especificado en la configuración DataTableName de destino de Amazon Redshift. Specify a valid schema name.”
Redshift.ColumnSpecifiedMoreThanOnce “There is a column specified more than once in the column list. Ensure that duplicate columns are removed.”
Redshift.ColumnNotNullWithoutDefault «Hay una columna que no es nula y DEFAULT que no está incluida en la lista de columnas. Ensure that such columns are included in the column list.”
Redshift.IncorrectBucketRegion “Redshift attempted to use a bucket in a different region from the cluster. Please specify a bucket within the same region as the cluster.”
Redshift.S3SlowDown “High request rate to S3. Reduce the rate to avoid getting throttled.”
Redshift.InvalidCopyOptionForJson «Utilice una ruta S3 automática o válida para json»copyOption.
Redshift.InvalidCopyOptionJSONPathFormat «COPYfalló con un error\" JSONPath Formato no válido. Array index is out of range.\” Por favor, corrija la JSONPath expresión».
Redshift.InvalidCopyOptionRBACAclNotAllowed «se COPY produjo un error». No se puede usar el marco RBAC ACL mientras la propagación de permisos no esté habilitada. \»
Redshift.DiskSpaceQuotaExceeded “Transaction aborted due to disk space quota exceed. Free up disk space or request increased quota for the schema(s).”
Redshift.ConnectionsLimitExceeded “Connection limit exceeded for user.”
Redshift.SslNotSupported «Se produjo un error en la conexión con el clúster de Amazon Redshift especificado porque el servidor no es compatible. SSL Please check your cluster settings.”
Redshift.HoseNotFound “The hose has been deleted. Please check the status of your hose.”
Redshift.Delimiter «El copyOptions delimitador de no copyCommand es válido. Ensure that it is a single character.”
Redshift.QueryCancelled «El usuario ha cancelado la COPY operación».
Redshift.CompressionMismatch «La manguera está configurada conUNCOMPRESSED, pero copyOption incluye un formato de compresión».
Redshift.EncryptionCredentials «La ENCRYPTED opción requiere credenciales con el formato: 'aws_iam_role=... ; master_symmetric_key=... 'o 'aws_access_key_id=... ; aws_secret_access_key=... [; token=...] ; master_symmetric_key=... '»
Redshift.InvalidCopyOptions «Opciones de configuración no válidas». COPY
Redshift.InvalidMessageFormat “Copy command contains an invalid character.”
Redshift.TransactionIdLimitReached “Transaction ID limit reached.”
Redshift.DestinationRemoved “Please verify that the redshift destination exists and is configured correctly in the Firehose configuration.”
Redshift.OutOfMemory “The Redshift cluster is running out of memory. Please ensure the cluster has sufficient capacity.”
Redshift.CannotForkProcess “The Redshift cluster is running out of memory. Please ensure the cluster has sufficient capacity.”
Redshift.SslFailure «La SSL conexión se cerró durante el apretón de manos».
Redshift.Resize “The Redshift cluster is resizing. Firehose will not be able to deliver data while the cluster is resizing.”
Redshift.ImproperQualifiedName “The qualified name is improper (too many dotted names).”
Redshift.InvalidJsonPathFormat «JSONPathFormato no válido».
Redshift.TooManyConnectionsException “Too many connections to Redshift.”
Redshift.PSQLException «PSQlExceptionobservado desde Redshift».
Redshift.DuplicateSecondsSpecification “Duplicate seconds specification in date/time format.”
Redshift.RelationCouldNotBeOpened “Encountered Redshift error, relation could not be opened. Check Redshift logs for the specified DB.”
Redshift.TooManyClients “Encountered too many clients exception from Redshift. Revisit max connections to the database if there are multiple producers writing to it simultaneously.”

Errores de entrega de datos de Snowflake

Firehose puede enviar los siguientes errores relacionados con Snowflake a Logs. CloudWatch

Código de error Mensaje de error e información
Snowflake.InvalidUrl

«Firehose no puede conectarse a Snowflake. Asegúrese de que la URL de la cuenta esté especificada correctamente en la configuración de destino de Snowflake».

Snowflake.InvalidUser

«Firehose no puede conectarse a Snowflake. Asegúrese de que el usuario esté especificado correctamente en la configuración de destino de Snowflake».

Snowflake.InvalidRole

«El rol de snowflake especificado no existe o no está autorizado. Asegúrese de que el rol esté asignado al usuario especificado»

Snowflake.InvalidTable

«La tabla proporcionada no existe o no está autorizada»

Snowflake.InvalidSchema

«El esquema proporcionado no existe o no está autorizado»

Snowflake.InvalidDatabase

«La base de datos proporcionada no existe o no está autorizada»

Snowflake.InvalidPrivateKeyOrPassphrase

«La clave privada o la frase de contraseña especificada no es válida. Tenga en cuenta que la clave privada proporcionada debe ser una clave privada válida PEMRSA»

Snowflake.MissingColumns

«La solicitud de inserción se rechaza porque faltan columnas en la carga útil de entrada. Asegúrese de que los valores estén especificados para todas las columnas que no admiten valores NULL»

Snowflake.ExtraColumns

«La solicitud de inserción se rechaza debido a que hay columnas adicionales. No se deben especificar las columnas que no estén presentes en la tabla»

Snowflake.InvalidInput

«La entrega ha fallado debido a un formato de entrada no válido. Asegúrese de que la carga útil de entrada proporcionada esté en el JSON formato «aceptable»

Snowflake.IncorrectValue

«La entrega ha fallado debido a un tipo de datos incorrecto en la carga útil de entrada. Asegúrese de que JSON los valores especificados en la carga útil de entrada se ajusten al tipo de datos declarado en la definición de la tabla «Snowflake»

Errores en la entrega de datos de Splunk

Amazon Data Firehose puede enviar los siguientes errores relacionados con Splunk a Logs. CloudWatch

Código de error Mensaje de error e información
Splunk.ProxyWithoutStickySessions

«Si tiene un proxy (ELBu otro) entre Amazon Data Firehose y el HEC nodo, debe habilitar las sesiones fijas para que sean compatibles HECACKs».

Splunk.DisabledToken «El HEC token está deshabilitado. Habilite el token para permitir la entrega de datos a Splunk.".
Splunk.InvalidToken «El HEC token no es válido. Actualiza Amazon Data Firehose con un HEC token válido».
Splunk.InvalidDataFormat "Los datos no están en el formato correcto. Para ver cómo formatear correctamente los datos de los HEC puntos finales de Raw o Event, consulta Splunk Event Data».
Splunk.InvalidIndex «El HEC token o la entrada están configurados con un índice no válido. Compruebe la configuración del índice e inténtelo de nuevo.".
Splunk.ServerError «La entrega de datos a Splunk falló debido a un error del servidor en el HEC nodo. Amazon Data Firehose volverá a intentar enviar los datos si la duración del reintento en su Amazon Data Firehose es superior a 0. Si todos los reintentos fallan, Amazon Data Firehose realiza una copia de seguridad de los datos en Amazon S3».
Splunk.DisabledAck «El reconocimiento del indexador está deshabilitado para el token. HEC Habilite el reconocimiento de indexadores e inténtelo de nuevo. Para obtener más información, consulte Enable indexer acknowledgement.".
Splunk.AckTimeout «No recibí ningún acuse de recibo de HEC antes de que expirara el tiempo de espera del HEC acuse de recibo. Despite the acknowledgement timeout, it's possible the data was indexed successfully in Splunk. Amazon Data Firehose realiza copias de seguridad en Amazon S3 de los datos cuyo tiempo de espera de confirmación ha expirado».
Splunk.MaxRetriesFailed

"Error al entregar datos a Splunk o al recibir confirmación. Compruebe su HEC estado de salud e inténtelo de nuevo».

Splunk.ConnectionTimeout "Se ha agotado el tiempo de espera de conexión a Splunk. This might be a transient error and the request will be retried. Amazon Data Firehose realiza copias de seguridad de los datos en Amazon S3 si todos los intentos fallan».
Splunk.InvalidEndpoint «No se ha podido conectar al punto finalHEC. Asegúrese de que el HEC punto de conexión URL es válido y se puede acceder a él desde Amazon Data Firehose».
Splunk.ConnectionClosed "No se pueden enviar datos a Splunk debido a un error de conexión. Posiblemente sea un error temporal. Aumentar la duración de los reintentos en la configuración de Amazon Data Firehose podría evitar este tipo de errores transitorios».
Splunk.SSLUnverified «No se ha podido conectar al punto final. HEC El host no coincide con el certificado proporcionadas por el homólogo. Asegúrese de que el certificado y el host son válidos."
Splunk.SSLHandshake «No se ha podido conectar al HEC punto final. Asegúrese de que el certificado y el host son válidos."
Splunk.URLNotFound «La solicitud no URL se encontró en el servidor de Splunk. Please check the Splunk cluster and make sure it is configured correctly.”
Splunk.ServerError.ContentTooLarge «La entrega de datos a Splunk falló debido a un error del servidor con el siguiente mensajestatusCode: 413: la solicitud que envió su cliente era demasiado grande. See splunk docs to configure max_content_length.”
Splunk.IndexerBusy «La entrega de datos a Splunk falló debido a un error del servidor en el HEC nodo. Asegúrese de que el HEC punto final o el Elastic Load Balancer estén accesibles y en buen estado».
Splunk.ConnectionRecycled “The connection from Firehose to Splunk has been recycled. Delivery will be retried.”
Splunk.AcknowledgementsDisabled «No se pudieron activar los agradecimientos. POST Asegúrese de que los acuses de recibo estén habilitados en el HEC punto final».
Splunk.InvalidHecResponseCharacter «Se han encontrado caracteres no válidos en la HEC respuesta, asegúrate de comprobar el servicio y la HEC configuración».

ElasticSearch Errores en la entrega de datos

Amazon Data Firehose puede enviar los siguientes ElasticSearch errores a CloudWatch Logs.

Código de error Mensaje de error e información
ES.AccessDenied "Acceso denegado. Asegúrese de que la IAM función proporcionada asociada a Firehose no se elimine».
ES.ResourceNotFound «El dominio de AWS Elasticsearch especificado no existe».

HTTPSErrores de entrega de datos de Endpoint

Amazon Data Firehose puede enviar los siguientes errores HTTP relacionados con Endpoint a Logs. CloudWatch Si ninguno de estos errores coincide con el problema que experimenta, el error predeterminado es el siguiente: “An internal error occurred while attempting to deliver data. Se volverá a intentar la entrega; si el error persiste, se informará al respecto para AWS que se resuelva».

Código de error Mensaje de error e información
HttpEndpoint.RequestTimeout

Se agotó el tiempo de espera de la entrega antes de recibir una respuesta y se volverá a intentar. Si el error persiste, póngase en contacto con el equipo del servicio Firehose de AWS .

HttpEndpoint.ResponseTooLarge “The response received from the endpoint is too large. Contact the owner of the endpoint to resolve this issue.”
HttpEndpoint.InvalidResponseFromDestination “The response received from the specified endpoint is invalid. Contact the owner of the endpoint to resolve the issue.”
HttpEndpoint.DestinationException “The following response was received from the endpoint destination.”
HttpEndpoint.ConnectionFailed “Unable to connect to the destination endpoint. Contact the owner of the endpoint to resolve this issue.”
HttpEndpoint.ConnectionReset “Unable to maintain connection with the endpoint. Contact the owner of the endpoint to resolve this issue.”
HttpEndpoint.ConnectionReset “Trouble maintaining connection with the endpoint. Please reach out to the owner of the endpoint.”
HttpEndpoint.ResponseReasonPhraseExceededLimit “The response reason phrase received from the endpoint exceed the configured limit of 64 characters.”
HttpEndpoint.InvalidResponseFromDestination “The response received from the endpoint is invalid. Consulte Solución de problemas de HTTP puntos finales en la documentación de Firehose para obtener más información. Reason: .”
HttpEndpoint.DestinationException “Delivery to the endpoint was unsuccessful. Consulte Solución de problemas de HTTP puntos finales en la documentación de Firehose para obtener más información. Response received with status code .”
HttpEndpoint.InvalidStatusCode “Received an invalid response status code.”
HttpEndpoint.SSLHandshakeFailure «No se ha podido completar un SSL apretón de manos con el terminal. Contact the owner of the endpoint to resolve this issue.”
HttpEndpoint.SSLHandshakeFailure «No se ha podido completar un SSL apretón de manos con el punto final. Contact the owner of the endpoint to resolve this issue.”
HttpEndpoint.SSLFailure «No se ha podido completar el TLS apretón de manos con el punto final. Contact the owner of the endpoint to resolve this issue.”
HttpEndpoint.SSLHandshakeCertificatePathFailure «No se ha podido completar un SSL apretón de manos con el terminal porque la ruta de certificación no es válida. Contact the owner of the endpoint to resolve this issue.”
HttpEndpoint.SSLHandshakeCertificatePathValidationFailure «No se ha podido completar un SSL apretón de manos con el punto final debido a un error en la validación de la ruta de certificación. Contact the owner of the endpoint to resolve this issue.”
HttpEndpoint.MakeRequestFailure.IllegalUriException «La HttpEndpoint solicitud ha fallado debido a una entrada no válida. URI Asegúrese de que todos los caracteres de la entrada URI son válidos».
HttpEndpoint.MakeRequestFailure.IllegalCharacterInHeaderValue «la HttpEndpoint solicitud falló debido a un error de respuesta ilegal. Illegal character '\n' in header value.”
HttpEndpoint.IllegalResponseFailure «la HttpEndpoint solicitud falló debido a un error de respuesta ilegal. HTTPel mensaje no debe contener más de un encabezado de tipo de contenido».
HttpEndpoint.IllegalMessageStart «la HttpEndpoint solicitud falló debido a un error de respuesta ilegal. Inicio de HTTP mensaje ilegal. Consulte Solución de problemas de HTTP puntos finales en la documentación de Firehose para obtener más información».

Errores en la entrega de Amazon OpenSearch Service Data

Para el destino del OpenSearch servicio, Amazon Data Firehose envía los errores a los CloudWatch registros a medida que los devuelve el servicio. OpenSearch

Además de los errores que pueden provenir de OpenSearch los clústeres, es posible que se produzcan los dos errores siguientes:

  • Se produce un error de autenticación/autorización al intentar entregar datos al clúster de OpenSearch servicio de destino. Esto puede ocurrir debido a problemas con los permisos o de forma intermitente cuando se modifica la configuración del dominio del OpenSearch servicio de destino de Amazon Data Firehose. Compruebe la política del clúster y los permisos del rol.

  • No se pudieron enviar los datos al clúster de OpenSearch servicios de destino debido a errores de autenticación o autorización. Esto puede ocurrir debido a problemas con los permisos o de forma intermitente cuando se modifica la configuración del dominio del OpenSearch servicio de destino de Amazon Data Firehose. Compruebe la política del clúster y los permisos del rol.

Código de error Mensaje de error e información
OS.AccessDenied "Acceso denegado. Asegúrese de que la política de confianza para la IAM función proporcionada permita a Firehose asumir la función y que la política de acceso permita el acceso al OpenSearch Servicio API de Amazon».
OS.AccessDenied "Acceso denegado. Asegúrese de que la política de confianza para la IAM función proporcionada permita a Firehose asumir la función y que la política de acceso permita el acceso al OpenSearch Servicio API de Amazon».
OS.AccessDenied "Acceso denegado. Asegúrese de que la IAM función proporcionada asociada a Firehose no se elimine».
OS.AccessDenied "Acceso denegado. Asegúrese de que la IAM función proporcionada asociada a Firehose no se elimine».
OS.ResourceNotFound «El dominio de Amazon OpenSearch Service especificado no existe».
OS.ResourceNotFound «El dominio de Amazon OpenSearch Service especificado no existe».
OS.AccessDenied "Acceso denegado. Asegúrese de que la política de confianza para la IAM función proporcionada permita a Firehose asumir la función y que la política de acceso permita el acceso al OpenSearch Servicio API de Amazon».
OS.RequestTimeout «Se agotó el tiempo de espera de la solicitud OpenSearch al clúster de Amazon Service o a la recogida OpenSearch sin servidor. Ensure that the cluster or collection has sufficient capacity for the current workload.”
OS.ClusterError «El clúster OpenSearch de Amazon Service ha devuelto un error no especificado».
OS.RequestTimeout «Se agotó el tiempo de espera de la solicitud OpenSearch al clúster de Amazon Service. Ensure that the cluster has sufficient capacity for the current workload.”
OS.ConnectionFailed «Problemas para conectarse al clúster de Amazon OpenSearch Service o a la colección OpenSearch Serverless. Ensure that the cluster or collection is healthy and reachable.”
OS.ConnectionReset «No se puede mantener la conexión con el clúster de Amazon OpenSearch Service o la colección OpenSearch Serverless. Contact the owner of the cluster or collection to resolve this issue.”
OS.ConnectionReset «Problemas para mantener la conexión con el clúster de Amazon OpenSearch Service o la colección OpenSearch Serverless. Ensure that the cluster or collection is healthy and has sufficient capacity for the current workload.”
OS.ConnectionReset «Problemas para mantener la conexión con el clúster de Amazon OpenSearch Service o la colección OpenSearch Serverless. Ensure that the cluster or collection is healthy and has sufficient capacity for the current workload.”
OS.AccessDenied "Acceso denegado. Asegúrese de que la política de acceso del clúster OpenSearch de Amazon Service conceda acceso al IAM rol configurado».
OS.ValidationException «El OpenSearch clúster devolvió unESServiceException. Una de las razones es que el clúster se ha actualizado a OS 2.x o superior, pero la manguera aún tiene el TypeName parámetro configurado. Actualice la configuración de la TypeName manguera configurándola en una cadena vacía o cambie el punto final al clúster, que admite el parámetro Type».
OS.ValidationException “Member must satisfy regular expression pattern: [a-z][a-z0-9\\-]+.”
OS.JsonParseException «El clúster OpenSearch de Amazon Service devolvió un JsonParseException. Ensure that the data being put is valid.”
OS.AmazonOpenSearchServiceParseException «El clúster OpenSearch de Amazon Service devolvió un AmazonOpenSearchServiceParseException. Ensure that the data being put is valid.”
OS.ExplicitIndexInBulkNotAllowed «Asegúrese de que rest.action.multi.allow_explicit_index esté establecido en true en el clúster de Amazon Service». OpenSearch
OS.ClusterError «El clúster de Amazon OpenSearch Service o la colección OpenSearch Serverless devolvieron un error no especificado».
OS.ClusterBlockException «El clúster devolvió un. ClusterBlockException It may be overloaded.”
OS.InvalidARN «El OpenSearch servicio de Amazon ARN proporcionado no es válido. Comprueba tu DeliveryStream configuración».
OS.MalformedData “One or more records are malformed. Asegúrese de que cada registro sea un único JSON objeto válido y que no contenga líneas nuevas».
OS.InternalError “An internal error occurred when attempting to deliver data. Se volverá a intentar la entrega; si el error persiste, se informará al respecto AWS para que se resuelva».
OS.AliasWithMultipleIndicesNotAllowed “Alias has more than one indices associated with it. Ensure that the alias has only one index associated with it.”
OS.UnsupportedVersion «Amazon Data Firehose no admite actualmente Amazon OpenSearch Service 6.0. Póngase en contacto con AWS Support para obtener más información».
OS.CharConversionException “One or more records contained an invalid character.”
OS.InvalidDomainNameLength “The domain name length is not within valid OS limits.”
OS.VPCDomainNotSupported «Actualmente no VPCs se admiten los dominios de Amazon OpenSearch Service incluidos».
OS.ConnectionError «El servidor http cerró la conexión de forma inesperada. Comprueba el estado del clúster de Amazon OpenSearch Service o de la colección OpenSearch Serverless».
OS.LargeFieldData «El clúster OpenSearch de Amazon Service abortó la solicitud porque contenía un campo de datos superior al permitido».
OS.BadGateway «El clúster de Amazon OpenSearch Service o la colección OpenSearch Serverless abortaron la solicitud con una respuesta: 502 Bad Gateway».
OS.ServiceException «Se ha recibido un error del clúster de Amazon OpenSearch Service o de la colección OpenSearch Serverless. Si el clúster o la colección están detrás de unVPC, asegúrese de que la configuración de la red permita la conectividad».
OS.GatewayTimeout «Firehose detectó errores de tiempo de espera al conectarse al clúster de Amazon OpenSearch Service o a la colección OpenSearch Serverless».
OS.MalformedData «Amazon Data Firehose no admite los API comandos masivos de Amazon OpenSearch Service incluidos en el registro de Firehose».
OS.ResponseEntryCountMismatch «La respuesta de Bulk API contenía más entradas que el número de registros enviados. Asegúrese de que cada registro contenga solo un JSON objeto y de que no haya líneas nuevas».

Errores de invocación de Lambda

Amazon Data Firehose puede enviar los siguientes errores de invocación de Lambda a Logs. CloudWatch

Código de error Mensaje de error e información
Lambda.AssumeRoleAccessDenied

"Acceso denegado. Asegúrese de que la política de confianza del IAM rol proporcionado permita a Amazon Data Firehose asumir el rol».

Lambda.InvokeAccessDenied

"Acceso denegado. Ensure that the access policy allows access to the Lambda function.”

Lambda.JsonProcessingException

“There was an error parsing returned records from the Lambda function. Asegúrese de que los registros devueltos sigan el modelo de estado exigido por Amazon Data Firehose».

Para obtener más información, consulte Parámetros necesarios para la transformación de datos.

Lambda.InvokeLimitExceeded

“The Lambda concurrent execution limit is exceeded. Aumente el límite de ejecución simultánea."

Para obtener más información, consulte Límites de AWS Lambda en la Guía para desarrolladores de AWS Lambda .

Lambda.DuplicatedRecordId

"Se han devuelto varios registros con el mismo ID de registro. Asegúrese de que la función Lambda devuelva un registro único IDs para cada registro».

Para obtener más información, consulte Parámetros necesarios para la transformación de datos.

Lambda.MissingRecordId

«No se devolvieron uno o más registrosIDs. Asegúrese de que la función Lambda devuelva todos los registros IDs recibidos».

Para obtener más información, consulte Parámetros necesarios para la transformación de datos.

Lambda.ResourceNotFound

“The specified Lambda function does not exist. Use otra función que exista."

Lambda.InvalidSubnetIDException

«El identificador de subred especificado en la configuración de la VPC función Lambda no es válido. Asegúrese de que el ID de subred sea válido."

Lambda.InvalidSecurityGroupIDException

«El ID del grupo de seguridad especificado en la VPC configuración de la función Lambda no es válido. Asegúrese de que el ID del grupo de seguridad sea válido."

Lambda.SubnetIPAddressLimitReachedException

«no AWS Lambda pudo configurar el VPC acceso para la función Lambda porque una o más subredes configuradas no tienen direcciones IP disponibles. Aumente el límite de direcciones IP."

Para obtener más información, consulta Amazon VPC Limits (VPCand Subnets) en la Guía del VPC usuario de Amazon.

Lambda.ENILimitReachedException

«no AWS Lambda se pudo crear una interfaz de red elástica (ENI) en laVPC, especificada como parte de la configuración de la función Lambda, porque se alcanzó el límite de interfaces de red. Aumente el límite de interfaces de red."

Para obtener más información, consulta Amazon VPC Limits: Interfaces de red en la Guía del VPC usuario de Amazon.

Lambda.FunctionTimedOut

Se agotó el tiempo de espera de la función de Lambda. Aumente la configuración de tiempo de espera en la función de Lambda. Para obtener más información, consulte Configuración del tiempo de espera de la función.

Lambda.FunctionError

Puede deberse a uno de los siguientes errores:

  • La estructura de la salida no es válida. Compruebe su función y asegúrese de que la salida esté en el formato requerido. Además, asegúrese de que los registros procesados contengan un estado de resultado válido (Dropped, Ok o ProcessingFailed).

  • La función de Lambda se invocó correctamente, pero devolvió un resultado de error.

  • Lambda no pudo descifrar las variables de entorno porque se denegó el KMS acceso. Compruebe la configuración KMS clave de la función, así como la política clave. Para obtener más información, consulte Troubleshooting Key Access.

Lambda.FunctionRequestTimedOut

Amazon Data Firehose encontró que la solicitud no se completó antes del error de configuración del tiempo de espera de la solicitud al invocar Lambda. Revise el código Lambda para comprobar si el código Lambda está destinado a ejecutarse más allá del tiempo de espera configurado. Si es así, considere la posibilidad de ajustar la configuración de Lambda, incluida la memoria y el tiempo de espera. Para obtener más información, consulte Configuración de las opciones de las funciones de Lambda.

Lambda.TargetServerFailedToRespond

Amazon Data Firehose ha detectado un error. El servidor de destino no respondió al error al llamar al AWS servicio Lambda.

Lambda.InvalidZipFileException

Amazon Data Firehose se encontró InvalidZipFileException al invocar la función Lambda. Compruebe la configuración de la función de Lambda y el archivo zip de código de Lambda.

Lambda.InternalServerError

«Amazon Data Firehose se encontró InternalServerError al llamar al servicio Lambda AWS . Amazon Data Firehose volverá a intentar enviar los datos un número fijo de veces. Puede especificar o anular las opciones de reintento con las teclas o. CreateDeliveryStream UpdateDestination APIs Si el error persiste, póngase en contacto con el equipo de soporte de AWS Lambda.

Lambda.ServiceUnavailable

Amazon Data Firehose se encontró ServiceUnavailableException al llamar al servicio Lambda AWS . Amazon Data Firehose volverá a intentar enviar los datos un número fijo de veces. Puede especificar o anular las opciones de reintento con las teclas o. CreateDeliveryStream UpdateDestination APIs Si el error persiste, póngase en contacto con el soporte de AWS Lambda.

Lambda.InvalidSecurityToken

No se puede invocar la función de Lambda debido a que el token de seguridad no es válido. No se admite la invocación de Lambda entre particiones.

Lambda.InvocationFailure

Puede deberse a uno de los siguientes errores:

  • Amazon Data Firehose detectó errores al llamar a AWS Lambda. La operación se reintentará y, si el error persiste, se notificará a AWS para solucionarlo.

  • Amazon Data Firehose encontró una de KMSInvalidStateException Lambda. Lambda no ha podido descifrar las variables de entorno porque la KMS clave utilizada no es válida para Descifrar. Compruebe la clave de la función lambda. KMS

  • Amazon Data Firehose encontró una de AWS LambdaException Lambda. Lambda no pudo inicializar la imagen del contenedor proporcionada. Verifique la imagen.

  • Amazon Data Firehose detectó errores de tiempo de espera al llamar a Lambda. AWS El tiempo de espera máximo admitido de la función es de 5 minutos. Para obtener más información, consulte Data Transformation Execution Duration.

Lambda.JsonMappingException

Se ha producido un error al analizar los registros devueltos de la función de Lambda. Asegúrese de que el campo de datos esté codificado en base64.

Errores de invocación de Kinesis

Amazon Data Firehose puede enviar los siguientes errores de invocación de Kinesis a Logs. CloudWatch

Código de error Mensaje de error e información
Kinesis.AccessDenied “Access was denied when calling Kinesis. Asegúrese de que la política de acceso del IAM rol utilizado permita el acceso a la Kinesis APIs adecuada».
Kinesis.ResourceNotFound “Firehose failed to read from the stream. If the Firehose is attached with Kinesis Stream, the stream may not exist, or the shard may have been merged or split. Si la Firehose es de DirectPut este tipo, es posible que la Firehose ya no exista».
Kinesis.SubscriptionRequired “Access was denied when calling Kinesis. Asegúrese de que el IAM rol transferido para el acceso a las transmisiones de Kinesis tenga una suscripción a AWS Kinesis».
Kinesis.Throttling “Throttling error encountered when calling Kinesis. Esto puede deberse a que otras aplicaciones hacen lo APIs mismo que la transmisión de Firehose o a que ha creado demasiadas transmisiones de Firehose con la misma transmisión de Kinesis como fuente».
Kinesis.Throttling “Throttling error encountered when calling Kinesis. Esto puede deberse a que otras aplicaciones hacen lo APIs mismo que la transmisión de Firehose o a que ha creado demasiadas transmisiones de Firehose con la misma transmisión de Kinesis como fuente».
Kinesis.AccessDenied “Access was denied when calling Kinesis. Asegúrese de que la política de acceso del IAM rol utilizado permita el acceso a la Kinesis APIs adecuada».
Kinesis.AccessDenied «Se denegó el acceso al intentar llamar a API las operaciones de la Kinesis Stream subyacente. Asegúrese de que el IAM rol esté propagado y sea válido».
Kinesis.KMS.AccessDeniedException «Firehose no tiene acceso a la KMS clave utilizada para cifrar o descifrar Kinesis Stream. Please grant the Firehose delivery role access to the key.”
Kinesis.KMS.KeyDisabled «Firehose no puede leer la fuente de Kinesis Stream porque la KMS clave utilizada para cifrarla o descifrarla está deshabilitada. Enable the key so that reads can proceed.”
Kinesis.KMS.InvalidStateException «Firehose no puede leer el contenido de Kinesis Stream de origen porque la KMS clave utilizada para cifrarlo no es válido».
Kinesis.KMS.NotFoundException «Firehose no puede leer la fuente de Kinesis Stream porque no ha encontrado la KMS clave utilizada para cifrarlo».

Errores de invocación de Kinesis DirectPut

Amazon Data Firehose puede enviar los siguientes errores de DirectPut invocación de Kinesis a Logs. CloudWatch

Código de error Mensaje de error e información
Firehose.KMS.AccessDeniedException «Firehose no tiene acceso a la KMS llave. Please check the key policy.”
Firehose.KMS.InvalidStateException «Firehose no puede descifrar los datos porque la KMS clave utilizada para cifrarlos no es válida».
Firehose.KMS.NotFoundException «Firehose no puede descifrar los datos porque no ha encontrado la KMS clave utilizada para cifrarlos».
Firehose.KMS.KeyDisabled «Firehose no puede descifrar los datos porque la KMS clave utilizada para cifrarlos está deshabilitada. Enable the key so that data delivery can proceed.”

AWS Glue errores de invocación

Amazon Data Firehose puede enviar los siguientes errores de AWS Glue invocación a Logs. CloudWatch

Código de error Mensaje de error e información
DataFormatConversion.InvalidSchema “The schema is invalid.”
DataFormatConversion.EntityNotFound “The specified table/database could not be found. Please ensure that the table/database exists and that the values provided in the schema configuration are correct, especially with regards to casing.”
DataFormatConversion.InvalidInput “Could not find a matching schema from glue. Please make sure the specified database with the supplied catalog ID exists.”
DataFormatConversion.InvalidInput “Could not find a matching schema from glue. Asegúrese de que la contraseña ARN esté en el formato correcto».
DataFormatConversion.InvalidInput “Could not find a matching schema from glue. Asegúrese de que lo catalogId proporcionado es válido».
DataFormatConversion.InvalidVersionId “Could not find a matching schema from glue. Please make sure the specified version of the table exists.”
DataFormatConversion.NonExistentColumns “Could not find a matching schema from glue. Please make sure the table is configured with a non-null storage descriptor containing the target columns.”
DataFormatConversion.AccessDenied “Access was denied when assuming role. Please ensure that the role specified in the data format conversion configuration has granted the Firehose service permission to assume it.”
DataFormatConversion.ThrottledByGlue “Throttling error encountered when calling Glue. Either increase the request rate limit or reduce the current rate of calling glue through other applications.”
DataFormatConversion.AccessDenied “Access was denied when calling Glue. Please ensure that the role specified in the data format conversion configuration has the necessary permissions.”
DataFormatConversion.InvalidGlueRole “Invalid role. Please ensure that the role specified in the data format conversion configuration exists.”
DataFormatConversion.InvalidGlueRole “The security token included in the request is invalid. Asegúrese de que la IAM función proporcionada asociada a Firehose no se elimine».
DataFormatConversion.GlueNotAvailableInRegion «AWS Glue aún no está disponible en la región que has especificado; por favor, especifica una región diferente».
DataFormatConversion.GlueEncryptionException “There was an error retrieving the master key. Ensure that the key exists and has the correct access permissions.”
DataFormatConversion.SchemaValidationTimeout “Timed out while retrieving table from Glue. Si tienes un gran número de versiones de tablas Glue, añade el permiso «glue:GetTableVersion» (recomendado) o elimina las versiones de tablas no utilizadas. Si no tienes un gran número de mesas en Glue, ponte en contacto con AWS Support».
DataFirehose.InternalError “Timed out while retrieving table from Glue. Si tienes un gran número de versiones de tablas Glue, añade el permiso «glue:GetTableVersion» (recomendado) o elimina las versiones de tablas no utilizadas. Si no tienes un gran número de mesas en Glue, ponte en contacto con AWS Support».
DataFormatConversion.GlueEncryptionException “There was an error retrieving the master key. Ensure that the key exists and state is correct.”

DataFormatConversion errores de invocación

Amazon Data Firehose puede enviar los siguientes errores de DataFormatConversion invocación a Logs. CloudWatch

Código de error Mensaje de error e información
DataFormatConversion.InvalidSchema “The schema is invalid.”
DataFormatConversion.ValidationException “Column names and types must be non-empty strings.”
DataFormatConversion.ParseError «Se encontró un formato incorrectoJSON».
DataFormatConversion.MalformedData “Data does not match the schema.”
DataFormatConversion.MalformedData “Length of json key must not be greater than 262144”
DataFormatConversion.MalformedData «Los datos no se pueden decodificar como UTF -8».
DataFormatConversion.MalformedData “Illegal character found between tokens.”
DataFormatConversion.InvalidTypeFormat “The type format is invalid. Check the type syntax.”
DataFormatConversion.InvalidSchema “Invalid Schema. Asegúrese de que no haya caracteres especiales ni espacios en blanco en los nombres de las columnas».
DataFormatConversion.InvalidRecord “Record is not as per schema. One or more map keys were invalid for map<string,string>.”
DataFormatConversion.MalformedData «La entrada JSON contenía una primitiva en el nivel superior. The top level must be an object or array.”
DataFormatConversion.MalformedData «La entrada JSON contenía una primitiva en el nivel superior. The top level must be an object or array.”
DataFormatConversion.MalformedData “The record was empty or contained only whitespace.”
DataFormatConversion.MalformedData “Encountered invalid characters.”
DataFormatConversion.MalformedData “Encountered invalid or unsupported timestamp format. Please see the Firehose developer guide for supported timestamp formats.”
DataFormatConversion.MalformedData “A scalar type was found in the data but a complex type was specified on the schema.”
DataFormatConversion.MalformedData “Data does not match the schema.”
DataFormatConversion.MalformedData “A scalar type was found in the data but a complex type was specified on the schema.”
DataFormatConversion.ConversionFailureException "ConversionFailureException"
DataFormatConversion.DataFormatConversionCustomerErrorException "DataFormatConversionCustomerErrorException"
DataFormatConversion.DataFormatConversionCustomerErrorException "DataFormatConversionCustomerErrorException"
DataFormatConversion.MalformedData “Data does not match the schema.”
DataFormatConversion.InvalidSchema “The schema is invalid.”
DataFormatConversion.MalformedData “Data does not match the schema. Invalid format for one or more dates.”
DataFormatConversion.MalformedData «Los datos contienen una JSON estructura muy anidada que no es compatible».
DataFormatConversion.EntityNotFound “The specified table/database could not be found. Please ensure that the table/database exists and that the values provided in the schema configuration are correct, especially with regards to casing.”
DataFormatConversion.InvalidInput “Could not find a matching schema from glue. Please make sure the specified database with the supplied catalog ID exists.”
DataFormatConversion.InvalidInput “Could not find a matching schema from glue. Asegúrese de que el pase ARN tenga el formato correcto».
DataFormatConversion.InvalidInput “Could not find a matching schema from glue. Asegúrese de que lo catalogId proporcionado es válido».
DataFormatConversion.InvalidVersionId “Could not find a matching schema from glue. Please make sure the specified version of the table exists.”
DataFormatConversion.NonExistentColumns “Could not find a matching schema from glue. Please make sure the table is configured with a non-null storage descriptor containing the target columns.”
DataFormatConversion.AccessDenied “Access was denied when assuming role. Please ensure that the role specified in the data format conversion configuration has granted the Firehose service permission to assume it.”
DataFormatConversion.ThrottledByGlue “Throttling error encountered when calling Glue. Either increase the request rate limit or reduce the current rate of calling glue through other applications.”
DataFormatConversion.AccessDenied “Access was denied when calling Glue. Please ensure that the role specified in the data format conversion configuration has the necessary permissions.”
DataFormatConversion.InvalidGlueRole “Invalid role. Please ensure that the role specified in the data format conversion configuration exists.”
DataFormatConversion.GlueNotAvailableInRegion «AWS Glue aún no está disponible en la región que has especificado; por favor, especifica una región diferente».
DataFormatConversion.GlueEncryptionException “There was an error retrieving the master key. Ensure that the key exists and has the correct access permissions.”
DataFormatConversion.SchemaValidationTimeout “Timed out while retrieving table from Glue. Si tienes un gran número de versiones de tablas Glue, añade el permiso «glue:GetTableVersion» (recomendado) o elimina las versiones de tablas no utilizadas. Si no tienes un gran número de mesas en Glue, ponte en contacto con AWS Support».
DataFirehose.InternalError “Timed out while retrieving table from Glue. Si tienes un gran número de versiones de tablas Glue, añade el permiso «glue:GetTableVersion» (recomendado) o elimina las versiones de tablas no utilizadas. Si no tienes un gran número de mesas en Glue, ponte en contacto con AWS Support».
DataFormatConversion.MalformedData “One or more fields have incorrect format.”