BatchInferenceJobSummary - Amazon Personalize

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

BatchInferenceJobSummary

Uma versão truncada do. BatchInferenceJob A ListBatchInferenceJobsoperação retorna uma lista de resumos de trabalhos de inferência em lote.

Conteúdo

batchInferenceJobArn

O nome do recurso da Amazon (ARN) do trabalho de inferência em lote.

Tipo: string

Restrições de tamanho: o tamanho máximo é 256.

Padrão: arn:([a-z\d-]+):personalize:.*:.*:.+

Obrigatório: não

batchInferenceJobMode

O modo do trabalho.

Tipo: String

Valores Válidos: BATCH_INFERENCE | THEME_GENERATION

Obrigatório: não

creationDateTime

A hora em que o trabalho de inferência em lote foi criado.

Tipo: Timestamp

Obrigatório: não

failureReason

Se houver falha no trabalho de inferência em lote, o motivo da falha.

Tipo: sequência

Obrigatório: não

jobName

O nome do trabalho de inferência em lote.

Tipo: string

Restrições de tamanho: o tamanho mínimo é 1. O tamanho máximo é 63.

Padrão: ^[a-zA-Z0-9][a-zA-Z0-9\-_]*

Obrigatório: não

lastUpdatedDateTime

A hora em que o trabalho de inferência em lote foi atualizado pela última vez.

Tipo: Timestamp

Obrigatório: não

solutionVersionArn

O ARN da versão da solução usada pelo trabalho de inferência em lote.

Tipo: string

Restrições de tamanho: o tamanho máximo é 256.

Padrão: arn:([a-z\d-]+):personalize:.*:.*:.+

Obrigatório: não

status

O status do trabalho de inferência em lote. O status tem um dos valores a seguir:

  • PENDING

  • IN PROGRESS

  • ACTIVE

  • CREATE FAILED

Tipo: string

Restrições de tamanho: o tamanho máximo é 256.

Obrigatório: não

Consulte também

Para obter mais informações sobre como usar essa API em um dos AWS SDKs específicos da linguagem, consulte o seguinte: