As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Duração do relatório de execução e unidades de inferência usadas
Se você treinou e iniciou seu modelo depois de agosto de 2022, pode usar a CloudWatch métrica da InServiceInferenceUnits
Amazon para determinar por quantas horas um modelo foi executado e o número de unidades de inferência usadas durante essas horas.
nota
Se você tiver apenas um modelo em uma AWS região, também poderá obter o tempo de execução do modelo rastreando chamadas bem-sucedidas de entrada StartprojectVersion
e StopProjectVersion
entrada CloudWatch. Essa abordagem não funciona se você executar mais de um modelo na AWS região, pois as métricas não incluem informações sobre o modelo.
Como alternativa, você pode usar AWS CloudTrail para rastrear chamadas para StartProjectVersion
e StopProjectVersion
(o que inclui o ARN do modelo no requestParameters
campo do histórico de eventos). CloudTrail os eventos são limitados a 90 dias, mas você pode armazenar eventos por até 7 anos em um CloudTraillago.
O procedimento a seguir cria gráficos para o seguinte:
O número de horas em que um modelo foi executado.
O número de unidades de inferência que um modelo usou.
É possível escolher um período de até 15 meses no passado. Para obter mais informações sobre a retenção de métricas, consulte Retenção de métricas.
Para determinar a duração do modelo e as unidades de inferência usadas para um modelo
-
Faça login no AWS Management Console e abra o CloudWatch console em https://console.aws.amazon.com/cloudwatch/
. -
No painel de navegação esquerdo, escolha Todas as métricas em Métricas.
No painel inferior, escolha a guia Origem.
Certifique-se de que o botão Painel está selecionado.
Na caixa de edição, substitua o JSON existente pelo JSON a seguir. Altere os seguintes valores:
Project_Name
: o projeto que contém o modelo que você deseja representar graficamente.Version_Name
: a versão do modelo que você deseja representar graficamente.-
AWS_Region
— A AWS região que contém o modelo. Verifique se o CloudWatch console está na mesma AWS região, verificando o seletor de região na barra de navegação na parte superior da página. Atualize conforme for necessário.
{ "sparkline": true, "metrics": [ [ { "expression": "SUM(m1)*m1", "label": "Inference units used", "id": "e1" } ], [ { "expression": "DATAPOINT_COUNT(m1)*m1/m1", "label": "Hours running", "id": "e2" } ], [ "AWS/Rekognition", "InServiceInferenceUnits", "ProjectName", "
Project_Name
", "VersionName", "Version_Name
", { "id": "m1", "visible": false } ] ], "view": "singleValue", "stacked": false, "region": "AWS_Region
", "stat": "Average", "period": 3600, "title": "Hours run and inference units used" }Selecione Atualizar.
-
Na parte superior da página, escolha uma linha do tempo. É preciso ver os números das unidades de inferência usadas e as horas de execução durante a linha do tempo. As lacunas no gráfico indicam momentos em que o modelo não estava em execução. A captura de tela do console abaixo mostra as unidades de inferência usadas e as horas de execução em períodos de tempo, com um tempo personalizado de 2 semanas definido, com os valores mais altos de 214 unidades de inferência e 209 horas de execução.
-
(Opcional) Adicione o gráfico a um painel, selecione Ações e Adicionar ao painel: aprimorado.