Ajustar um modelo de aprendizagem linear - Amazon SageMaker

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Ajustar um modelo de aprendizagem linear

O ajuste automático de modelos, também conhecido como ajuste de hiperparâmetros, localiza a melhor versão de um modelo executando vários trabalhos que testam uma série de hiperparâmetros no seu conjunto de dados. Você escolhe os hiperparâmetros ajustáveis, um intervalo de valores para cada um e uma métrica objetiva. Você escolhe a métrica objetiva entre as métricas que o algoritmo calcula. O ajuste de modelo automático pesquisa os hiperparâmetros escolhidos para encontrar a combinação de valores que resultam no modelo que otimiza a métrica objetiva.

O algoritmo de Aprendizagem linear também tem um mecanismo interno para ajuste de hiperparâmetros separados do recurso de ajuste de modelo automático descrito aqui. Por padrão, o algoritmo de Aprendizagem linear ajusta os hiperparâmetros treinando vários modelos em paralelo. Quando você usa o ajuste automático de modelo, o mecanismo de ajuste interno de Aprendizagem linear é desativado automaticamente. Isso define o número de modelos paralelos, num_models, como 1. O algoritmo ignora qualquer valor que você tenha definido para num_models.

Para mais informações sobre o ajuste de modelos, consulte Execute o ajuste automático do modelo com SageMaker.

Métricas calculadas pelo algoritmo de aprendizagem linear

O algoritmo de aprendizagem linear relata as métricas na tabela a seguir, que são calculadas durante o treinamento. Escolha uma deles como a métrica objetiva. Para evitar o sobreajuste, recomendamos ajustar o modelo em uma métrica de validação em vez de em uma métrica de treinamento.

Nome da métrica Descrição Direção de otimização
test:absolute_loss

A perda absoluta do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para regressão.

Minimizar

test:binary_classification_accuracy

A precisão do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação binária.

Maximizar

test:binary_f_beta

A pontuação F-beta do modelo final no conjunto de dados de teste. Por padrão, é a pontuação F1, que é a média harmônica de precisão e recall. Essa métrica objetiva só é válida para classificação binária.

Maximizar

test:dcg

O ganho cumulativo descontado do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

test:macro_f_beta

A pontuação F-beta do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

test:macro_precision

A pontuação da precisão do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

test:macro_recall

A pontuação do recall do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

test:mse

O erro quadrático médio do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para regressão.

Minimizar

test:multiclass_accuracy

A precisão do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

test:multiclass_top_k_accuracy

A precisão entre os k principais rótulos previstos no conjunto de dados de teste. Se você escolher essa métrica como objetivo, recomendamos definir o valor de k usando o hiperparâmetro accuracy_top_k. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

test:objective_loss

O valor médio da função de perda de objetivo no conjunto de dados de teste após o modelo ser treinado. Por padrão, a perda é a perda logística para classificação binária e a perda quadrada para regressão. Para definir a perda como outros tipos, use o hiperparâmetro loss.

Minimizar

test:precision

A precisão do modelo final no conjunto de dados de teste. Se você escolher essa métrica como objetivo, recomendamos configurar um recall de destino definindo o hiperparâmetro binary_classifier_model_selection como precision_at_target_recall e definindo o valor do hiperparâmetro target_recall. Essa métrica objetiva só é válida para classificação binária.

Maximizar

test:recall

O recall do modelo final no conjunto de dados de teste. Se você escolher essa métrica como objetivo, recomendamos configurar uma precisão de destino definindo o hiperparâmetro binary_classifier_model_selection como recall_at_target_precision e definindo o valor do hiperparâmetro target_precision. Essa métrica objetiva só é válida para classificação binária.

Maximizar

test:roc_auc_score

A área sob a curva característica operacional receptora (curva ROC) do modelo final no conjunto de dados de teste. Essa métrica objetiva só é válida para classificação binária.

Maximizar

validation:absolute_loss

A perda absoluta do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para regressão.

Minimizar

validation:binary_classification_accuracy

A precisão do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação binária.

Maximizar

validation:binary_f_beta

A pontuação F-beta do modelo final no conjunto de dados de validação. Por padrão, a pontuação F-beta é a pontuação F1, que é a média harmônica das métricas validation:precision e validation:recall. Essa métrica objetiva só é válida para classificação binária.

Maximizar

validation:dcg

O ganho cumulativo descontado do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

validation:macro_f_beta

A pontuação F-beta do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

validation:macro_precision

A pontuação de precisão do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

validation:macro_recall

A pontuação do recall do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

validation:mse

O erro quadrático médio do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para regressão.

Minimizar

validation:multiclass_accuracy

A precisão do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

validation:multiclass_top_k_accuracy

A precisão entre os k principais rótulos previstos no conjunto de dados de validação. Se você escolher essa métrica como objetivo, recomendamos definir o valor de k usando o hiperparâmetro accuracy_top_k. Essa métrica objetiva só é válida para classificação multiclasse.

Maximizar

validation:objective_loss

O valor médio da função de perda de objetivo no conjunto de dados de validação a cada epoch. Por padrão, a perda é a perda logística para classificação binária e a perda quadrada para regressão. Para definir a perda como outros tipos, use o hiperparâmetro loss.

Minimizar

validation:precision

A precisão do modelo final no conjunto de dados de validação. Se você escolher essa métrica como objetivo, recomendamos configurar um recall de destino definindo o hiperparâmetro binary_classifier_model_selection como precision_at_target_recall e definindo o valor do hiperparâmetro target_recall. Essa métrica objetiva só é válida para classificação binária.

Maximizar

validation:recall

O recall do modelo final no conjunto de dados de validação. Se você escolher essa métrica como objetivo, recomendamos configurar uma precisão de destino definindo o hiperparâmetro binary_classifier_model_selection como recall_at_target_precision e definindo o valor do hiperparâmetro target_precision. Essa métrica objetiva só é válida para classificação binária.

Maximizar

validation:rmse

A raiz do erro quadrático médio do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para regressão.

Minimizar

validation:roc_auc_score

A área sob a curva característica de operação receptora (curva ROC) do modelo final no conjunto de dados de validação. Essa métrica objetiva só é válida para classificação binária.

Maximizar

Ajuste de hiperparâmetros da aprendizagem linear

Você pode ajustar um modelo de aprendizagem linear com os seguintes hiperparâmetros.

Nome do parâmetro Tipo de parâmetro Intervalos recomendados
wd

ContinuousParameterRanges

MinValue: 1e-7, MaxValue: 1

l1

ContinuousParameterRanges

MinValue: 1e-7, MaxValue: 1

learning_rate

ContinuousParameterRanges

MinValue: 1e-5, MaxValue: 1

mini_batch_size

IntegerParameterRanges

MinValue: 100, MaxValue: 5000

use_bias

CategoricalParameterRanges

[True, False]

positive_example_weight_mult

ContinuousParameterRanges

MinValue: 1e-5, MaxValue: 1e5