Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Hiperparámetros de detección de objetos
En la solicitud CreateTrainingJob
, especifique el algoritmo de capacitación que desee utilizar. También puede especificar hiperparámetros específicos de algoritmo que se utilizan para ayudar a calcular los parámetros del modelo desde un conjunto de datos de capacitación. En la siguiente tabla se enumeran los hiperparámetros proporcionados por Amazon SageMaker para entrenar el algoritmo de detección de objetos. Para obtener más información sobre cómo funciona la capacitación de objetos, consulte Cómo funciona la detección de objetos.
Nombre del parámetro | Descripción |
---|---|
num_classes |
El número de clases de salida. Este parámetro define las dimensiones de la salida de red y normalmente se establece en el número de clases en el conjunto de datos. Obligatorio Valores válidos: número entero positivo |
num_training_samples |
El número de ejemplos de capacitación en el conjunto de datos de entrada. notaSi se produce una falta de coincidencia entre este valor y el número de muestras en el conjunto de capacitación, el comportamiento del parámetro Obligatorio Valores válidos: número entero positivo |
base_network |
La arquitectura de red base a utilizar. Opcional Valores válidos: "vgg-16" o "resnet-50' Valor predeterminado: 'vgg-16' |
early_stopping |
Opcional Valores válidos: Valor predeterminado: |
early_stopping_min_epochs |
El número mínimo de fechas de inicio que deben ejecutarse antes de que pueda invocarse la lógica de detención temprana. Se utiliza solo cuando Opcional Valores válidos: número entero positivo Valor predeterminado: 10 |
early_stopping_patience |
El número de fechas de inicio que esperar antes de finalizar la capacitación si no se realiza ninguna mejora, tal como se define en el hiperparámetro Opcional Valores válidos: número entero positivo Valor predeterminado: 5 |
early_stopping_tolerance |
El valor de tolerancia relativa que la mejora relativa en Opcional Valores válidos: 0 ≤ número flotante ≤ 1 Valor predeterminado: 0,0 |
image_shape |
El tamaño de la imagen para imágenes de entrada. Reescalamos la imagen de entrada a una imagen cuadrada con este tamaño. Recomendamos utilizar 300 y 512 para un mejor rendimiento. Opcional Valores válidos: número entero positivo ≥300 Predeterminado: 300 |
epochs |
El número de fechas de inicio de capacitación. Opcional Valores válidos: número entero positivo Valor predeterminado: 30 |
freeze_layer_pattern |
La expresión regular (regex) para congelar capas en la red base. Por ejemplo, si establecemos Opcional Valores válidos: cadena Predeterminado: sin capas congeladas. |
kv_store |
El modo de sincronización de actualización de ponderación usado para la capacitación distribuido. Las ponderaciones pueden actualizarse de forma sincrónica o asíncrona en las máquinas. Las actualizaciones sincrónicas suelen proporcionar una mejor precisión que las asincrónicas, pero pueden ser más lentas. Consulte el tutorial de MXNet Distributed Training notaEste parámetro no es aplicable a la capacitación de una máquina. Opcional Valores válidos:
Predeterminado: - |
label_width |
La anchura de la etiqueta de relleno de fuerza que se utiliza para la sincronización entre la capacitación y los datos de validación. Por ejemplo, si una imagen de los datos contiene un máximo de 10 objetos y cada comentario del objeto se especifica con 5 números, [class_id, izquierda, parte superior, ancho, alto], el Opcional Valores válidos: número entero positivo lo suficientemente grande como para admitir la mayor información de comentarios en los datos. Predeterminado: 350 |
learning_rate |
La tasa de aprendizaje inicial. Opcional Valores válidos: número flotante en (0, 1] Predeterminado: 0.001 |
lr_scheduler_factor |
La proporción para reducir la tasa de aprendizaje. Utilizado en combinación con el parámetro Opcional Valores válidos: número flotante en (0, 1) Predeterminado: 0.1 |
lr_scheduler_step |
Las fechas de inicio en las que reducir la tasa de aprendizaje. La tasa de aprendizaje se reduce en Opcional Valores válidos: cadena Valor predeterminado: cadena vacía |
mini_batch_size |
El tamaño del lote para la capacitación. En una configuración de varias GPU de una sola máquina, cada GPU administra muestras de capacitación Opcional Valores válidos: número entero positivo Predeterminado: 32 |
momentum |
El impulso para Opcional Valores válidos: número flotante en (0, 1] Predeterminado: 0.9 |
nms_threshold |
El umbral de supresión no máxima. Opcional Valores válidos: número flotante en (0, 1] Predeterminado: 0.45 |
optimizer |
Los tipos de optimizador. Para obtener más información sobre los valores de optimizador, consulte la MXNet's API Opcional Valores válidos: ["sgd", "adam", "rmsprop", "adadelta"] Predeterminada: "sgd" |
overlap_threshold |
La evaluación se solapa al umbral. Opcional Valores válidos: número flotante en (0, 1] Predeterminado: 0.5 |
use_pretrained_model |
Indica si usar un modelo capacitado previamente para capacitación. Si se establece en 1, se carga el modelo capacitado previamente con la arquitectura correspondiente y se utiliza para capacitación. De lo contrario, se realiza la capacitación de la red desde cero. Opcional Valores válidos: 0 o 1 Valor predeterminado: 1 |
weight_decay |
El coeficiente de decremento de ponderación para Opcional Valores válidos: número flotante en (0, 1) Predeterminado: 0.0005 |