Receta HRNN (heredada) - Amazon Personalize

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Receta HRNN (heredada)

nota

Las recetas heredadas de HRNN ya no están disponibles. Esta documentación sirve como referencia.

Recomendamos que utilice la receta aws-user-personalizaton (User-Personalization) en lugar de las recetas heredadas de HRNN. User-Personalization mejora y unifica la funcionalidad que ofrecen las recetas HRNN. Para obtener más información, consulte Receta User-Personalization.

La receta de la red neuronal recurrente jerárquica (HRNN) de Amazon Personalize modela los cambios en el comportamiento de los usuarios para proporcionar recomendaciones durante una sesión. Una sesión es un conjunto de interacciones de usuarios durante un periodo de tiempo determinado con el objetivo de encontrar un elemento específico para satisfacer una necesidad, por ejemplo. Al ponderar con mayor puntuación las interacciones recientes de un usuario, puede proporcionar recomendaciones más relevantes durante una sesión.

HRNN se adapta a la intención y los intereses de los usuarios, que pueden cambiar con el tiempo. Toma historias de usuario ordenadas y las pondera automáticamente para realizar mejores deducciones. HRNN utiliza un mecanismo de regulación para modelar las ponderaciones de descuentos como una función aprendible de los elementos y la marca de tiempo.

Amazon Personalize deriva las características de cada usuario de su conjunto de datos. Si se ha realizado la integración de datos en tiempo real, estas características se actualizan en tiempo real en función de la actividad de los usuarios. Para obtener una recomendación, proporcione solo el USER_ID. Si también proporciona ITEM_ID, Amazon Personalize lo ignorará.

La receta HRNN incluye las siguientes propiedades:

  • Nombre: aws-hrnn

  • Nombre de recurso de Amazon (ARN) de la receta: arn:aws:personalize:::recipe/aws-hrnn

  • ARN del algoritmo: arn:aws:personalize:::algorithm/aws-hrnn

  • ARN de transformación de características: arn:aws:personalize:::feature-transformation/JSON-percentile-filtering

  • Tipo de receta: USER_PERSONALIZATION

En la siguiente tabla se describen los hiperparámetros de la receta HRNN. Un hiperparámetro es un parámetro de algoritmo que se puede ajustar para mejorar el rendimiento del modelo. Los hiperparámetros de algoritmos controlan el rendimiento del modelo. Los hiperparámetros de caracterización controlan cómo se filtran los datos que se van a utilizar en el entrenamiento. El proceso de elección del mejor valor para un hiperparámetro se denomina optimización de hiperparámetros (HPO). Para obtener más información, consulte Hiperparámetros y HPO.

La tabla también proporciona la siguiente información para cada hiperparámetro:

  • Rango: [límite inferior, límite superior]

  • Tipo de valor: número entero, continuo (flotante), categórico (booleano, lista, cadena)

  • HPO ajustable: ¿puede el parámetro participar en HPO?

Nombre Descripción
Hiperparámetros de algoritmos
hidden_dimension

El número de variables ocultas utilizadas en el modelo. Las variables ocultas recrean el historial de compras de los usuarios y las estadísticas de los elementos para generar puntuaciones de clasificación. Especifique un número mayor de dimensiones ocultas cuando el conjunto de datos de interacciones de elementos incluya patrones más complicados. El uso de más dimensiones ocultas requiere un conjunto de datos mayor y más tiempo de procesamiento. Para decidir el valor óptimo, utilice HPO. Para utilizar HPO, establezca performHPO en true cuando llame a las operaciones CreateSolution y CreateSolutionVersion.

Valor predeterminado: 43

Rango: [32, 256]

Tipo de valor: entero

HPO ajustable: sí

bptt

Determina si se debe utilizar la propagación hacia atrás a través de la técnica de tiempo. La propagación hacia atrás a través del tiempo es una técnica que actualiza ponderaciones en algoritmos basados en redes neuronales recurrentes. Utilice bptt para créditos a largo plazo para conectar recompensas retrasadas a eventos tempranos. Por ejemplo, una recompensa retrasada puede ser una compra realizada después de varios clics. Un evento temprano puede ser un clic inicial. Incluso dentro de los mismos tipos de eventos, tales como un clic, es buena idea tener en cuenta los efectos a largo plazo y maximizar las recompensas totales. Para tener en cuenta los efectos a largo plazo, utilice valores mayores de bptt. El uso de un valor de bptt mayor requiere conjuntos de datos más grandes y más tiempo de procesamiento.

Valor predeterminado: 32

Rango: [2, 32]

Tipo de valor: entero

HPO ajustable: sí

recency_mask

Determina si el modelo debe tener en cuenta las últimas tendencias de popularidad en el conjunto de datos de interacciones de elementos. Las últimas tendencias de popularidad pueden incluir cambios bruscos en los patrones subyacentes de los eventos de interacción. Para entrenar un modelo que tenga más peso sobre los eventos recientes, establezca recency_mask en true. Para entrenar un modelo que pesa igualmente todas las interacciones anteriores, establezca recency_mask en false. Para obtener buenas recomendaciones con el mismo peso, es posible que necesite un conjunto de datos de entrenamiento mayor.

Valor predeterminado: True

Rango: True o False

Tipo de valor: booleano

HPO ajustable: sí

Hiperparámetros de caracterización
min_user_history_length_percentile

El percentil mínimo de longitudes de historial de usuario para incluir en el entrenamiento de modelos. La longitud del historial es la cantidad total de datos sobre un usuario. Utilice min_user_history_length_percentile para excluir un porcentaje de usuarios con longitudes de historial cortas. Los usuarios con un historial corto suelen mostrar patrones basados en la popularidad de los elementos en lugar de sus necesidades o deseos personales. Eliminarlos puede entrenar modelos que se centren más en los patrones subyacentes de los datos. Elija un valor adecuado después de revisar las longitudes del historial de usuarios, utilizando un histograma o una herramienta similar. Recomendamos establecer un valor que retenga a la mayoría de los usuarios, pero que elimine los casos de borde.

Por ejemplo, al establecer min__user_history_length_percentile to 0.05 y max_user_history_length_percentile to 0.95 se incluyen todos los usuarios, excepto los que tienen longitudes de historial en el 5 % inferior o superior.

Valor predeterminado: 0,0

Rango: [0,0, 1,0]

Tipo de valor: flotante

HPO ajustable: no

max_user_history_length_percentile

El percentil máximo de longitudes de historial de usuario para incluir en el entrenamiento de modelos. La longitud del historial es la cantidad total de datos sobre un usuario. Utilice max_user_history_length_percentile para excluir un porcentaje de usuarios con longitudes de historial largas, ya que los datos de estos usuarios tienden a contener ruido. Por ejemplo, un robot podría tener una larga lista de interacciones automatizadas. La eliminación de estos usuarios limita el ruido en el entrenamiento. Elija un valor adecuado después de revisar las longitudes del historial de usuarios mediante un histograma o una herramienta similar. Recomendamos establecer un valor que retenga la mayoría de los usuarios, pero que elimine los casos de borde.

Por ejemplo, al establecer min__user_history_length_percentile to 0.05 y max_user_history_length_percentile to 0.95 se incluyen todos los usuarios, excepto los que tienen longitudes de historial en el 5 % inferior o superior.

Valor predeterminado: 0,99

Rango: [0,0, 1,0]

Tipo de valor: flotante

HPO ajustable: no