HRNN 레시피(레거시) - Personalize

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

HRNN 레시피(레거시)

참고

레거시 HRNN 레시피는 더 이상 사용할 수 없습니다. 이 설명서는 참조용입니다.

레거시 HRNN 레시피보다 aws-user-personalizaton(사용자-개인 맞춤) 레시피를 사용하는 것이 좋습니다. 사용자-개인 맞춤은 HRNN 레시피가 제공하는 기능을 개선하고 통합한 레시피입니다. 자세한 내용은 사용자-개인 맞춤 레시피 내용을 참조하세요.

Amazon Personalize 계층적 반복 신경망(HRNN) 레시피 모델은 사용자 행동의 변화를 모델링하여 세션 중에 추천을 제공합니다. 세션은 예를 들어 요구를 충족하는 특정 항목을 찾는 것을 목적으로 한 지정된 시간 내의 사용자 상호작용의 세트입니다. 사용자의 최근 상호작용에 더 높게 가중치를 부여함으로써 세션 중에 더 관련된 추천을 제공할 수 있습니다.

HRNN은 시간의 흐름에 따라 변경될 수 있는 사용자 의도와 관심사를 수용합니다. 그리고 정렬된 사용자 이력을 가져와 더 나은 추론을 하도록 자동으로 가중치를 부여합니다. HRNN에서는 게이트 메커니즘을 사용하여 할인 가중치를 항목과 타임스탬프의 학습 가능한 함수로 모델링합니다.

Amazon Personalize는 데이터 세트에서 각 사용자의 특성을 추출합니다. 실시간 데이터 통합을 수행한 경우 이러한 특성은 사용자 활동에 따라 실시간으로 업데이트됩니다. 추천을 받으려면 USER_ID만을 제공합니다. 또한 ITEM_ID을 제공해도 경우 Amazon Personalize가 무시합니다.

HRNN 레시피의 속성은 다음과 같습니다.

  • 명칭aws-hrnn

  • 레시피 Amazon 리소스 이름(ARN) - arn:aws:personalize:::recipe/aws-hrnn

  • 알고리즘 ARN - arn:aws:personalize:::algorithm/aws-hrnn

  • 특성 변환 ARN - arn:aws:personalize:::feature-transformation/JSON-percentile-filtering

  • 레시피 유형 - USER_PERSONALIZATION

다음 표에서는 HRNN 레시피의 하이퍼파라미터를 설명합니다. 하이퍼파라미터는 모델 성능을 향상시키기 위해 조정할 수 있는 알고리즘 파라미터입니다. 알고리즘 하이퍼파라미터는 모델이 성능을 내는 방식을 제어합니다. 특성화 하이퍼파라미터는 학습에서 사용할 데이터를 필터링하는 방법을 제어합니다. 하이퍼파라미터에 대한 최적 값을 선택하는 과정을 하이퍼파라미터 최적화(HPO)라고 합니다. 자세한 내용은 하이퍼파라미터 및 HPO 단원을 참조하세요.

표에는 각 하이퍼파라미터에 대한 다음 정보도 표시됩니다.

  • 범위: [하한, 상한]

  • 값 형식: 정수, 연속(부동 소수점), 범주(부울, 목록, 문자열)

  • 조정 가능한 HPO: 파라미터가 HPO에 참여할 수 있습니까?

명칭 Description
알고리즘 하이퍼파라미터
hidden_dimension

모델에 사용된 숨겨진 변수 개수. 숨겨진 변수는 사용자의 구매 이력 및 항목 통계를 재생성하여 순위 점수를 생성합니다. 항목 상호 작용 데이터 세트에 더 복잡한 패턴이 포함되는 경우 더 많은 숨겨진 차원을 지정합니다. 더 많은 숨겨진 차원을 사용하는 데는 더 큰 데이터 세트와 더 많은 처리 시간이 필요합니다. 최적 값을 결정하려면 HPO를 사용합니다. HPO를 사용하려면 CreateSolutionCreateSolutionVersion 작업 호출 시 performHPOtrue로 설정합니다.

기본 값: 43

범위: [32, 256]

값 형식: 정수

HPO 조정 가능: 예

bptt

시간 기법을 통한 역전파를 사용할지 여부를 결정합니다. 시간을 기준으로 한 역전파는 반복 신경망 기반 알고리즘의 가중치를 업데이트하는 기법입니다. 장기 크레딧에 대한 bptt를 사용하여 지연된 보상을 초기 이벤트에 연결합니다. 예를 들어 지연된 보상은 여러 번 클릭 후 이루어진 구매일 수 있습니다. 초기 이벤트는 초기 클릭일 수 있습니다. 클릭과 같은 동일한 이벤트 유형 내에서도 장기 효과를 고려하고 전체 보상을 최대화하는 것이 좋습니다. 장기 효과를 고려하려면 더 큰 bptt 값을 사용합니다. 더 큰 bptt 값을 사용하는 데는 더 큰 데이터 세트와 더 많은 처리 시간이 필요합니다.

기본 값: 32

범위: [2, 32]

값 형식: 정수

HPO 조정 가능: 예

recency_mask

모델이 항목 상호 작용 데이터 세트의 최신 인기 트렌드를 고려해야 하는지 여부를 결정합니다. 최신 인기 트렌드에는 상호작용 이벤트 기본 패턴의 갑작스러운 변경이 포함될 수 있습니다. 최신 이벤트에 더 많은 가중치를 부여하는 모델을 학습시키려면 recency_masktrue로 설정합니다. 지난 모든 상호작용에 동일한 가중치를 부여하는 모델을 학습시키려면 recency_maskfalse로 설정합니다. 동일한 가중치를 사용하여 좋은 추천을 받으려면 더 큰 학습 데이터 세트가 필요할 수 있습니다.

기본 값: True

범위: True 또는 False

값 형식: 부울

HPO 조정 가능: 예

특성화 하이퍼파라미터
min_user_history_length_percentile

모델 학습에 포함시킬 사용자 이력 길이의 최소 백분위수. 이력 길이는 사용자에 대한 데이터의 총 용량입니다. 이력 길이가 짧은 사용자의 백분율을 제외시키려면 min_user_history_length_percentile을 사용합니다. 이력 길이가 짧은 사용자는 사용자의 개인 요구나 필요 대신에 항목 인기 기반의 패턴을 종종 보입니다. 이 패턴을 제거하면 데이터의 기본 패턴에 더 많이 집중하며 모델을 학습시킬 수 있습니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 이력 길이를 검토한 후 적절한 값을 선택합니다. 다수의 사용자를 유지하되 극단적 경우를 제거하는 값을 설정하는 것이 좋습니다.

예를 들어 min__user_history_length_percentile to 0.05max_user_history_length_percentile to 0.95를 설정하면 이력 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다.

기본 값: 0.0

범위: [0.0, 1.0]

값 형식: 부동 소수점

HPO 조정 가능: 아니요

max_user_history_length_percentile

모델 학습에 포함시킬 사용자 이력 길이의 최대 백분위수. 이력 길이는 사용자에 대한 데이터의 총 용량입니다. 이력 길이가 긴 사용자의 백분율을 제외시키려면 max_user_history_length_percentile을 사용합니다. 이러한 사용자의 데이터에는 노이즈가 포함되는 경향이 있기 때문입니다. 예를 들어 로봇은 자동화된 상호작용의 긴 목록을 포함할 수 있습니다. 이러한 사용자를 제거하는 경우 학습 시 노이즈가 제한됩니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 이력 길이를 검토한 후 적절한 값을 선택합니다. 다수의 사용자를 유지하되 극단적 경우를 제거하는 값을 설정하는 것이 좋습니다.

예를 들어 min__user_history_length_percentile to 0.05max_user_history_length_percentile to 0.95를 설정하면 이력 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다.

기본 값: 0.99

범위: [0.0, 1.0]

값 형식: 부동 소수점

HPO 조정 가능: 아니요