RNN 레시피 (레거시) - Amazon Personalize

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

RNN 레시피 (레거시)

참고

레거시 HRNN 레시피는 더 이상 사용할 수 없습니다. 이 문서는 참고 용도로만 제공됩니다.

를 사용하는 것이 좋습니다. aws-user-personalizaton (사용자 개인 설정) 레거시 HRNN 레시피를 통한 레시피 사용자 개인화는 HRNN 레시피가 제공하는 기능을 개선하고 통합합니다. 자세한 정보는 사용자 개인화 레시피을 참조하십시오.

계층적 반복 신경망 (HRNN) 레시피 모델은 사용자 동작의 변화를 모델링하여 세션 중에 권장 사항을 제공합니다. 세션은 예를 들어 요구를 충족하는 특정 항목을 찾는 것을 목적으로 한 지정된 시간 내의 사용자 상호 작용의 세트입니다. 사용자의 최근 상호 작용에 더 높게 무게를 부여함으로써 세션 중에 더 관련된 권장 사항을 제공할 수 있습니다.

HRNN은 시간의 흐름에 따라 변경될 수 있는 사용자 의도와 관심사를 수용합니다. 그리고 정렬된 사용자 기록을 가져와 더 나은 추론을 하도록 자동으로 가중치를 부여합니다. HRNN에서는 게이트 메커니즘을 사용하여 할인 가중치를 항목과 타임스탬프의 학습 가능한 함수로 모델링합니다.

Amazon Personalize Personalize는 데이터 세트에서 각 사용자의 기능을 추출합니다. 실시간 데이터 통합을 수행한 경우 이러한 기능은 사용자 활동에 따라 실시간으로 업데이트됩니다. 권장 사항을 가져오려면 USER_ID만을 제공합니다. 또한 를 제공하는 경우ITEM_IDAmazon Personalize 이를 무시합니다.

HRNN 레시피의 속성은 다음과 같습니다.

  • 이름aws-hrnn

  • 레시피 Amazon 리소스 이름(ARN)arn:aws:personalize:::recipe/aws-hrnn

  • 알고리즘 ARNarn:aws:personalize:::algorithm/aws-hrnn

  • 기능 변환 ARNarn:aws:personalize:::feature-transformation/JSON-percentile-filtering

  • 레시피 유형USER_PERSONALIZATION

다음 표에서는 HRNN 레시피의 하이퍼파라미터를 설명합니다. 하이퍼파라미터는 모델 성능을 향상시키기 위해 조정할 수 있는 알고리즘 파라미터입니다. 알고리즘 하이퍼파라미터는 모델이 성능을 내는 방식을 제어합니다. 기능화 하이퍼파라미터는 교육에서 사용할 데이터를 필터링하는 방법을 제어합니다. 하이퍼파라미터에 대한 최적 값을 선택하는 과정을 하이퍼파라미터 최적화(HPO)라고 합니다. 자세한 정보는 하이퍼파라미터 및 HPO을 참조하십시오.

표에는 각 하이퍼파라미터에 대한 다음 정보도 표시됩니다.

  • 범위: [하한, 상한]

  • 값 유형: 정수, 연속 (부동 소수점), 범주 (부울, 목록, 문자열)

  • 조정 가능한 HPO: 파라미터가 HPO 에 참여할 수 있습니까?

이름 설명
알고리즘 하이퍼파라미터
hidden_dimension

모델에 사용된 숨겨진 변수 개수 숨겨진 변수는 사용자의 구매 기록 및 항목 통계를 재생성하여 순위 결정 점수를 생성합니다. 상호 작용 데이터 세트에 더 복잡한 패턴이 포함되는 경우 더 많은 숨겨진 차원을 지정합니다. 더 많은 숨겨진 차원을 사용하는 데는 더 큰 데이터 세트와 더 많은 처리 시간이 필요합니다. 최적 값을 결정하려면 HPO를 사용합니다. HPO를 사용하려면 CreateSolutionCreateSolutionVersion 작업 호출 시 performHPOtrue에 설정합니다.

기본값: 43

범위: [32, 256]

값 형식: Integer

HPO 조정 가능: 예

bptt

시간 기법을 통한 역전파를 사용할지 여부를 결정합니다. 시간을 기준으로 한 역전파는 반복 신경망 기반 알고리즘의 가중치를 업데이트하는 기법입니다. 장기 크레딧에 대한 bptt를 사용하여 지연된 보상을 초기 이벤트에 연결합니다. 예를 들어 지연된 보상은 여러 번 클릭 후 이루어진 구매일 수 있습니다. 초기 이벤트는 초기 클릭일 수 있습니다. 클릭과 같은 동일한 이벤트 유형 내에서도 장기 효과를 고려하고 전체 보상을 최대화하는 것이 좋습니다. 장기 효과를 고려하려면 더 큰 bptt 값을 사용합니다. 더 큰 bptt 값을 사용하는 데는 더 큰 데이터 세트와 더 많은 처리 시간이 필요합니다.

기본값: 32

범위: [2, 32]

값 형식: Integer

HPO 조정 가능: 예

recency_mask

모델이 상호 작용 데이터 세트의 최신 인기 트렌드를 고려해야 하는지 여부를 결정합니다. 최신 인기 트렌드에는 상호 작용 이벤트 기본 패턴의 갑작스러운 변경이 포함될 수 있습니다. 최신 이벤트에 더 많은 가중치를 부여하는 모델을 교육하려면 recency_masktrue에 설정합니다. 지난 모든 상호 작용에 동일한 가중치를 부여하는 모델을 교육하려면 recency_maskfalse에 설정합니다. 동일한 가중치를 사용하여 좋은 권장 사항을 가져오려면 더 큰 교육 데이터 세트가 필요할 수 있습니다.

기본값: True

범위: True 또는 False

값 형식: 부울

HPO 조정 가능: 예

기능화 하이퍼파라미터
min_user_history_length_percentile

모델 교육에 포함할 사용자 기록 길이의 최소 백분위수. 기록 길이는 사용자에 대한 데이터의 총 용량입니다. min_user_history_length_percentile을 사용하여 기록 길이가 짧은 사용자의 백분율을 제외합니다. 기록 길이가 짧은 사용자는 사용자의 개인 요구나 필요 대신에 항목 인기 기반의 패턴을 종종 보입니다. 이 패턴을 제거하면 데이터의 기본 패턴에 더 많이 집중하며 모델을 교육할 수 있습니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 기록 길이를 검토한 후 적절한 값을 선택합니다. 다수의 사용자를 유지하되 엣지 케이스를 제거하는 값을 설정하는 것이 좋습니다.

예를 들어 min__user_history_length_percentile to 0.05max_user_history_length_percentile to 0.95 설정에는 기록 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다.

기본값: 0.0

범위: [0.0, 1.0]

값 형식: Float

HPO 조정 가능: 아니요

max_user_history_length_percentile

모델 교육에 포함할 사용자 기록 길이의 최대 백분위수. 기록 길이는 사용자에 대한 데이터의 총 용량입니다. max_user_history_length_percentile을 사용하여 기록 길이가 긴 사용자의 백분율을 제외합니다. 이러한 사용자의 데이터에는 노이즈가 포함되는 경향이 있기 때문입니다. 예를 들어 로봇은 자동화된 상호 작용의 긴 목록을 포함할 수 있습니다. 이러한 사용자를 제거하는 경우 교육 시 노이즈가 제한됩니다. 히스토그램 또는 유사한 도구를 사용하여 사용자 기록 길이를 검토한 후 적절한 값을 선택합니다. 다수의 사용자를 유지하되 엣지 케이스를 제거하는 값을 설정하는 것이 좋습니다.

예를 들어 min__user_history_length_percentile to 0.05max_user_history_length_percentile to 0.95 설정에는 기록 길이가 하위 또는 상위 5%에 해당하는 사용자를 제외한 모든 사용자가 포함됩니다.

기본값: 0.99

범위: [0.0, 1.0]

값 형식: Float

HPO 조정 가능: 아니요