パーソナライズされたランキングレシピ - Amazon Personalize

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

パーソナライズされたランキングレシピ

Personalized-Ranking レシピは、アイテムのパーソナライズされたランキングを生成します。パーソナライズされたランキングは、特定のユーザー向けに再ランク付けされた推奨アイテムのリストです。これは、検索結果、プロモーション、厳選されたリストなど、注文されたアイテムのコレクションがあり、ユーザーごとにパーソナライズされた再ランキングを提供したい場合に便利です。

モデルをトレーニングするために、Personalized-Ranking レシピは、インタラクションデータセット内のデータを使用し、作成した場合は、データセットグループ内の Items データセットおよび Users データセットを使用します。パーソナライズされたランキングでは、Items データセットに非構造化テキストのメタデータで、インタラクションデータセットにコンテキストメタデータ。パーソナライズされたランキングを取得するには、[] を使用します。 GetPersonalizedRanking API.

注記

ランキングのためにインタラクションデータがない商品を提供した場合、Amazon Personalize GetPersonalizedRanking API レスポンスでレコメンデーションスコアなしでこれらの商品を返します。

このレシピには以下のプロパティがあります。

  • 名前aws-personalized-ranking

  • レシピ Amazon リソースネーム (ARN)arn:aws:personalize:::recipe/aws-personalized-ranking

  • アルゴリズム ARNarn:aws:personalize:::algorithm/aws-personalized-ranking

  • 機能変換 ARNarn:aws:personalize:::feature-transformation/JSON-percentile-filtering

  • レシピタイプPERSONALIZED_RANKING

Hyperparameters

以下の表では、Personalize-Ranking レシピのハイパーパラメータについて説明します。ハイパーパラメータは、モデルパフォーマンスを向上させるために調整できるアルゴリズムパラメータです。アルゴリズムのハイパーパラメータは、モデルの実行方法を制御します。特徴化のハイパーパラメータは、トレーニングで使用するデータのフィルタリング方法を制御します。ハイパーパラメータに最適な値を選択するプロセスは、ハイパーパラメータの最適化 (HPO) と呼ばれます。詳細については、「ハイパーパラメータおよび HPO」を参照してください。

このテーブルには、各ハイパーパラメータに関する以下の情報も含まれています。

  • 範囲: [下限、上限]

  • 値の型: 整数、連続 (浮動小数点)、カテゴリ別 (ブール値、リスト、文字列)

  • 調整可能な HPO: パラメータがハイパーパラメータ最適化 (HPO) に参加できますか?

名前 説明
アルゴリズムのハイパーパラメータ
hidden_dimension

モデルで使用される非表示変数の数。非表示の変数は、ユーザーの購入履歴と商品統計を再作成して、ランキングスコアを生成します。インタラクションデータセットにより複雑なパターンが含まれている場合は、より多くの非表示ディメンションを指定します。使用する非表示のディメンションが多くなると、データセットが大きくなり、処理時間が長くなります。最適な値を決定するには、HPO を使用します。HPO を使用するには、 CreateSolution オペレーション CreateSolutionVersion とオペレーションを呼び出すときに performHPOtrue に設定します。

デフォルト値: 149

範囲: [32、256]

値の型: 整数

HPO はい

bptt

通し時間のバックプロパゲーションの手法を使用するかどうかを決定します。通し時間のバックプロパゲーションは、再帰的なニューラルネットワークベースのアルゴリズムの重みを更新する手法です。遅延報酬を早期イベントに接続するには、長期クレジットに bptt を使用します。たとえば、遅延報酬には、数回のクリック後に行われる購入を指定できます。早期イベントは、最初のクリックにすることができます。クリックなどの同じイベントタイプ内であっても、長期的な効果を考慮し、合計報酬を最大化することをお勧めします。長期的な効果を考慮するには、より大きい bptt 値を使用します。大きな bptt 値を使用するには、より大きいデータセットと長い処理時間が必要です。

デフォルト値: 32

範囲: [2、32]

値の型: 整数

HPO はい

recency_mask

モデルがインタラクションデータセットの最新の人気傾向を考慮する必要があるかどうかを決定します。最新の人気トレンドには、インタラクションイベントの基盤となるパターンの突然の変化が含まれる可能性があります。最近のイベントにより多くの重みを置くモデルをトレーニングするには、recency_masktrue に設定します。過去のすべてのインタラクションを均等に重み付けするモデルをトレーニングするには、recency_maskfalse に設定します。同じ重みを使用して適切なレコメンデーションを取得するには、より大きなトレーニングデータセットが必要になる場合があります。

デフォルト値: True

範囲: True または False

値の型: ブール値

HPO はい

特徴化のハイパーパラメータ
min_user_history_length_percentile

モデルのトレーニングに含めるユーザー履歴の長さの最小パーセンタイル。履歴の長さ は、ユーザーに関するデータの合計量です。履歴の長さが短いある割合のユーザーを除外するには、min_user_history_length_percentile を使用します。履歴が短いユーザーは、多くの場合、ユーザーの個人的なニーズや希望ではなく、アイテムの人気に基づくパターンを表示します。それらを削除すると、データの基盤となるパターンに重点を置いてモデルをトレーニングできます。ヒストグラムまたは同様のツールを使用して、ユーザー履歴の長さを確認した後で適切な値を選択します。大部分のユーザーを保持し、エッジケースを削除する値を設定することをお勧めします。

たとえば、min__user_history_length_percentile to 0.05max_user_history_length_percentile to 0.95 を設定すると、履歴の長さが下位または上位 5% であるユーザーを除くすべてのユーザーが含まれます。

デフォルト値: 0.0

範囲: [0.0, 1.0]

値の型: 浮動小数点

HPO いいえ

max_user_history_length_percentile

モデルのトレーニングに含めるユーザー履歴の長さの最大パーセンタイル。履歴の長さ は、ユーザーに関するデータの合計量です。max_user_history_length_percentile を使用して、ある割合の履歴の長さが長いユーザーを除外します。これらのユーザーのデータにはノイズが含まれる傾向があるためです。たとえば、ロボットに自動化されたインタラクションの長いリストがあるとします。これらのユーザーを削除することで、トレーニングのノイズが制限されます。ヒストグラムまたは同様のツールを使用して、ユーザー履歴の長さを確認した後で適切な値を選択します。大部分のユーザーを保持し、エッジケースを削除する値を設定することをお勧めします。

たとえば、min__user_history_length_percentile to 0.05max_user_history_length_percentile to 0.95 を設定すると、履歴の長さが下位または上位 5% であるユーザーを除くすべてのユーザーが含まれます。

デフォルト値: 0.99

範囲: [0.0, 1.0]

値の型: 浮動小数点

HPO いいえ

パーソナライズされたランキングのサンプルノート PC

Personalized-Ranking レシピの使用方法を示すサンプル Jupyter ノートブックについては、」Personalize ランキング例